Bonjour,
Les règles SEO sont assez complètes et s’opposent parfois à un design actuel, épuré et léger ! Je réalise actuellement un site photo et vidéo. Typiquement j’aimerais comme sur cette page : http://www.ascensionlatorre.com/home avoir un texte accrocheur (reprendre l’idée), où les visiteurs puissent se rendre sur les thèmes principaux du site…
Si je prends en compte les règles de Google, il donne priorité à ce qui se trouve au-dessus de la ligne de flottaison, ou en tous les cas ce qui se trouve au-dessus (texte, image) à une plus grande force qu’au milieu ou en bas de page. Arrêtez-moi si je me trompe.
Pour un site de photographe, avoir que du texte à l’ouverture du site est pas ce que je trouve de meilleurs goûts. C’est subjectif.
La solution que j’ai pour allier les deux, les règles de Google et ce que j’ai envie de présenter, c’est de passé par une méthode qui peut s’apparenté à du Cloacking, mais qui à mon sens en n’est pas. Je pourrais la qualifier de « Dynamic serving ».
Voici l’idée :
1- Je détecte le UserAgent
2- Si c’est un robot j’applique un Template et des CSS différents
3- Avec les Template je peux mettre du texte ciblé en dessus de la ligne de flottaison pour ne pas être « pénalise » par Google.
C’est exactement le même principe que pour un site responsive design, sauf que je l’applique des écrans Full HD.
Un point extrêmement important : Je précise que le contenu de la page est strictement identique, quelques soit le Template. Même photo, même texte. La détection du robot permet SIMPLEMENT d’appliqué un Template A ou B selon la nature du User Agent. C’est un point important sur lequel j’insiste, photo et texte identique.
Voilà, que pensez-vous de cette méthode ?
Détecter les User Agent pour appliquer tel ou tel Template ?
D’avance merci pour vos réponses, en fonction de vos diverses expériences.
++
Les règles SEO sont assez complètes et s’opposent parfois à un design actuel, épuré et léger ! Je réalise actuellement un site photo et vidéo. Typiquement j’aimerais comme sur cette page : http://www.ascensionlatorre.com/home avoir un texte accrocheur (reprendre l’idée), où les visiteurs puissent se rendre sur les thèmes principaux du site…
Si je prends en compte les règles de Google, il donne priorité à ce qui se trouve au-dessus de la ligne de flottaison, ou en tous les cas ce qui se trouve au-dessus (texte, image) à une plus grande force qu’au milieu ou en bas de page. Arrêtez-moi si je me trompe.
Pour un site de photographe, avoir que du texte à l’ouverture du site est pas ce que je trouve de meilleurs goûts. C’est subjectif.
La solution que j’ai pour allier les deux, les règles de Google et ce que j’ai envie de présenter, c’est de passé par une méthode qui peut s’apparenté à du Cloacking, mais qui à mon sens en n’est pas. Je pourrais la qualifier de « Dynamic serving ».
Voici l’idée :
1- Je détecte le UserAgent
2- Si c’est un robot j’applique un Template et des CSS différents
3- Avec les Template je peux mettre du texte ciblé en dessus de la ligne de flottaison pour ne pas être « pénalise » par Google.
C’est exactement le même principe que pour un site responsive design, sauf que je l’applique des écrans Full HD.
Un point extrêmement important : Je précise que le contenu de la page est strictement identique, quelques soit le Template. Même photo, même texte. La détection du robot permet SIMPLEMENT d’appliqué un Template A ou B selon la nature du User Agent. C’est un point important sur lequel j’insiste, photo et texte identique.
Voilà, que pensez-vous de cette méthode ?
Détecter les User Agent pour appliquer tel ou tel Template ?
D’avance merci pour vos réponses, en fonction de vos diverses expériences.
++