Sans surprise, Matt Cutts rassure en indiquant que cela ne pose pas de problème, car l'intention n'est pas de cacher du contenu (sur-optimisation) mais d'améliorer l'expérience utilisateur (UX).
Si au contraire l'idée est de masquer du contenu, que presque aucun internaute ne voit, avec un gros pavé qui s'affiche, alors dans ce cas ça peut être risqué.
Cette technique étant répandue sur une large partie des sites actuels, il n'est pas étonnant que Google ne sanctionne pas cette pratique. On peut imaginer que dans certains cas, une analyse humaine est faite par un Search Quality Rater pour vérifier.
Il en est de même avec les menus qui s'affichent quand on survole avec la souris : une bonne partie de contenu est masqué, jusqu'à ce que l'internaute passe sa souris où il faut.
D'une manière générale, si votre intention n'est pas de masquer le contenu, vous n'avez donc rien à craindre. Ensuite, pour vérifier si le robot Google peut bien accéder au contenu correspondant (en fonction de la technologie que vous avez utilisée), le plus simple est de regarder la version en cache (texte seul et CSS désactivés) de votre page, une fois que Google l'a indexée.
La vidéo :
Bonjour,
Ne sachant pas utiliser une extension de type "web developer"
puis-je me fier à la simple version texte seul de la version cache d'une page pour savoir si les robots de google accèdent à mon contenu "caché" ?
en général ça suffit, mais parfois il faut en plus désactiver les styles CSS
abonnes.lemonde.fr qui masque presque l'intégralité des articles n'est pas sanctionné, alors que les utilisateurs ne peuvent y accéder sans payer (ou en désactivant le javascript mais ça il faut pas le dire)...
Bonjour, et que pensez d'un "pay with a like, tweet, or +1" pour révéler une partie du contenu ?
Est-ce considéré comme une sorte de manipulation de la popularité sur les réseaux sociaux et donc, sur le ranking ?
"On peut imaginer que dans certains cas, une analyse humaine est faite par un Search Quality Rater pour vérifier." J'imagine (j'espère) que oui. Je ne vois pas comment un algo ferait du "sans faute" dans ce genre d'analyse...
On s'en doutait bien que ce type de pratique n'est pas sanctionnée.
Quand vous dite:
"la version en cache (texte seul et CSS désactivés) de votre page"
Vous entendez:
- ouvrir la version cache
- desactivé le css à l'aide d'une extension type "Web developper ?
Car de base le cache ne desactive pas la CSS??
En effet gotcha, c'est ce que je voulais dire.
Encore une fois, Matt Cutts nous donne l'impression de nous donner que la moitié de l'information. Ce que l'on retient, comme toujours avec Google, lorsque l'objectif est d'améliorer l'expérience utilisateur, il n'y a aucun problème. C'est lorsque l'on fait de la sur optimisation que cela commence à poser des problèmes.
Bonjour, je ne comprends pas très bien, mais si j’écris un texte blanc sur un fond blanc, cela veut il dire que c'est un texte caché et que Google pourrait le détecter?
Oui Oneeyewil, c'est possible en effet
Vu les nombreuses manipulations du DOM permises aujourd'hui par JavaScript et les effets visuels recherchés par l'intermédiaire du CSS, il est de plus en plus fréquent d'avoir du contenu caché. Google en sera donc sûrement réduit à multiplier les interventions humaines pour vérifier si le contenu caché est fait dans le but de spammer, même si on se doute bien que les vérifications humaines font suite à des signalements.
Par contre, ni les filtres de Google, ni les intervenants humains ne seront vraiment capables de détecter les cas où, sous prétexte d'améliorer l'expérience-utilisateur, un webmaster spammera le moteur de recherche. D'ailleurs, quel webmaster aujourd'hui peut affirmer qu'il crée son site en pensant aux utilisateurs et non aux moteurs de recherche ?