Cloaking : utilité, risque

Corrigeur

WRInaute occasionnel
Est-il judicieux de présenter un contenu différent selon les moteurs ?
Je pense par exemple à title et description qui n'ont pas la même longueur ni les mêmes critères selon les moteurs.
Faut-il alors préférer l'IP ou l'Agent ?
 

NickyLarson

WRInaute occasionnel
Re: Cloaking

Le sujet m'intéresse pour savoir à partir de quel niveau on parle de cloacking. Exemple:

En utilisant http://www.webtoolhub.com/tn561346-cloaking-checker.aspx et en essayant un site au hasard, comme fnac*com, on obtient le résultat suivant:

Status This website is Cloaking
Browser Response Content Length for Normal Browser : 203,480 bytes
Crawler Response Content Length for Crawler : 136,452 bytes

Est-ce qu'on parle donc de cloacking pure et dure?
 

Ehplod

WRInaute impliqué
Re: Cloaking

Risque énorme.
Ce qu'un visiteur voit... n'importe quel moteur doit voir la même chose. A quelques toutes petites exceptions près...

Si on présente du contenu optimisé pour un moteur spécifique, il risque de pénaliser durement s'il le découvre.
Il faut s'adapter et présenter le meilleur compromis.


Maintenant se faire pénaliser sur Bing, n'a certainement que peu d'impact dans le taux de visite général. :)
 

Corrigeur

WRInaute occasionnel
Re: Cloaking

Selon les moteurs, pour la balise title par exemple, l'ordre des mots a une importance différente et la longueur du contenu visible n'est pas la même. Est-ce une bonne ou une mauvaise pratique d'adapter ces deux balises aux 3 principaux moteurs ?

Je pense également à un annuaire qui diffuse certaines pages en rel="follow" pour les internautes et rel="nofollow" pour les moteurs. Là, la pratique est foncièrement malhonnête, mais cela portera-t-il à conséquence pour cet annuaire ?
 

Corrigeur

WRInaute occasionnel
Re: Cloaking

J'ajoute :

En cas de sanction, est-ce uniquement la page cloaquée qui sera pénalisée ou bien tout le site ?
 

e-kiwi

WRInaute accro
Re: Cloaking

http://www.webtoolhub.com n'est pas forcement fiable, car si un site affiche des informations selon la ville de connxion (ip), l'outil mentionne le site comme faisant du cloaking, or ce n'est pas le cas, sinon Google lui même fait du cloaking avec ces résultats personnalisés.

mais pour ta question : c'est une très mauvaise idée, tu dois trouver un titre qui convienne à tous les moteurs ainsi qu'aux internautes, sinon ça s'appelle de la sur-optimisation
 

NickyLarson

WRInaute occasionnel
Re: Cloaking

e-kiwi a dit:
http://www.webtoolhub.com n'est pas forcement fiable, car si un site affiche des informations selon la ville de connxion (ip), l'outil mentionne le site comme faisant du cloaking, or ce n'est pas le cas, sinon Google lui même fait du cloaking avec ces résultats personnalisés.

Merci pour la précision.
Tu connais un outil fiable dans ce cas là?
Ou comment on peut détecter du cloacking a part comparer le front et le code?
 

e-kiwi

WRInaute accro
Re: Cloaking

non pas vraiment, mais c'est en testant l'outil que j'ai remarqué ce bug (j'ai testé la home d'un site d'actu et comparé les résultats avec pspad)
 

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
Re: Cloaking

Matt Cutts a donné pas mal d'explications récemment sur le cloaking, via cette vidéo :

en gros, si ton cloaking consiste à fournir un contenu différent selon que le visiteur est un robot de moteur de recherche ou pas, alors il est strictement interdit et donc risqué.

à mon avis le risque est tel que tu peux avoir l'ensemble de ton site banni. Ca ne vaut donc pas le coup pour si peu...

tu écris "title et description qui n'ont pas la même longueur ni les mêmes critères selon les moteurs"
pour la description, où as-tu lu les critères de longueur ? car pour Google par exemple, il n'y en a pas, la taille du snippet dépendant de la longueur de la requête
 

Corrigeur

WRInaute occasionnel
Est-ce un contre-exemple ? Le Framework Noloh de noloh.com fournit un contenu différent selon les navigateurs et le système utilisé.
 

Marie-Aude

WRInaute accro
Code once, deploy everywhere: NOLOH handles all aspects of user agent detection and generates the code necessary for the most common browsers (Firefox, Internet Explorer, Opera, Safari, and other browsers sufficiently like them) and operating systems. There is no longer any need for complicated " browser sniffing" statements that produce or execute different code depending on which browser is being used, dramatically slashing development time and headache.

ça n'a rien à voir. cela concerne le code, pas le contenu, et cela évite simplement de charger des tonnes de hack pour être compatible multibrowser
 

Corrigeur

WRInaute occasionnel
Il disent aussi de regarder leur site et on voit que la version Google diffère profondément de la version Internaute.
Ils sont en première place dans Google sur la séquence clé : framework noloh.
 

Marie-Aude

WRInaute accro
Comme cela a été dit plus haut, l'outil n'est pas fiable.

Le cloaking c'est de présenter des contenus différents à l'internaute et au crawler.
noloh.com a un certain nombre de techniques, qui font que le code source semble différent. Le contenu généré pas obligatoirement.

La page affichée dans le browser est identique pour moi sur IE, FF, Chrome et Opéra. Le title est identique.
Les keywords non, mais OSEF (en tout cas Google, et de plus ce n'est pas un contenu affiché à l'internaute, idem pour la description).
Donc sauf à partir dans une longue pêche fastidieuse, (ce que je te conseille néanmoins de faire si tu veux avoir un véritable avis sur la question) pour comparer le CONTENU des pages, je ne vois pas de cloaking prohibé par Google.
 

Discussions similaires

Haut