Cloaking or not cloaking? Exemple d'Amazon et Fnac

Nouveau WRInaute
On dit qu'il vaut mieux éviter les id de sessions dans les url que l'on souhaite indexer, au risque de faire perdre la boule aux robots qui trouveraient à chaque passage sur une page des url différentes pour un même contenu.

Je me suis donc penché sur ce que faisaient 2 gros sites d'ecommerce pour lesquels je me souvenais avoir pendant la navigation des url à rallonge, alors même que je n'avais pas créé de compte : test donc sur Amazon, le tout puissant et Fnac pour dire de regarder un français...

Pour commencer, une petite commande site: dans google et je découvre ce à quoi je m'attendais : les url des fiches produits indexées sont bien propres...

Ensuite, historique/cookies bien effacés

1/ je démarre par amazon, en tapant directement l'url de leur home, www.amazon.fr

- 1er clic sur le lien vers le dvd Pirates des Caraibes mis en avant, et voilà l'url de la page sur laquelle j'arrive:
http://www.amazon.fr/gp/product/B000XCX ... d_i=405320
(je vous avais parlé de rallonges, là c'est même imbuvable!)

- Je recommence cette fois en activant l'User Agent Googlebot (https://www.webrankinfo.com/forum/t/extension-useragent-switcher-avec-firefox.33943/ )
et là j'arrive sur la même fiche mais avec une url bien allégée, celle qui est finalement indexée : http://www.amazon.fr/Pirates-Caraibes-J ... B000XCXGLK

2/ Je refais la même manip sur le site de la fnac
- avec user agentswitcher désctivé :
http://www4.fnac.com/shelf/article.aspx ... 9c3&UID=...

- avec user agent switcher réglé sur googlebot:
http://www4.fnac.com/shelf/article.aspx ... 5&PID=6484

Indéniablement, ces 2 sites réagissent différemment que je sois "googlebot" ou moi-même...
Autant avec Fnac, l'url est simplement tronquée, avec Amazon, elle est carrément réécrite, avec le titre "Pirates-Caraibes-Jusquau-bout-monde" dans l'url. (or des mots clés dans l'url c'est toujours un petit plus pour se positionner...)

Celà ne s'arrête pas là pour Amazon :
- avec user agent désactivé, je clique sur la fiche produit "ocean 13", je reviens sur la fiches pirates des caraibes et là un nouvel élément apparait "Articles que vous avez consultés récemment" : Ocean 13"

- même chemin avec user agent sur googlebot, et là pas d'historique affiché, pas de "Articles que vous avez consultés récemment"

:arrow: Au delà de réécrire les url en y ajoutant des mots clés, amazon présente aussi un contenu différent à googlebot (un contenu allégé de l'historique du surf)
:arrow: quant à fnac, le contenu des pages est identique, seule l'url est tronquée des id de sessions pour googlebot...


Je ne leur jette pas la pierre, cette façon de faire n'est pas là pour tromper le visiteur (quoique amazon réécrit ses url quand même pour les optimiser) mais est-ce à proprement parler du cloaking?

Et si non, si parmi vous il y a des pros de cette méthode, vous pouvez la faire partager?
 
WRInaute passionné
Il ne faut pas confondre le cloaking passif qui ne fait qu'épurer une page/url afin de facilité une indexation et cloaking hard, qui consiste à dupper les robots en leur affichant vraiment différent du contenu normal ou truffé de suroptimisation.

en clair, d'un coté tu as la force, et de l'autre, le coté obscur :wink:
 
WRInaute accro
Par ailleurs, on peut considérer qu'éventuellement le dit cloaking d'Amazon le désavantagerait en lui faisant perdre des liens internes sur l'historique du surf.

Quoi qu'il n'y a là aucun "modification" puisque cela veut dire simplement que le googlebot n'a pas d'historique de navigation
 
WRInaute passionné
ouais, enfin ça lui permet de caser une super op de mot cle...
-http://www.amazon.fr/Pirates-Caraibes-Jusquau-bout-monde/dp/B000XCXGLK
 
WRInaute passionné
si je me souviens bien pour la fnac je pense que c'est notre ami Olivier :wink:
et c'est du cloaking intelligent ... pas dupant ...
 
WRInaute occasionnel
effectivement ce sujet est fort intéressant ! A priori ce type de procédé n'est pas dans les guidelines de google (au sens strict du terme) même si pas nocif pour son index.
 
Olivier Duffez (admin)
Membre du personnel
raljx a dit:
si je me souviens bien pour la fnac je pense que c'est notre ami Olivier :wink:
et c'est du cloaking intelligent ... pas dupant ...
Ah en voilà un qui a bien écouté pendant ma formation ! Oui en effet c'est moi qui me suis occupé de leur problème de référencement. Indexer la bagatelle d'un million de livres avec des identifiants de session, c'était pas simple surtout quand les fichiers sitemaps n'existaient pas. La solution utilisée a le mérite d'être ultra simple à mettre en place.

J'estime que le cloaking est acceptable si le contenu ne change pas (ou très peu : par exemple sur ce forum Googlebot ne voit pas le bouton "répondre"). Amazon fait déjà plus de changements... Jusqu'où peut-on aller ? Seul Google doit pouvoir répondre.
 
WRInaute accro
Je crois d'ailleurs que Google a d'autres crawlers sous un nom de user-agent plus commun (firefox ou IE) pour détecter le cloacking. Google a surement une liste des sites qui détecte le user-agent et qui adapte le contenu en fonction de celui-ci. En tout cas, pour eux, c'est très facile à faire.

Si le cloaking est utilisé de manière à faciliter l'accessibilité au contenu par les crawlers, je pense que GG n'y verra aucun problème. Il n'y a pas d'intension de "tromperie".

Par contre, si il est utilisé de manière à présenter à Google une version "trop" optimisée de la page ou carrément avec un contenu différent (par exemple, optimiser pour des requêtes standards pour en faire ressortir des pages X), là évidemment, il y a intentions flagrantes de vouloir manipuler les moteurs de recherches, donc là, forcément il y a sanction.

Maintenant, en ce qui concerne les variables de session, oui, c'est toujours un problème dès qu'on veut sauvegarder une session de panier ou que l'on veut tracker le comportement des visiteurs. Par contre, je m'étonne toujours que ces grandes sociétés n'aient pas trouver des parades simples :
- les sessions de panier n'ont besoin d'être créées qu'au premier ajout au panier, pas à la premère connexion sur le site
- les sessions de tracking peuvent être conservées dans des cookies (au pire si l'utilisateur n'a pas activé ses cookies, elles passent dans l'URL, mais cela ne concernerait qu'une minorité de clients)
Alors peut-être qu'il y a des rasions que je ne connais pas mais pour le coup, je n'en vois aucune.

Car ces sessions ont la facheuse manie de pourrir les URLs et de rendre compliquer le copier/coller d'URL sur des forums ou blogs qui leur amènerait pas mal de bons backlinks.
 
WRInaute discret
Un autre cas à vous soumettre

Je travail pour une société qui souhaite faire ce genre de redirection en identifiant en amont les ip des visiteurs et en les triant si ces derniers sont des abonnées ou non.

Le contenu sera présenté en fonction de l'internaute (un contenu pour prospect ou un contenu pour abonné).

Qu'en pensez-vous?
 
WRInaute discret
C'est à dire, l'ip utilisé proviens de la box. Mon client est un fournisseur d'accès internet et je n'en dirais pas plus votre honneur ;p
 
WRInaute accro
Ha ok le client est un fournisseur d'accès et peut donc te donner des ranges d'ip clientes, dans ce cas d'accord, sinon c'est bancal comme solution.
 
Nouveau WRInaute
raljx a dit:
si je me souviens bien pour la fnac je pense que c'est notre ami Olivier :wink:
et c'est du cloaking intelligent ... pas dupant ...

hello
je ne comprends pas. Ce n'est pas du cloaking. On a des URL différentes pour des contenus proches et légèrement différents. C'est du duplicate content plutôt, non ? Dans le cas de la fnac, on présente à Google une URL tronquée et les URL réelles ont des sessions Id avec des contenus identiquesà la personnalisation près (votre dernier choix de DVD était etc.)

cloaking : une URL et des contenus différents en fonction de qui on est : un bot Google ou un humain.

ai je raté une étape ??

Merci
 
Discussions similaires
Haut