Quelques cas pointus de cloaking, expliqués par Google

WRInaute accro
excellent article, je vais ajouter une petite pierre à l'édifice si Olivier le permet.
Mon activité est un petit magasin informatique à la campagne, j'ai donc développé un système de facturation qui permet de mettre des tarifs en ligne (jusque là), sauf que je ne vend pas en ligne sur cette partie (trop petit pour avoir des tarifs ajusté aux grands groupes) et m'intéresse donc qu'aux clients belges (et encore juste les francophones, soit environ 4.000.000 de clients potentiels).

Mon idée était d'afficher les liens lorsque le visiteur est belge et des adsences pour les autres. Il a fallu environ 15 jours pour que GG se rende compte que c'était "cloaker" dans le sens général du terme et effectivement, dans mon cache, les pubs vers mes pages internes sont affichées pour les belges (y compris dans le cache) et pas pour les autres. GG n'a pas n'ont plus sanctionné le follow vers les fiches de produits lorsque cette partie était en sous domaine (depuis redirigé vers un sous dossier).
 
WRInaute accro
Bonjour Olivier et bonjour aux WRInautes


L'article est intéressant, ceci dit j'ai une question très simple : le phénomène "inverse" (typiquement le contenu chargé en Javascript à la demande, via AJAX par exemple) consistant à n'afficher du contenu "que" pour l'internaute sur un choix de ce dernier, est-il considéré comme une action pénalisable ?

Il va sans dire que d'un point de vue optimisation, et dans la mesure où ce contenu chargé à la volée peut s'avérer assez volumineux (système de chargement similaire à celui utilisé dans Bing Images...) il n'y aurait aucun intérêt à ce que les moteurs puissent lire ledit contenu !
 
WRInaute impliqué
Quid du cloacking comportemental non systématique... Par exemple un user arrive sur une page qui n'existe plus, si son referer contient des mots-clés et on lui propose des liens connexes (ou une redirection spécifique)...
100% des robots ne le verront pas, tout comme 90% des utilisateurs... Cela peut-etre mis en place non pour des interets SEO mais plus simplement marketing ("Faites vos sites pour les visiteurs, pas pour les robots" qu'ils disaient)
Dangereux ou pas?
 
WRInaute accro
Te rappelle au passage que Google suit les redirections (y compris la méthode <meta refresh>) Là c'est plus du cloaking, ca ressemble fortement à de la tricherie. Il y a aussi des humains chez Google qui vérifient les sites
 
WRInaute impliqué
Te rappelle au passage que Google suit les redirections (y compris la méthode <meta refresh>) Là c'est plus du cloaking, ca ressemble fortement à de la tricherie. Il y a aussi des humains chez Google qui vérifient les sites
Justement à propos de ça, on en parle ici et là, mais sont-ils vraiment nombreux?
 
WRInaute discret
Bonjour! Notre site (mon "WWW") présente un contenu sensiblement différent selon que l'internaute est un visiteur ou un abonné.
En effet dans le cas d'un visiteur non identifié, toutes les pages expliquent le système de troc multilatéral, le fonctionnement général du site, et présentent une accroche "commerciale", ce qui ne serait pas pertinent pour nos abonnés.
Est-ce que cela peut être considéré par Google comme du cloaking ?
 
WRInaute accro
ybet a dit:
Te rappelle au passage que Google suit les redirections (y compris la méthode <meta refresh>) Là c'est plus du cloaking, ca ressemble fortement à de la tricherie. Il y a aussi des humains chez Google qui vérifient les sites
live fait pas mal de spoofing de ce genre depuis plusieurs mois.
Si tu vois des requêtes avec 1 seul mot (mot clé très recherché) et que tu ne te trouves pas dans les SERP, ça vient de ça
 
WRInaute discret
Hello,

Je me pose une question à propos du cloaking :

Ma boutique ecommerce a un moteur de recherche. Ces pages de recherche sont en NOINDEX, comme google le préconise. Sur ces pages de recherche, il y a des liens de "recherche filtrée" (faceted navigation), qui permet de filtrer par couleur, par taille, par marque, etc. Résultat, quand googlebot va les voir, il a des centaines de combinaisons à crawler, pour rien puisque de toutes façons elles sont en noindex.

Mon idée: étant donné que Googlebot vient toujours avec un referer vide, je voudrais n'afficher les liens de navigation filtrée que lorsqu'il y a un referer. S'il n'y a pas de referer, et donc si c'est Google (ou quelqu'un qui a tapé directement l'url, mais c'est super rare sur les pages de recherche), pas de navigation filtrée. Et donc, des centaines de pages que google n'aura pas besoin de crawler, sachant que de toutes façons elles sont en noindex et que donc ça sert à rien.

A votre avis, c'est du cloaking ou pas? Apres tout, je ne fais rien de spécial pour google, un visiteur qui vient directement sur la meme url verra la meme chose...

Merci de votre avis.
 
Discussions similaires
Haut