Cloacking et différenciation de contenu.

WRInaute occasionnel
Bonjour,

je me pose une petite question...a savoir, selon vous, ou commence et ou s'arrête le cloacking ?

En effet, il est clair que mettre une liste de mots clefs en blanc sur fond blanc est du cloacking . Mais quant à la différenciation de contenu suivant le navigateur, ne risque t'elle pas d'être prise à tord comme du cloacking ?

En effet, avec la contre attaque que google prépare pour contrer les cloackers j'ai peur qu'un simple test conditionnel sur l'agent puisse finir par porter préjudice..qu'en pensez vous ?

pour ma part, j'ai créé une version alternative pour les visiteurs dont je ne suis pas certains qu'ils supportent 100% des fonctionnalités de mon site (div, css, dhtml, etc etc) ..j'espère ne pas avoir à m'en inquiéter.
 
WRInaute discret
A mon avis, du moment que le contenu du site est le meme, il n'y a pas cloaking, même si des tags html diffèrent.

Pour ça tu peux utiliser l'outil "spider simulator" qui se trouve dans les outils de WRI en le faisant fonctionner avec les différentes version, il doit donner le même résultat
 
WRInaute impliqué
Toutou-Fr a dit:
Le problème c'est justement quand le contenu n'est pas le même... exemple : lien en javascript vs lien en dur .

Tout a fait d'accord, mais le problème c'est que google ne dit rien de précis à ce sujet, et c'est bien dommage ... Parce que tous les cloaking ne sont pas des tricherie référencielles, mais tous risque le blacklistage.

Enfin, voilà ou on en est, j'éspère que les humains de google savent lire du code et apprécier ses intention quand il recoivent une plainte qui provient en général d'un concurant mécontant (et pas forcément objectif).

Mais quand on voit que google s'est auto blacklisté une page qui cloakait quelques mots clefs, on se demande ou est la limite, parce même si dans ce cas, c un peu de la triche, c'est quand même surprenant de voir des sites utiliser des technique bien plus lourdes et depuis longtempas sans être inquiété.

Voilà, et aussi un post que j'avais lancé sur le sujet : https://www.webrankinfo.com/forum/t/cloaking-pour-une-position-claire-de-google.32432/

++
 
WRInaute passionné
dcz a dit:
Parce que tous les cloaking ne sont pas des tricherie référencielles, mais tous risque le blacklistage.

Faux. Il n'y pas de risque de backlistage à toute sorte de cloaking, et encore heureux ! Si non t'imagines le nombre de sites qui seraient backlistés ?

Je le répète souvent : le cloaking n'est pas "backlistant" en lui même, ce qui est "backlistant" c'est le fait de cloaker et être bien positionné, en gros si tu genes t'es viré.
 
WRInaute impliqué
rottman a dit:
dcz a dit:
Parce que tous les cloaking ne sont pas des tricherie référencielles, mais tous risque le blacklistage.

Faux. Il n'y pas de risque de backlistage à toute sorte de cloaking, et encore heureux ! Si non t'imagines le nombre de sites qui seraient backlistés ?

Je le répète souvent : le cloaking n'est pas "backlistant" en lui même, ce qui est "backlistant" c'est le fait de cloaker et être bien positionné, en gros si tu genes t'es viré.

bah oui, mais sans regle clair, c un peut à la tête du client non ?
 
WRInaute discret
C'est un problème qui m'intéresse car il m'arrive de tester le "user agent" pour éviter de faire des requetes mysql si ce sont des bots.
C'est requetes servent juste à afficher des chiffres et n'apportent rien au contenu
Risque de cloaking ?
 
WRInaute occasionnel
J'utilise également beaucoup le user-agent pour éviter tous le problème des sessions, et également désactiver les requêtes en rapport, par exemple, avec des personnes connectés ou non
 
WRInaute impliqué
Je prefèrerais quand même une règle bien claire, ça couterait pas cher à google d'être réglo sur ce point.
 
WRInaute occasionnel
rottman a dit:
Dans ces 2 cas là il n'y très certainement pas de problème, si non ça se saurait.

En effet jusqu'à maintenant il n'y a pas encore eu de problème.
La crainte étant que chez google ils commencent vraiment à en avoir marre et qu'ils décident de lancer un bot avec un user agent "spoofé" afin de vérifier qu'il n'y ait pas de différence entre les versions percues par le bot classique et celui ci.

Enfin..je pense quand même (et heureusement pour tous ceux faisant des tests conditionnels sur l'agent) que ce serait difficilement réalisable car il y a un grand nombre de sites dont le contenu diffère entre un temps T et un temps T+1ms . Alors avant qu'ils n'arrivent à être parfaitement synchros... ;-)

Enfin bref...il ne faut pas sombrer dans la paranoïa mais la vie de nombreux sites reposant sur la bonté de google..autant essayer d'anticiper..
 
Discussions similaires
Haut