Cloaking : pour une position claire de google

Pour que google definisse clairement clairement bon et mauvais cloaking

  • Pour

    Votes: 0 0.0%
  • Contre

    Votes: 0 0.0%
  • Ne se prononce pas

    Votes: 0 0.0%

  • Total voters
    0
WRInaute impliqué
Bonjour,

Donc, je suis en train de tester un pack SEO pour phpbb (qui marche très bien et qui peut être trouver ici.

Or, un des mod du pack permet de présenter un template différent aux bots. D'ou ma problématique : il faudrait que google definisse un frontière franche entre bon et mauvais cloaking.

Je m'explique :

Dans ce cas, la version proposée à google (que je n'utilise pas pour l'instant pour de pas risquer d'être blacklisté) ne contient aucun contenu ajouté, le but est juste de retirer les liens inutiles (de toute façon interdit par le robots.txt) comme ceux permettant de poster un message etc... Les deux versions ont donc exactement le même impacte au niveau d'une recherche par mot clefs, les resultats ne sont pas altérés. Il s'agit juste d'économiser un peut de bande passante (en supprimmant éventuellement une partie du contenu strictement graphique) et de faciliter le travail des bots (pas de liens inutiles).
Or comme il s'agit de changer le contenu du site en fonction de l'user agent et de l'ip, cela peut être pris pour du cloaking.

J'ai tenté de trouver quels critères pourraient différencier bon et mauvais cloaking et je n'ai rien trouvé de pertinent.

Je ne saurais même pas dire si ne retier les SID qu'aux bots ne pourrait pas mener à un blacklistage, ou si le mod de détéction auto de language que j'utilise et qui affiche toutes les infos du forum en français pour les explorateurs fr et en anglais pour les autres ne pourrait pas poser le même problème. En effet, si un utilisateur français compare une page de mon forum avec celle mise en cache par google, il vera deux versions, l'une anglaise (car ggbot ne donne pas d'info sur sa langue et est donc mis par defaut sur anglais) et l'autre française, même si les posts seront identiques.

Du coup je me dis qu'il serait peut être temps de pousser google à definir plus clairement sa politique concernant le cloaking, car il est évident que l'utilisation d'une reconnaissance d'hote n'est pas forcement là pour arnaquer les bots.

Voili ;)

++

dcz
 
WRInaute accro
Le risque de dérive me parait énorme si on commence a parler de "bon cloaking" et de "mauvais cloaking" 8facon les inconnus....

le mauvais cloaking, c est le gars qui veut montrer autre chose aux robots tu vois, alors que le bon vloaking, c est le gars qui veut montrer autre chose aux robots, mais....c est du bon cloaking....
 
WRInaute accro
un site optimisé na pas besoin de faire du cloaking

c'est à google de s'adapter à nos sites et non à nous de s'adapter à google

donc 100 % contre le cloaking
 
WRInaute impliqué
donc

Donc pour toi herveG, si mon forum automatise la selection de langue, cela merite un blacklistage? Par ce que au niveau du code, c'est du cloaking ça.

Une règle simple serait de ne pas authoriser l'ajout de contenu par rapport à ce que voient les utilisateurs, mais simplement l'allègement.

De toute façon une règle trop rigoureuse comme "le code doit être identique" n'est pas jouable pour authoriser vraiment la selection de langue, alors que c'est inoffencif. Et pareil pour les SID, mais si on les laisse, l'indexation d'un forum est impossible. (je dis ça, mais j'ai réglé le problème en enlevant les SID pour tout le monde, mais les SID, c'est aussi dommage de pas pouvoir s'en servir plus simplement, en l'enlevant qu'aux bots...)

Enfin, ne pas faire de regle clair ne semble pas vraiment efficace au vu du nombre de sites méchament cloaké et référencés.

Et ohax, pourquoi faire de l'url rewriting si tu dis qu'il ne faut pas adapter son site en fonction des moteurs de recherches, il n'est question que de ça ici ;)
 
WRInaute discret
Utilises un autre forum que phpBB ^^

Le mien n'affiche les liens que pour les actions auxquelles tu as le droit, et quand t'es un invité t'as pas le droit de poster donc les boutons ne s'affichent pas :)
 
WRInaute impliqué
heu

Bien sur c'est une solution, mais il reste encore de choses inutiles et qui prennent un tas de bande passante sur des site avec plus de contenu graphique que le tiens.

En plus cela rendrait la vie plus simple aux bots.

Mais enfin, qu'ils authorisent ou pas le changement de contenu, ils devraient quand même fixer une limite claire, histoire de pas pénaliser par exemple une détéction de language auto.

En plus, vu qu'il pompe tous nos fichiers il devrait être normal qu'on puisse lui dire pas celui là (pour du contenu graphique) en n'ayant pas à l'envoyer quand même.

Encore une fois retirer des chose ne me parait pas un crime. Je me dis juste que cela serait plus simple pour tout le monde pour des site php avec du templating.

Les sites squatés par les bots auraient moins de problème de bande passante et de requetes sql interminable. Bien sur, si on a de quoi se payer un dedié... c'est moins important, mais chez free par exemple ...

Alors à moins que google ait investi dans la vente de serveur, je vois pas leur interet de ne pas, au moins clarifier les chose si non créer un règle du type " seul l'allègement de contenu est authorisé".

Cela ne changerait pas grand chose à la façon dont les sites qui abusent sont démasqués, les délateurs auraient juste à afiner leur argumentaire.
 
WRInaute passionné
Startide a dit:
Utilises un autre forum que phpBB ^^

Le mien n'affiche les liens que pour les actions auxquelles tu as le droit, et quand t'es un invité t'as pas le droit de poster donc les boutons ne s'affichent pas :)
Et pour un forum ouvert aux invités tu fais comment ? ça ne change pas le problème :wink:
 
WRInaute impliqué
le mauvais cloaking, c est le gars qui veut montrer autre chose aux robots tu vois, alors que le bon vloaking, c est le gars qui veut montrer autre chose aux robots, mais....c est du bon cloaking....

Pas d'accord
Moi le grand naïf, imaginons que je détienne la recette miracle, c'est à dire que j'ai reussi à percer l'algo de Google.
du style :
1 h1, 2 em suivi de 3 strong etc ....
Et c'est la première place à coup sûr ;)

Imaginons le !

Et imaginons aussi que je sois sur de nombreuses thématiques et que beaucoups trop de concurrents viennent observer le code de mes pages pour le réutiliser.

Que puis je faire contre ça ?
Ecrire un bouquin sur l'algo de Google ?

Et bien non, 1 semaine plus tard il l'aurait changé et j'aurais tout perdu ...

Et si le cloacking était (dans mon cas) la solution .....

Je m'explique donc sur le bon cloacking à mon sens (rappelons que cloacking = tromper, mais que je ne trompe personne)

Je présente un contenu aux visiteurs identiques à celui que je présente aux bots, cependant seul le balisage est différents ..... est ce que je suis un vilain méchant pirate pour autant ?
Moi qui veut juste contrôler ma source .....

Bon Ok, je suis presque HS ....
Je ne fais pas l'apologie du cloacking qui en plus mal utilisé peut vous briser un site, etc ....
Mais je disais juste que desfois on peut s'en servir et que ce n'est pas forcèment mal !
 
WRInaute discret
Dj_Apx a dit:
Startide a dit:
Utilises un autre forum que phpBB ^^

Le mien n'affiche les liens que pour les actions auxquelles tu as le droit, et quand t'es un invité t'as pas le droit de poster donc les boutons ne s'affichent pas :)
Et pour un forum ouvert aux invités tu fais comment ? ça ne change pas le problème :wink:
Ca résoud le problème pour une bonne partie des sites quand même ^^

Tu vais des boutons répondre en formulaire, google cliquera pas :) ou en javascript, ca peut aussi être une solution batarde :D
 
WRInaute impliqué
lol

Je croyais que c t pas à google d'imposer ses normes à nos site, mais qu'il fallait qu'il s'adapte, si on doit mettre du java de partout, c'est tout de même abusé, vu que google n'est pas le seul à ne rien capter à java...
 
WRInaute impliqué
Il y a pas de bon ou mauvais cloaking, le cloaking c'est le fait d'afficher une version de ton site différente aux moteurs point barre. Donc peu importe tes intention, Google assimilera ca à du cloaking s'il le détecte.
 
WRInaute impliqué
et yep

C'est bien le problème, il profite de sa position dominante pour faire des règle "à la tête du client", car il ne dit pas que "cloaking=blacklistage", il dit "cela peut".

Donc, au minimum, il faudrait que google assume une position franche, même même si pour interdire toute reconnaissance d'agent, il doit imposer au webmestres de ne pas utiliser des outils dispo et imposer sa norme.
Ne rien affirmer, c'est la porte ouverte à l'injustice...

Et c'est bien beau de parler d'interdit, mais cela n'a pas l'air de décourager les site agressifs, alors, si cela doit blaklister des site qui ne trompent personne ... je trouve ça un peu gros.
 
WRInaute accro
Definir ce qu est le "bon cloaking" et ce qu est le "mauvais cloaking" répond de la capcité a juger de la méthode au cas par cas. Et on n a pas encore vu un algorythme "juger" quoique ce soit. Le "peut entrainer le blacklistage" est très pertinent dans la mesure ou un humain peut être averti de l´utilisation de cloaking et après jugement (est-ce pour tromper ? ou est-ce indispensable ?), décider ou non de blacklister. Je ne pense pas que google puisse se permettre d´embaucher des milliers de personnes qui seront en charge de juger de la pertinence d´utilisation de cloaking sur des milliards de pages...
 
WRInaute passionné
Re: lol

dcz a dit:
Je croyais que c t pas à google d'imposer ses normes à nos site, mais qu'il fallait qu'il s'adapte, si on doit mettre du java de partout, c'est tout de même abusé, vu que google n'est pas le seul à ne rien capter à java...
javascript :wink:

Pour ce qui est de la "justice", Google est une société, une entreprise, une boîte, une firme, bref tu comprends bien qu'entre la justice et quelques dollars de plus le choix est vite fait :wink:
 
WRInaute impliqué
heu

herveG a dit:
Definir ce qu est le "bon cloaking" et ce qu est le "mauvais cloaking" répond de la capcité a juger de la méthode au cas par cas. Et on n a pas encore vu un algorythme "juger" quoique ce soit. Le "peut entrainer le blacklistage" est très pertinent dans la mesure ou un humain peut être averti de l´utilisation de cloaking et après jugement (est-ce pour tromper ? ou est-ce indispensable ?), décider ou non de blacklister. Je ne pense pas que google puisse se permettre d´embaucher des milliers de personnes qui seront en charge de juger de la pertinence d´utilisation de cloaking sur des milliards de pages...

Scuse je t'avais pas lu.

Donc, ben il me semble que des critères comme "seulement du code enlevé, rien ajouté" et "aucun liens differents" est tout a fait programmable., Il n'est pas très dur de recuperer le code source de deux pages et de comptabiliser le contenu. On pourrait même imaginer qu'un système de soumission de template à un algo test soit mis en place pour valider le code avant sa mise en place, car après tout, le gain de temps (page plus simple), de bande passante (page moins lourdes) et de stockage (moins de mise en cache) pourrait s'avérer être un vrai argument économique. Je pense qu'il n'est pas insensé de se dire que google pourrait avoir un interet accompagner un phénomène plutôt que de le laisser se développer dans l'ombre.

Je ne sais pas si un tel algo est déjà en place, il me semblait que la délation était plus le truc, et dans ce cas, ben, j'espère que même à l'heure actuelle, google les verifie.
Je ne pense donc pas que de clarifier les chose entrainerait un embauchage massif, du moins pour égaler le niveau de controle actuel.

++
 
WRInaute passionné
google devrais s'optimiser au cas par cas en ce qui concerne le cloaking

Blacklisté en cas de bon cloaking ,c'est assez rude et dur
 
WRInaute impliqué
hehe

C'est tout le problème, pour l'instant il n'y ni bon ni mauvais cloaking, juste la bonne volonté de google et des délateurs ....
 
WRInaute passionné
Google a déjà parlé de modifier le code pour les robots. Par exemple pour les sessions où Googleguy a carrément dit que supprimer les sessions pour les robots étaient faire un sire Botfriendly ou un truc de ce genre. Car cela lui permet de voir le vrai contenu du site tel que le voit les visiteurs.
Si tu t'amuses à modifier ta page en enlevant des liens, en diminuant le poids de la page, tu modifies le contenu. Si google donne un poids à la taille de ta page ou bien aux nombres de liens.

Ensuite, tu peux toujours faire un style par défaut sur ton forum et un style secondaire et tu changes de manière automatique et reguliere le style des nouveaux membres.

François
 
WRInaute impliqué
yep

+1
mais cela n'enlève pas que des templates plus légère serait un plus pour tout le monde, si juste du contenu est enlevé, je vois pas la triche, c'est juste une façon efficace d'interdire réellement certaines url aux bots.
A ce sujet il serait interessant de pouvoir mesurer l'utilisation de bande passante mondiale des bots, passke pour certains gros site, ça peut être lourd je pense.
Et le truc d'un site hyper light que pour les invités, c'est un peut contraignant parceque les invité aussi ont droit à un joli site.
 
WRInaute passionné
Si tu supprimes des liens, tu modifies par exemple la maniere dont le PR est réparti (même si le PR est remis en cause par certains).

Pour la bande passante, il faut voir que les robots ne DL pas les images quand il crawle. Le gain de bande passante par rapport à une template standard est peu important. Sinon, il faut peut-etre se dire que ca gene aussi certains visiteurs.


François
 
WRInaute impliqué
heu

Je vois pas trop le truc du PR, genre, je m'en fiche un peu que mes liens "poster une réponse", interdit par le robots.txt aient un PR.

Pour les image, il y a quand même la mise en cache qui dl..
 
WRInaute impliqué
lol

Bon bah on dirait que google aime l'auto-critique, d'après rankit, ce sujet va avor un PR de 3, au moins ils sont fair play chez google ;)

Le problème c'est que c'est pas leur bot qui va nous pondre une bonne règle bien clair sur le sujet.

Enfin, encore 2 ou 3000 votes et on pourra commencer à espérer.

++
 
Discussions similaires
Haut