Cloaking ou Obfuscation

Nouveau WRInaute
Bonjour tout le monde!

Je gère actuellement un site e-commerce avec un méga menu et un tas de liens inutiles dans le footer.
Depuis longtemps, maintenant, je lis presque partout que la meilleure solution pour "cacher" ce genre de problèmes aux yeux de Google est d'utiliser le cloaking, presque partout, car il y a parfois des blogueurs qui vont à contre-courant.

Ma question est donc:
Est-il toujours intéressant de le mettre en œuvre?
Certains disent que Google ne peut pas lire le javascript, mais ils le peuvent. Ils ne le font simplement, généralement pas.
Sans parler des risques de pénalité due au contenu différent servi aux internautes et à Google.
Bref, je suis perdu!
Quelqu'un a eu de mauvaises ou de bonnes expériences avec le cloaking, est-ce (encore) utile?
Je veux dire sur papier, ça parait intéressant, mais dans la vraie vie?

Merci :)
 
WRInaute impliqué
Je ne vois pas l'intérêt (théorique) de "cacher" des "liens inutiles" à Google. S'ils sont inutiles du point de vue l'utilisateur, mais qu'on suppose la pertinence du point de vue SEO, je vois pourquoi il faudrait "cacher" le contenu à l'internaute, mais pas l'inverse. Si le contenu est utile à l'internaute, je ne vois pas pourquoi il faudrait s'efforcer de le cacher à Google.

Sur la technique : Google peut lire le javascript, et le fait. Pour s'en assurer, voir la page comme Google depuis la search console.

Quand à bourrer le pied de page de liens inutiles, je doute de l'utilité réelle en SEO, on est en 2021, plus dans les années 2000…
 
Nouveau WRInaute
Salut emualliug,
Une page de cgv par exemple, a un intérêt pour l’internaute en revanche pour Google celui-ci devient relatif.
Le cloaking est pour sculpter ton page rank et éviter que du jus ne parte sur des pages inutiles telles que les cgv.
Sur le la papier, comme je le disais, la technique paraît intéressante, mais en vrai, l’est elle ?
J’aurais aimé avoir des retours de personnes l’ayant mis en place pour avoir une idée de son intérêt réel.
Pour le Java script, effectivement, Google est capable de le lire, mais ça n’est pas parce qu’il le peut qu’il le fait !
 
WRInaute discret
j'ai contourné le problème des liens type CGV, contact, .... je n'ai plus de pages pour ces éléments, j'ai des liens avec des # qui appellent un texte dynamiquement qui s'affiche en surimpression. Ces contenus sont dispos sur toutes les pages (et très rapidement vu que la page n'est pas rechargée) et il n'y a pas de page à indexer inutilement. Le contenu n'est pas non plus visible dans Google.
 
Nouveau WRInaute
Ça pourrait être vu rapidement dans le cas où vous utiliser le cloaking, mais cela peut influencer rapidement votre page et pourquoi ne pas l’essayer.
 
Nouveau WRInaute
Cloaking... J'aimerais aussi trouver la réponse à cette question. Si quelqu'un peut expliquer en profondeur, s'il vous plaît faites le moi savoir!
 
WRInaute discret
,A la belle époque oou faisait du cloaking pout de sites de ferme de liens avec 50000 liens pourris sur des sites complets qui affuchauent pas du tout la m^êse chose au visiteirs qu'aux moteurs de recherche; google avait mis le hola.(matt cutts faisait la chasse aux fermes de liens) mais ca n'a plus d’intérêt; on veut que google lise les liens en dur. et kes sitrs avec 5000 liens sortants ne sont plus référebcés
Avec des vrais liens verufies er des sites tels que dmoz avaient eux toutes les faveurs pour le refermement google
 
WRInaute discret
bref google a fait la différence en qualité de résultats a l'époque (plus pertinents que altavista ou yahoo les références indétrônables de l'époque en moteur de recherche) en basant ses résultats sur les liens pondérés, égal les liens avec plus ou moins de valeur. Un lien interne a un site vaut 0.1 . Un lien qui vient d'un site .gov vaut 1000000 .... Et les liens qui viennent de sites pourris valent 0 de toutes façons. Donc pour 3 liens internes, ca change rien
 
WRInaute discret
de toute façond maintenant le bot de google lit le javascritn c'est une version de chrome, donc le cloacking en javascript c'est mort.
on peut toujours s'amuser avec les hedars des requetes, sachant que googlebot s'annonce. mais c'est risqué, il peut aussi très bien passé en broser normal, et si vraiment sournois avec des ip différentes des siennes. (mais, c'est un film, google annonce son passage
https://developers.google.com/search/blog/2019/10/updating-user-agent-of-googlebot?hl=fr - même ses ip plus variéées sont connues.
) --> google c'est juste des programmes ", par contre ils agissent automatiquement des paramètres, pour rester en tête. Le cloackink et les fermes de liens, ca fausse les résulats. donc a même plus essyer !!!
 
Discussions similaires
Haut