Cloaking or not cloaking ?

WRInaute occasionnel
Bonjour,

Je suis encore relativement débutant en terme de technique de référencement, et j'aurai donc souhaité avoir votre avis sur le cloaking.

Voila, sur mon site, certaines pages importantes ne sont accessibles qu'une fois connecté... si l'on n'est pas connecté, on est automatiquement renvoyé vers la page de connexion/inscription.

La conséquence est que les robots, eux forcément non connectés, ne voit pas le contenu important du site (et ne peuvent donc l'indexer / le référencer).

Ma question est donc la suivante : dans le cas où je detecte que le visiteur est un robot, est il "autorisé" / "conseillé" de le considérer comme étant présent sur le site comme un membre connecté ?
Cela est il considéré comme du cloaking ou non ?

Enfin, la technique suivante est elle pertinente pour détecter la présence d'un robot ? (dans le cas Google)

$trouve=strpos($_SERVER["HTTP_USER_AGENT"],"Googlebot");
if($trouve!==false)
{ // le visiteur est Googlebot, lui présenter la page cloakée}
else
{ // le visiteur n'est pas googlebot, lui présenter la page "standard"}



Est il possible qu'un robot detecté ce type de manipulation... qui se fait coté serveur ?

En vous remerciant par avance pour vos commentaires,

Cordialement,
David
 
WRInaute accro
Oui mais bon faut aussi voir côté utilisateur.

Si, personnellement, je fais une recherche sur Google, que d'après les résulats indiqués je trouve que ton site a l'air de répondre à ma question et qu'en m'y rendant ben je me voie obligé de m'inscrire, je passe mon chemin.

Ensuite, Google n'appréciera pas trop que tu présentes de cette façon du contenu différent à son robot et à l'internaute.
Cependant, un moyen existe, proposé par Google, pour trouver un juste milieu :

https://www.webrankinfo.com/dossiers/techniques/first-click-free

Ce que je te conseille de faire.
 
WRInaute impliqué
Le cloaking fonctionne tres bien, mais ca revient à marcher sur des oeufs. Comme expliqué dans la "newsletter referencement" (a chercher dans google pour avoir le lien) , les sites a caractere pornographique utilisent énormément cette technique pour placer des images dans google images tandis que le visiteur qui s'aventurerait a cliquer sur l'image depuis les résultats de google est invité à sortir sa carte bleue. Sans revenir sur le jeu de dupe auquel se prete google en créant un filtre "safe search" qui pourrait s'intituler "porn search" et en vendant des espaces de publicité sur des mots clefs qui ne laissent pas de doute quand au contenu... Le cloaking est dans de nombreux cas similaire au fichier robots.txt. C'est très bête d'écrire dans le fichier robots.txt qu'une zone d'un site ne doit pas être visitée. C'est un peu comme écrire sur sa porte d'entrée : soyez gentils, ne passez pas par la porte-fenêtre qui est ouverte.
Donc si on laisse un acces à googlebot, il est enfantin (cf la newsletter du referencement) pour tout à chacun de visiter le site en se faisant passer pour googlebot. C'est d'ailleurs tres instructif de voir comment certains sites utilisent le cloaking (et pas seulement les sites pornos, certains sites ou des experts répondent à des questions de programamtion sont très friands de ce procédé)
@stirfryfrog
 
WRInaute accro
elas a dit:
Le cloaking est dans de nombreux cas similaire au fichier robots.txt. C'est très bête d'écrire dans le fichier robots.txt qu'une zone d'un site ne doit pas être visitée.
ça dépend, car dans mon robots.txt je ne veux pas que mes formulaires de contact soient indexés, mais ça n'empêche qu'ils sont accessibles aux internautes.
Ce que je veux protéger, effectivement, n'apparait pas dans robots.txt, étant donné que l'accès est restreint par htaccess/htpasswd
 
Discussions similaires
Haut