Bonjour,
Je suis encore relativement débutant en terme de technique de référencement, et j'aurai donc souhaité avoir votre avis sur le cloaking.
Voila, sur mon site, certaines pages importantes ne sont accessibles qu'une fois connecté... si l'on n'est pas connecté, on est automatiquement renvoyé vers la page de connexion/inscription.
La conséquence est que les robots, eux forcément non connectés, ne voit pas le contenu important du site (et ne peuvent donc l'indexer / le référencer).
Ma question est donc la suivante : dans le cas où je detecte que le visiteur est un robot, est il "autorisé" / "conseillé" de le considérer comme étant présent sur le site comme un membre connecté ?
Cela est il considéré comme du cloaking ou non ?
Enfin, la technique suivante est elle pertinente pour détecter la présence d'un robot ? (dans le cas Google)
$trouve=strpos($_SERVER["HTTP_USER_AGENT"],"Googlebot");
if($trouve!==false)
{ // le visiteur est Googlebot, lui présenter la page cloakée}
else
{ // le visiteur n'est pas googlebot, lui présenter la page "standard"}
Est il possible qu'un robot detecté ce type de manipulation... qui se fait coté serveur ?
En vous remerciant par avance pour vos commentaires,
Cordialement,
David
Je suis encore relativement débutant en terme de technique de référencement, et j'aurai donc souhaité avoir votre avis sur le cloaking.
Voila, sur mon site, certaines pages importantes ne sont accessibles qu'une fois connecté... si l'on n'est pas connecté, on est automatiquement renvoyé vers la page de connexion/inscription.
La conséquence est que les robots, eux forcément non connectés, ne voit pas le contenu important du site (et ne peuvent donc l'indexer / le référencer).
Ma question est donc la suivante : dans le cas où je detecte que le visiteur est un robot, est il "autorisé" / "conseillé" de le considérer comme étant présent sur le site comme un membre connecté ?
Cela est il considéré comme du cloaking ou non ?
Enfin, la technique suivante est elle pertinente pour détecter la présence d'un robot ? (dans le cas Google)
$trouve=strpos($_SERVER["HTTP_USER_AGENT"],"Googlebot");
if($trouve!==false)
{ // le visiteur est Googlebot, lui présenter la page cloakée}
else
{ // le visiteur n'est pas googlebot, lui présenter la page "standard"}
Est il possible qu'un robot detecté ce type de manipulation... qui se fait coté serveur ?
En vous remerciant par avance pour vos commentaires,
Cordialement,
David