Page interdite par robots.txt liens suivis?

WRInaute occasionnel
Bonjour,

Je sais que les pages interdite par le robots.txt ne sont pas mis en cache,
mais est ce que les liens de ces pages la transfère quand meme "du jus"?
Ou dès le départ elle n'a pas du tout scanné par gg?
 
WRInaute accro
Ce que tu dis ne veux rien dire...

Si tu décides de bloquer l'accès d'une page aux bot via le robots.txt, ceux-ci n'iront pas la lire et donc ne suivront pas les liens.
Si c'est une page déjà indexée, il faut patienter pour que les moteurs ne la prennent plus en compte.

...rien à voir avec le cache.
 
WRInaute occasionnel
Rod la Kox a dit:
Ce que tu dis ne veux rien dire...

Si tu décides de bloquer l'accès d'une page aux bot via le robots.txt, ceux-ci n'iront pas la lire et donc ne suivront pas les liens.
Si c'est une page déjà indexée, il faut patienter pour que les moteurs ne la prennent plus en compte.

...rien à voir avec le cache.

Oki merci pour ta réponse,
j'avais un doute concernant le fait que les url interdites par le fichier robots.txt,
se comporte comme une page avec ces métas :
noindex,follow

Mais donc il faut considérer que le robots ne cherchera jamais à lire la page.
 
Discussions similaires
Haut