Page de liens spécifiées disallow dans le robots.txt

Nouveau WRInaute
Bonjour

Mon client a conservé à la racine de son serveur, des anciennes pages de liens, comme on en faisait à l’époque avec des dizaines de liens vers des annuaires avec leur gif animé…
Il y a une douzaine de pages comme ceci mais ces pages sont spécifiées disallow dans le robots.txt

Peuvent-elles avoir un effet de déclassement du site sur Google ?

Merci de vos avis que la question
 
Nouveau WRInaute
Bonjour à tous, merci WRI
La commande disallow ne serait-elle pas une garantie de non indexation ?
Ou bien, faut-il considérer que disallow interdit l'indexation mais pas le crall de Googlebot ?
 
Nouveau WRInaute
Bonjour à tous,

Je vous remercie pour votre réponse mais elle me laisse perplexe, je ne suis pas sûr de bien la comprendre parce que vous me disiez dans un post précédent que
elles peuvent être indexées et dans ce cas Google peut en tenir compte
Des pages non crawlées pourraient être indexées ?
Je vais recommander à mon client de supprimer ces pages de liens mais j'aimerai bien comprendre et savoir notamment si elles peuvent être à l'origine d'un déclassement de Google.

Merci encore
 
Olivier Duffez (admin)
Membre du personnel
une page peut être indexée (car non bloquée nulle part), puis on en bloque l'accès dans robots.txt
donc les robots ne viennent plus la voir, mais ne la désindexent pas.
dans ce cas, mettre une balise meta robots noindex ne marche pas car les robots n'accèdent pas à la page

est-ce plus clair ?
si besoin, il faut lire mon dossier qui explique qu'il existe des cas tordus où des pages non crawlées peuvent être indexées
 
Discussions similaires
Haut