Google indexe ce que je lui interdit !

Nouveau WRInaute
Salut,

J'ai un petit problème, j'ai un site depuis lequel les internautes peuvent télécharger des documents administratifs qui sont des fichiers PDF localisés dans un répertoire à part sur mon serveur. De même, les animations flash qui changent régulièrement sur mon site sont également rangées dans un répertoire spécifique.

Comme je ne souhaite pas que les moteurs indexent mes documents PDF ni mes animations flash, j'ai créé un fichier texte "robots" à la racine du site pour interdire l'indexation des répertoires contenant ce que je voulais soustraire de l'indexation. En revanche toutes les pages web contiennent les balises "index" et follow" et il y a un sitemap conforme aux pages que précitées.

Malgré cela, Google indexe mes fichiers PDF et mes animations flash :cry: en cliquant sur "relancer la recherche en incluant les pages ignorées" dans les résultats qu'il affiche !

Cela est il normal ? Comment faire pour qu'il ne retourne pas ces contenus même en tant que pages ignorées ?

Merci beaucoup pour votre aide car je tourne en rond :roll: .
 
Nouveau WRInaute
Hello kazhar,

Oui j'ai parlé un peu vite dans mon message mais mon fichier "robots" est bien nommé "robots.txt" :wink: , merci quand même pour ton message !
 
Nouveau WRInaute
Ouep pas de soucis :wink: , voici le contenu du fichier robots.txt

User-agent: *
Disallow: /formulaire/
Disallow: /media/


Il est bien correct ?
 
Nouveau WRInaute
Oui le fichier est à la racine du site et est accessible via http://www.site.com/robots.txt :roll: .

En revanche je n'ai pas testé avec GWT, je crois que je vais le faire mais théoriquement je ne comprends pas trop ce qui peut clocher... je me demandais s'il y avait des priorités entre le fichier robots et les métatags des robots sur les pages... pour moi le fichier robots était prioritaire...

Merci Jacques de ton aide :wink:
 
Nouveau WRInaute
Re,

Merci cet outil est génial, apparemment les "links" ne recensent bien que les pages autorisées :( , par contre je viens de découvrir que certaines pages apparaissent en double dans les links 8O , c'est normal ?
 
WRInaute accro
Les "links" devraient contenir tous les liens présents dans la page, ce n'est qu'en le suivant qu'il te dira s'il est interdit par un robots.txt. Les attributs genre no-follow et tout ça ne sont pas pris en compte.

Et effectivement il n'y a pas de dédoublonnage des liens.

Jacques.
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut