Google indexe des pages que je ne souhaite pas

WRInaute occasionnel
Bonjour,
Je viens de m'apercevoir que google indexe des liens de téléchargements du genre :

www.mon-site.com/download.php?id=326

Je ne pense pas que ce soit intéressant qu'il indexe ce genre de page, car dès qu'on clique dessus ça lance automatiquement le téléchargement du fichier en question.

Comment faire pour qu'il n'indexe plus ce genre de lien ?

Comment supprimer les pages qui sont déjà indexées ?

Merci pour votre aide
 
WRInaute impliqué
Pour lui interdire l'indexation de ce genre de fichier, tu peux le faire via le fichier robots.txt

User :*

Disallow: /download


Avec cette commande tu interdit l'indaxation de tout ce qui se trouve dans ton répertoire physique 'download'. A adapter selon l'architecture de ton site ;)
 
WRInaute impliqué
A ma connaissance, on ne peut pas interdire un fichier avec cette commande, mais je n'en suis pas sur.
De mémoire ça ne marche que pour un repertoire.

Mais sinon tu peux aller dans ta console Webmaster Tool, il y a un assistant de création pour ton robots.txt
 
WRInaute occasionnel
Marie-Aude a dit:
Tu peux mettre par exemple
disallow : *download*
ou disallow: *?id=*

Merci beaucoup, je viens de le faire et pour supprimer ceux qui sont déjà indexés, savez vous comment faire ?

Merci d'avance
 
WRInaute accro
Cam88 a dit:
Marie-Aude a dit:
Tu peux mettre par exemple
disallow : *download*
ou disallow: *?id=*

Merci beaucoup, je viens de le faire et pour supprimer ceux qui sont déjà indexés, savez vous comment faire ?

Merci d'avance

Tu vas dans ton Google Webmaster Tool, il y a un outil prévu pour supprimer des pages de l'index.
 
WRInaute accro
Bonjour,

Pour interdire l'accès à tous les robots (Googlebot et les autres, tant qu'à faire), tu mets exactement ceci dans ton robots.txt :
Code:
User-agent: *
Disallow: /download.php?id=
Désolé, mais je pense qu'aucune des réponses données plus haut n'est exacte:
- Djoule_logo : tu ne peux pas avoir de ligne vide entre "User-agent" et "Disallow".
- Djoule_logo : robots.txt interdit des groupes d'URL commençant par le code indiqué. robots.txt ne tient pas compte des notions de répertoire ou fichier.
- Marie-Aude : l'emploi de * n'est pas standard. Cela ne marchera donc pas avec tous les robots, mais c'est vrai que c'est compris par Google.

Jean-Luc
 
WRInaute impliqué
jeanluc a dit:
Bonjour,

Pour interdire l'accès à tous les robots (Googlebot et les autres, tant qu'à faire), tu mets exactement ceci dans ton robots.txt :
Code:
User-agent: *
Disallow: /download.php?id=
Désolé, mais je pense qu'aucune des réponses données plus haut n'est exacte:
- Djoule_logo : tu ne peux pas avoir de ligne vide entre "User-agent" et "Disallow".
- Djoule_logo : robots.txt interdit des groupes d'URL commençant par le code indiqué. robots.txt ne tient pas compte des notions de répertoire ou fichier.
- Marie-Aude : l'emploi de * n'est pas standard. Cela ne marchera donc pas avec tous les robots, mais c'est vrai que c'est compris par Google.

Jean-Luc

Exact, merci pour toutes ces precisions correction ;)
 
Discussions similaires
Haut