Les pages bloqués par le fichier robots.txt

WRInaute discret
Salut,

Le plus simple tu édite ton fichier à la main.
Ou sinon, si tu utilise un soft, peut être en bloquant dans le robots.txt le user agent ( ou autres signes distinctif)correspondant.

Bye,
 
WRInaute discret
Ok on va donc s'en tenir à la 1ere méthode.
Admettons que ton fichier sitmap soit en xml et se présente sous cette forme
Code:
<url>
<loc>http://www.exemple.fr</loc>
</url>
<url>
<loc>http://www.exemple.fr/tapage1.php</loc>
</url>
<url>
<loc>http://www.exemple.fr/tapage2.php</loc>
</url>

Tu peux supprimer avec n'importe quel éditeur ce qui est entre <url> et </url> ( supprime les balises également)

Pour plus d'infos lis ceci https://www.google.fr/support/webmasters/bin/answer.py?hl=fr&answer=34654
 
WRInaute accro
Réponse idiote :
enlève les, elles ne seront alors plus incluses.

Légèrement moins idiote :
Comment faire pour ne pas oublier de mettre ses chaussures le matin ?
Comment faire pour ajouter le beurre sur la liste des courses ?

C'est aussi précis que ta question. Sans détails (= comment est généré ton fichier sitemap ?), c'est impossible de t'aider.
 
Discussions similaires
Haut