Problèmes Robot.txt pour disallow des pages

WRInaute discret
Bonjour,

j'ai un site full flash basé sur un spip pour la gestion du contenu.

Le problème c'est que Google référence les pages du type:
spip.php?article=*
spip.php?*
etc

je souhaiterais empêcher d'indéxer toutes les pages spip.php avec les variables.

Voila ce que j'ai indiqué au robot.txt:
Code:
User-agent: *
Disallow: /spip.php
Allow: /

Mais je n'ai pas l'impression que c'est suffisant

Dois je ajouter un * ou supprimer le / devant ?
Qu'elle est la bonne syntaxe.

MERCI
 
Nouveau WRInaute
Ou autre solution :
Avant le "</head>" dans le squelette, tu peux ajouter

Code:
<meta name="robots" content="noindex, follow">
<meta http-equiv="pragma" content="no-cache">

Testé et approuvé ;)


Maintenant ... Tu as un site un full flash et que tu interdis l'indexation de toutes les pages, tu vas faire comment pour le referencement ?
 
WRInaute discret
nous nous l'avons travaillé.

C'est juste des pages de ce type qui ne doivent pas être référencé.
 
Nouveau WRInaute
Ok, alors mets le code que je t'ai indiqué et les pages disparaitrons au bout de quelques temps de l'index des moteurs.
 
Discussions similaires
Haut