Page recherche.php indexée. malgré le noindex ?

Nouveau WRInaute
Bonjour à tous,

j'ai beau faire des essais dans tous les sens, j'ai ce problème persistant depuis une dizaine de jours :
Google référence ma page de recherche interne malgré :
- la présence de <meta name="robots" content="noindex" />dans la page
- Disallow:/recherche.php dans le fichier robots.txt
J'ai même fait une demande de suppression de la page dans les outils google pour webmasters (Accès du robot d'exploration) où elle est bien indiquée supprimée...
Pourtant, par exemple, si je recherche "portrait fusain" dans google, j'ai www.onveut.com/recherche.php?search=portrait%20fusain qui ressort !
Au détriment de ma page http://www.onveut.com/Dessin--peinture-et-infographie__Esquisses-et-dessins__Portrait-style-fusain.html qui était d'ailleurs classée troisième dans les résultats avant...

Mystère et boule de gomme ou quelqu'un saurait-il où est la faille ?
 
WRInaute impliqué
Tu en avait beaucoup de page recherche.php indexées ?
GG ne les supprimer pas toute d'un coup, c'est peut-être cela...
 
Nouveau WRInaute
Peut-être mais il y a longtemps 2-3 mois qu'elles sont en noindex...
D'ailleurs, Google est censé ne pas aimer les pages de recherche internes indexées mais je viens de remarquer un truc (nouveau ?) : Google indique le nombre d'éléments trouvés dans la page de recherche :
"30 éléments – Trouver par cette page une Idée cadeau comportant photo ...
• Photo sur gâteau – Votre photo sur votre gâteau... On en mangera – Création ...
• Porte-clés rectangle lumineux avec photo – Au coeur du verre, toujours sur ...
• Photo Montage sur gâteau – Un montage photo en impression alimentaire pour ..."
 
WRInaute impliqué
Si ton sites est peu populaire, 3 mois, ça peut être court pour toutes les supprimer.
Entre il y a 3 mois et aujourd'hui, t'es passé de combien de "mauvaises" pages indexées ?
 
Olivier Duffez (admin)
Membre du personnel
maintenant que tu as mis le disallow dans le robots.txt, Googlebot ne peut plus voir que tu as mis un noindex, donc il ne va pas les désindexer...
sauf si tu vas dans GWT mais comme ce n'est pas un répertoire, tu ne peux pas supprimer toutes les pages concernées d'un seul coup.

le + efficace serait donc de virer le disallow et de laisser le noindex. Et d'attendre...
 
WRInaute accro
Ou tu peux également renvoyer un Gone (410) mais comme le dit Olivier, il faut bien entendu virer le blocage du robots.txt car là tu demandes au robot d'aller lire une ligne que tu lui interdis de voir.
 
WRInaute discret
Bonsoir,

Tout à fait, le robots.txt bloque le crawl et le meta robots bloque l'indexation, ce sont deux choses bien différentes.
Il ne faut jamais utiliser les deux en même temps !

Johann
 
Nouveau WRInaute
Merci beaucoup, ça marche ! :)
Et merci aussi Olivier pour votre formidable formation : je suis en train de mettre en pratique, je viendrai apporter mon témoignage ensuite car ça vaut le coup !
 
Discussions similaires
Haut