Désindexer toutes les pages avec paramètre

WRInaute accro
Salut,

Existe t il un moyen de désindexer toutes les pages avec paramètres dans l'URL.

Exemple :
site.com a une page site.com/mapage.php
Et celle ci est indexée avec des tas de paramètres :
site.com/mapage.php?param=trucmuche
site.com/mapage.php?param=trucmuche&id=65165165165
site.com/mapage.php?llooooo=dedezdiez

Existe t il un genre de règle robots.txt permettant de dire qu'on indexe bien la page mapage.php mais pas toutes les variantes avec paramètres ?

A moins que la seule solution ne soit d'utiliser la section paramètres d'URL de WMT ?

Merci
 
WRInaute impliqué
milkiway a dit:
Salut,

Existe t il un moyen de désindexer toutes les pages avec paramètres dans l'URL.

Exemple :
site.com a une page site.com/mapage.php
Et celle ci est indexée avec des tas de paramètres :
site.com/mapage.php?param=trucmuche
site.com/mapage.php?param=trucmuche&id=65165165165
site.com/mapage.php?llooooo=dedezdiez

Existe t il un genre de règle robots.txt permettant de dire qu'on indexe bien la page mapage.php mais pas toutes les variantes avec paramètres ?

A moins que la seule solution ne soit d'utiliser la section paramètres d'URL de WMT ?

Merci

bonjour,
A confirmer, mais perso pour la premiere question j'utilise toujours ceci
disallow : /mapage.php
tout ce qui est après sera desindexé !
Pour la 2, je connais pas d'autres solutions que de préciser les urls en question

ludo
 
WRInaute accro
Avec disallow : /mapage.php je me tire une balle dans le pied. Ma problématique est bien que je veux ne pas indexer les versions à paramètres mais j'ai un besoin vital de laissé indexé la page sans paramètres.
 
Nouveau WRInaute
Salut,

je pense qu'un rel canonical dans le header de ta page devrait fonctionner :

<link rel="canonical" href="http://www.example.com/mapage.php"/>

je reste à ta disposition,
A+
 
WRInaute accro
UsagiYojimbo a dit:
Tu as quelques pistes iic, pour bloquer les paramètres : http://www.noid.fr/post/Domptez-vos-urls-dynamique-avec-le-Robotstxt

Le souci étant que le robots.txt va en bloquer l'accès (pour celles qui ne sont pas indexées, ca suffit), donc si tu veux supprimer les existantes, va falloir le faire à la mano.

A noter que dans le cas que tu évoques, la mise en place préalable d'un rel canonical aurait été judicieux.
Merci pour le lien.
Pour bloquer ce sera déjà pas mal. Impossible de supprimer à la main les pages, il y a 5000 pages générées au lieu d'une seule.
Je vais déjà commencer par une canonique mais je voudrais tout de même trouver un moyen de les désindexer.

A noter que dans le cas que tu évoques, la mise en place préalable d'un rel canonical aurait été judicieux.
Je sais bien. Je penserai à le rappeler à l'ancien prestataire de mon client ...
 
WRInaute accro
Ehplod a dit:
Et une 301 vers la page d'origine via htaccess ou php (test du $_GET) ?
Impossible : les pages sont des pages qui servent aux visiteurs.

zeb a dit:
il y a aussi le trucs pour la gestion des paramètre dans GWT
Oui c'est ce que j'ai mis en place Vendredi mais je ne suis pas très confiant sur ce genre de fonction car je n'ai jamais testé au préalable.
 
Discussions similaires
Haut