Nouveau WRInaute
Bonjour à tous,
Je fais appel à votre expérience pour me sortir du buibui
J'aimerais désindexer plusieurs centaines de pages pour éviter le duplicate content, les url de ces pages contiennent toutes des variables communes à savoir :
titredemapage.php?page=1
titredemapage.php?page=2
titredemapage.php?page=3
etc... jusqu'a 38 * le nombre de mes pages totales autant dire un vrai bourbier :mrgreen:
J'ai eue la maladresse de ne pas appliquer un nofollow sur un vieux script de commentaire générant ces pages, je retirais ces url de mon sitemap, mais en vain Mr Google les a quand même indexées
Actuellement je passe par la fonction disallow de robots.txt et la suppression d'url via les services webmaster de google mais c'est plutôt long et fastidieux :arrow: 100 soumissions maximum. Je voulais vous demander si vous connaissiez une astuce permettant via robots.txt en une seule ligne pour chaque page la désindexation de plusieurs url contenant cette fameuse variable "?page="
Disallow: /mapage.php?page=
ou
Disallow: /mapage.php?page=*
suffirait-elle à ne plus prendre en compte chacune des pages se nommant mapage.php et contenant la variable ?page= ? ou je devrais, ce que je crains, toutes les définir précisément ?
Merci d'avance pour votre aide et vos conseils :wink:
Je fais appel à votre expérience pour me sortir du buibui

J'aimerais désindexer plusieurs centaines de pages pour éviter le duplicate content, les url de ces pages contiennent toutes des variables communes à savoir :
titredemapage.php?page=1
titredemapage.php?page=2
titredemapage.php?page=3
etc... jusqu'a 38 * le nombre de mes pages totales autant dire un vrai bourbier :mrgreen:
J'ai eue la maladresse de ne pas appliquer un nofollow sur un vieux script de commentaire générant ces pages, je retirais ces url de mon sitemap, mais en vain Mr Google les a quand même indexées

Actuellement je passe par la fonction disallow de robots.txt et la suppression d'url via les services webmaster de google mais c'est plutôt long et fastidieux :arrow: 100 soumissions maximum. Je voulais vous demander si vous connaissiez une astuce permettant via robots.txt en une seule ligne pour chaque page la désindexation de plusieurs url contenant cette fameuse variable "?page="
Disallow: /mapage.php?page=
ou
Disallow: /mapage.php?page=*
suffirait-elle à ne plus prendre en compte chacune des pages se nommant mapage.php et contenant la variable ?page= ? ou je devrais, ce que je crains, toutes les définir précisément ?
Merci d'avance pour votre aide et vos conseils :wink: