suppression des pages bloquées par robots.txt

Nouveau WRInaute
Bonjour, je suis "pollué" par des pages de tri produit de type www.site.com/produit?sort=2 que j'ai bloquées dans robots.txt ( oui j'aurais pu faire un canonical par exemple, mais je ne l'ai pas fait, et elles sont donc bloquées ) . Mais cela engendre des milliers de pages bloquées ( 2500 blocages pour un site de 100 pages indexées ... j'imagine que cela n'est pas cohérent pour google ).
J'ai enfin trouvé comment afficher le tri sans changer d'url, ( avec www.site.com/produit#sort à la place de ?sort=2 ) . Donc google ne trouvera plus de liens vers des pages de type ?sort=
Je voudrais savoir ce que vont devenir dans search console, ces url bloquées qui n'auront plus de lien sur le site ? Est ce que petit à petit, je vais voir ces 2500 url bloquées passer à zéro blocage ? Si c'est bien ça, combien de temps cela prend t il ?
Avoir 2500 url bloquées pour 100 url valides est il un problème seo important ?
merci
 
Olivier Duffez (admin)
Membre du personnel
Le plus rapide pour régler le pb est du noindex dans ces URL (mais uniquement celles-là, il ne faut pas se tromper). Evidemment, il faut avoir retiré le Disallow dans le fichier robots.txt, sinon Google ne pourra pas voir le noindex.

S'il n'y a plus aucun lien interne vers ces URL de masse noire, alors c'est un pb secondaire.
 
Discussions similaires
Haut