Nouveau WRInaute
Bonjour, je suis "pollué" par des pages de tri produit de type www.site.com/produit?sort=2 que j'ai bloquées dans robots.txt ( oui j'aurais pu faire un canonical par exemple, mais je ne l'ai pas fait, et elles sont donc bloquées ) . Mais cela engendre des milliers de pages bloquées ( 2500 blocages pour un site de 100 pages indexées ... j'imagine que cela n'est pas cohérent pour google ).
J'ai enfin trouvé comment afficher le tri sans changer d'url, ( avec www.site.com/produit#sort à la place de ?sort=2 ) . Donc google ne trouvera plus de liens vers des pages de type ?sort=
Je voudrais savoir ce que vont devenir dans search console, ces url bloquées qui n'auront plus de lien sur le site ? Est ce que petit à petit, je vais voir ces 2500 url bloquées passer à zéro blocage ? Si c'est bien ça, combien de temps cela prend t il ?
Avoir 2500 url bloquées pour 100 url valides est il un problème seo important ?
merci
J'ai enfin trouvé comment afficher le tri sans changer d'url, ( avec www.site.com/produit#sort à la place de ?sort=2 ) . Donc google ne trouvera plus de liens vers des pages de type ?sort=
Je voudrais savoir ce que vont devenir dans search console, ces url bloquées qui n'auront plus de lien sur le site ? Est ce que petit à petit, je vais voir ces 2500 url bloquées passer à zéro blocage ? Si c'est bien ça, combien de temps cela prend t il ?
Avoir 2500 url bloquées pour 100 url valides est il un problème seo important ?
merci