Nouveau WRInaute
Bonjour,
Avant tout, merci de prendre le temps de lire ces quelques lignes.
La notion de crawl budget nous invite à limiter le nombre de pages de notre site.
Mon problème est que beaucoup d'app que nous utilisons renvoient des url avec des paramètres.
La balise canonique évite les problématiques de duplicate content mais pas l'impact sur le crawl budget.
1) Y a-t-il de moyen pour cleaner une url avec des paramètres tout en conservant les information que ces paramètres donnent ?
2) Si aucune solution n'existe pour la solution 1. Est-il intéressant de dire à Google de ne pas crawler ces pages.
3) Homis le fichier robot.txt (auquel je n'ai pas accès - merci Shopify) existe-t-il un autre moyen d'empêcher le crawl.
Merci par avance pour votre aide,
Avant tout, merci de prendre le temps de lire ces quelques lignes.
La notion de crawl budget nous invite à limiter le nombre de pages de notre site.
Mon problème est que beaucoup d'app que nous utilisons renvoient des url avec des paramètres.
La balise canonique évite les problématiques de duplicate content mais pas l'impact sur le crawl budget.
1) Y a-t-il de moyen pour cleaner une url avec des paramètres tout en conservant les information que ces paramètres donnent ?
2) Si aucune solution n'existe pour la solution 1. Est-il intéressant de dire à Google de ne pas crawler ces pages.
3) Homis le fichier robot.txt (auquel je n'ai pas accès - merci Shopify) existe-t-il un autre moyen d'empêcher le crawl.
Merci par avance pour votre aide,