Hello tout le monde,
Après avoir commencer une analyse de log sur mon site, je viens de m'apercevoir que googleBot passe environ 50% de son temps à crawler des pages (environ 150k pages par mois) avec des paramètres de tracking dans les urls ainsi que des paramètre de sessions, qui n'ont donc aucune utilité car elles ont le même contenu (le risque de duplicate content a été enlevé en mettant une balise canonical sur les pages avec paramètres)
Environ 90% de ces 150k urls sont crawlées une seule fois.
Même si la plupart des urls sont crawlées qu'une seule fois, cela doit tout de même avec un impact sur mon budget de Crawl (en effet, seulement 50% de mon site est crawlé par googlebot)
Après avoir vérifié sur Google Search Console, les différents paramètres d'url utilisés (utm_term, utm_source, gclsrc, gclid etc...) ne sont pas exclus.
Pensez-vous que le fait d'indiquer à Google la liste des paramètres évoqués comme d'"affectant pas le contenu de la page (il permet d'effectuer le suivi des utilisateurs)" aura un impact positif sur le crawl de ces pages par googlebot ? Est-ce que cette manoeuvre suffira ? ou bien faut-il également l'indiquer sur le robots.txt ?
Le but étant de évidement de faire en sorte que GoogleBot ne passe plus 50% de son temps sur des pages inutiles.
Merci !
Après avoir commencer une analyse de log sur mon site, je viens de m'apercevoir que googleBot passe environ 50% de son temps à crawler des pages (environ 150k pages par mois) avec des paramètres de tracking dans les urls ainsi que des paramètre de sessions, qui n'ont donc aucune utilité car elles ont le même contenu (le risque de duplicate content a été enlevé en mettant une balise canonical sur les pages avec paramètres)
Environ 90% de ces 150k urls sont crawlées une seule fois.
Même si la plupart des urls sont crawlées qu'une seule fois, cela doit tout de même avec un impact sur mon budget de Crawl (en effet, seulement 50% de mon site est crawlé par googlebot)
Après avoir vérifié sur Google Search Console, les différents paramètres d'url utilisés (utm_term, utm_source, gclsrc, gclid etc...) ne sont pas exclus.
Pensez-vous que le fait d'indiquer à Google la liste des paramètres évoqués comme d'"affectant pas le contenu de la page (il permet d'effectuer le suivi des utilisateurs)" aura un impact positif sur le crawl de ces pages par googlebot ? Est-ce que cette manoeuvre suffira ? ou bien faut-il également l'indiquer sur le robots.txt ?
Le but étant de évidement de faire en sorte que GoogleBot ne passe plus 50% de son temps sur des pages inutiles.
Merci !