Bonjour tout le monde,
J'ai l'impression que l'indexation des pages de mon sitemap et le temps passé par le ggbot sur mon site n'est pas très performant et donc je cherche à optimiser un peu tout ça.
Ma question : j'ai un site type tripadvisor avec beaucoup de pages (de recherches + de profils) et sur chaque profil il y a un lien unique par profil pour laisser un avis. Type monsite.fr/pro/toto/avis (site codé à la main, pas de CMS)
J'ai mis ces pages en noindex mais je pense que ggbot passe trop de temps à les crawler et que je perds du jus ...
Les solutions envisagés (vu sur d'autres posts et chez les concurrents)
1- nofollow des liens internes : j'ai cru comprendre que c'était à bannir mais c'est techniquement une solution (vu chez les concurrents)
2- ouvrir la page avec du js : GG est de moins en moins dupe et pourrait punir pour PR sculpting ?
3- robot.txt : bloquer les pages type /pro/*/avis ? (https://www.webrankinfo.com/forum/t/optimiser-le-crawl-google.171044/?hilit=sculpting#p1473507)
4- Une autre meilleure idée ?
Quelques KPI de GSC sur lesquelles j'ai du mal à évaluer la performance :
- j'ai itéré sur un sitemap mais en 1 mois : 98 500 pages à indexer -> 780 indexés
- nb moyen de pages explorées par jour : 459 (en faible augmentation depuis 15j)
- ko téléchargés en moyenne/jour : 6 295
- temps de téléchargement moyen : 503 ms
Merci beaucoup d'avance pour votre avis ! Toute réponse même partielle me sera vraiment utile
J'ai l'impression que l'indexation des pages de mon sitemap et le temps passé par le ggbot sur mon site n'est pas très performant et donc je cherche à optimiser un peu tout ça.
Ma question : j'ai un site type tripadvisor avec beaucoup de pages (de recherches + de profils) et sur chaque profil il y a un lien unique par profil pour laisser un avis. Type monsite.fr/pro/toto/avis (site codé à la main, pas de CMS)
J'ai mis ces pages en noindex mais je pense que ggbot passe trop de temps à les crawler et que je perds du jus ...
Les solutions envisagés (vu sur d'autres posts et chez les concurrents)
1- nofollow des liens internes : j'ai cru comprendre que c'était à bannir mais c'est techniquement une solution (vu chez les concurrents)
2- ouvrir la page avec du js : GG est de moins en moins dupe et pourrait punir pour PR sculpting ?
3- robot.txt : bloquer les pages type /pro/*/avis ? (https://www.webrankinfo.com/forum/t/optimiser-le-crawl-google.171044/?hilit=sculpting#p1473507)
4- Une autre meilleure idée ?
Quelques KPI de GSC sur lesquelles j'ai du mal à évaluer la performance :
- j'ai itéré sur un sitemap mais en 1 mois : 98 500 pages à indexer -> 780 indexés
- nb moyen de pages explorées par jour : 459 (en faible augmentation depuis 15j)
- ko téléchargés en moyenne/jour : 6 295
- temps de téléchargement moyen : 503 ms
Merci beaucoup d'avance pour votre avis ! Toute réponse même partielle me sera vraiment utile