Bonjour tout le monde
Depuis au moins septembre, il y a de gros problèmes avec Googlebot, la Search Console et Google en général.
Cela fait plus de 10 ans que je fais du référencement : j'en ai déjà vu des comportements bizarres ou des bugs de Google, mais cela ne durait que quelques heures voire jours. Là, ça fait au moins 3 mois que ça fait n'importe quoi.
D'ailleurs, il n'y a qu'à regarder les posts de ces dernières semaines sur WRI : de nombreuses personnes ont des problèmes incompréhensibles :
https://www.webrankinfo.com/forum/t/article-qui-napparait-pas-sur-google.198197/
https://www.webrankinfo.com/forum/t/pas-de-nouveau-crawl-sur-une-page-recente-pourquoi.198160/
https://www.webrankinfo.com/forum/t/desindexation-massive-de-mon-site.198085/
https://www.webrankinfo.com/forum/t/desindexation-et-suppression-url.198103/
Pourquoi ça ne fait pas plus de bruit que ça ? Je n'ai pas l'impression que les référenceurs pro en parlent. Quand on bosse sur des sites de plusieurs milliers de pages, c'est peut-être difficile de se rendre compte de ce genre de soucis, mais en bossant sur des sites de 10-100 pages ça se voit vite !
Quel est votre avis ?
Depuis au moins septembre, il y a de gros problèmes avec Googlebot, la Search Console et Google en général.
- Le problème des canonical : Google a admis en octobre qu'il y avait un bug mais qu'il était corrigé : ce n'est clairement pas le cas, j'ai quelques sites pour lesquels la Search Console n'affiche pas la bonne URL canonique.
Par exemple : la page d'accueil d'un site est "https://example.com/", la canonical sur cette page est "https://example.com/". Elle est aussi accessible via "https://example.com/index.html" (et toujours la bonne URL canonique "https://example.com/") : et bien Google s’emmêle les pinceaux… sur un site il a carrément désindexé la page d'accueil - Sur un site, le 14/11/2020 j'ai désindexé des URLs dans la Search Console que Googlebot (parce que c'était pénible qu'il m'indique des pages 404 alors qu'aucuns liens n'existe vers ces pages) continuait à crawler malgré qu'elles retournaient une 404 depuis plus de 6 mois.
15 jours plus tard, pour ces pages, la Search Console m'indique : "La demande de suppression est arrivée à expiration". Pourtant j'ai bien lu : https://support.google.com/webmasters/answer/9689846#make_permanent (et donc Googlebot reçoit bien une 404 pour ces pages)
Dans les logs de mon serveur, j'ai aussi vérifié que Googlebot récupérait bien une 404 pour ces pages.
D'ailleurs, jusqu'à très récemment, pour désindexer une page je n'avais jamais eu à passer par la Search Console : juste une 404 suffisait. - L'outils "Couverture" de la Search Console qui ne mets plus rien à jour depuis longtemps
- Google met beaucoup plus de temps à indexer de nouveaux articles de blog (plusieurs jours alors qu'il y a peu c'était quelques heures) et une fois indexé, il ne revisite pas les pages avant plusieurs semaines
- Google ne comprends plus les redirections 301 : avant tous ces problèmes, Google comprenait bien qu'une page avait changé d'URL grâce à une redirection 301. Maintenant il a l'air de galéré : j'ai même eu le cas où il a carrément désindexé une page au lieu de juste suivre la nouvelle URL (il confond les 301 et 404 ? Voir mon point n°2 sur les 404)
- La possibilité de soumettre une URL pour indexation qui a disparu "temporairement" de la Search Console
Cela fait plus de 10 ans que je fais du référencement : j'en ai déjà vu des comportements bizarres ou des bugs de Google, mais cela ne durait que quelques heures voire jours. Là, ça fait au moins 3 mois que ça fait n'importe quoi.
D'ailleurs, il n'y a qu'à regarder les posts de ces dernières semaines sur WRI : de nombreuses personnes ont des problèmes incompréhensibles :
https://www.webrankinfo.com/forum/t/article-qui-napparait-pas-sur-google.198197/
https://www.webrankinfo.com/forum/t/pas-de-nouveau-crawl-sur-une-page-recente-pourquoi.198160/
https://www.webrankinfo.com/forum/t/desindexation-massive-de-mon-site.198085/
https://www.webrankinfo.com/forum/t/desindexation-et-suppression-url.198103/
Pourquoi ça ne fait pas plus de bruit que ça ? Je n'ai pas l'impression que les référenceurs pro en parlent. Quand on bosse sur des sites de plusieurs milliers de pages, c'est peut-être difficile de se rendre compte de ce genre de soucis, mais en bossant sur des sites de 10-100 pages ça se voit vite !
Quel est votre avis ?
Dernière édition: