Pourquoi Google n'a pas réindexé mon site après si long?

Nouveau WRInaute
Salut à tous!

Il y a plusieurs mois - au printemps - j'ai réalisé que j'avais mal planifié la structure de mon site et cela faisait que les mises à jour étaient laborieuses. J'ai donc fait des changements, et bien sûr je savais que des gens allaient tomber sur des erreurs 404 pendant un bout de temps, mais...

Cela fait plusieurs mois, je ne m'en était pas préocupé car j'étais tellement certain que tout allait rentrer dans l'ordre assez rapidement. Je viens juste de réaliser qu'aucun changement n'a été fait par Google! Toujours mes anciennes adresses sont indexées et je ne comprends pas comment cela est possible que Google n'ait pas entre temps revisité mon site et indexé les nouvelles adresses.

J'avoue venir rarement sur ce site - webrankinfo -, je ne suis donc pas au courant des nouveaux trucs de Google s'il y en a, soyez indulgents s.v.p.

Merci de vos conseils et avis! :)
 
WRInaute impliqué
a tu renseigné ton fichier robots.txt pour dire a Google de supprimer les anciennes adresses, fait un sitemap ou des échanges de liens pour accélérer un peu les choses
 
Nouveau WRInaute
Merci de ta réponse!

Non à tout cela! Faire le fichier robots.txt est donc devenu une nécessité? Je vais m'en occuper, et aussi voir ce qu'est un sitemap (je ne sais même pas).

:)
 
Nouveau WRInaute
Si je comprends bien, ce fichier est fait pour empêcher l'accès à une partie d'un site? Le problème est que je ne me rappelle pas de toutes mes anciennes Urls, et il y en a plusieurs. J'étais certain que cela allait s'effacer tout seul lorsque Google visiterait à nouveau mon site.

DÉSOLÉ! Je réalise maintenant que contrairement à ce que je pensais tantôt, mes nouvelles adresses sont indexées. Par contre, les adresses non valides sont toujours indexées dans Google. Comment les faire disparaître?

Merci!
 
WRInaute impliqué
essai de rajouter de nouvelles choses sur ton site si ce n'est pas déjà. Et patiente c'est la meilleure solution et je pee mettre ton site en bas des pages de mon site pendant une semaine histoire de voir comment ca évolue si tu le veut biensûr
 
WRInaute impliqué
il m'est également arrivé ce problème sur certains sites, en gros pour résumer, google a une mémoire d'éléphant, et noublie quasi jamais les pages ou presque (au bout de 2 ans ça commence), les 404, il s'en fiche, un an aprés il peut continuer à repasser dessus des centaines de fois, c'est un peu con, mais il doit se dire on s'est jamais si ça réapparait.
Du coup ton site n'a plus aucun traf, qui enverrait du traf sur un site qui a 50% de page en 404 ? (ex.)
Alors oui il faut créer un robots.txt avec Disallow et surtout le laissé, je l'avais mis sur un site, et demandé au bot de passé via leur admin de suppression automatique, aucun souci, sauf que 6 mois aprés (c'est écrit dans leur faq...), il m'a remis les 404, preuve qu'il noublie rien, même quand tu crois qu'il a tout supprimer.
J'ai plusieurs sites dans ce bourbier depuis 2 ans ... uniquement à cause des 404, du à une modification de structure de site.
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut