Grosse perte d'indexation

Nouveau WRInaute
Bonjour,

j'ai probablement commis pas mal d'erreur dans la programmation de mon site au niveau SEO, car énormément de pages ne sont pas indexées, alors que j'ai tenté de mettre au point des sitemap générées dynamiquement à disposition de google, et j'ai tenté d'appliquer différents principes pourtant très bien expliqués sur Web Rank Info...

La perte d'indexation​

Depuis quelques mois, j'ajoute peu à peu du contenu récupéré depuis mon mediacenter sur le serveur dev, principalement au niveau des films et séries, et ça semble coïncider avec la baisse d'indexation...

perte-indexation.jpg

Les pages qui n'ont jamais été parcourues ou indexées​

De plus, comme on peut le voir, il ne considère que 12.3M pages, alors que déjà rien que pour les villes (réelles ou imaginaires) présentes sur le site, ça fait déjà un total de un million et demi.
Idem dans la table des relations entre les personnages et les media (album BD, livre, film, épisode de série TV...) je suis aussi à plus d'un million de lignes... Et sur le serveur en dev je suis à plus de trois millions, mais j'ai peur de continuer à alimenter le site en prod puisque c'est peut-être ça qui constitue la baisse d'indexation.
Je ne comprends pas de trop ce que j'ai commis comme erreur, et je fais appel à vous pour me donner quelques indices si possible afin de tenter de réparer ça :-)

Quelques exemples de page:​

Richard Alpert dans la série "LOST": https://www.gaudry.be/tv/lost/personnages/richard-alpert.html
Géographie; l'île de LOST: https://www.gaudry.be/lieu/0lst/0lst-isl.html
Carte de l'Entre-deux-Mondes de la Tour Sombre de Stephen King: https://www.gaudry.be/lieu/0e2m.html
Les personnages des BD Watchmen: https://www.gaudry.be/bd/watchmen-les-gardiens/personnages/
Ligne du temps pour la série Blake et Mortimer: https://www.gaudry.be/time/blake-et-mortimer/timeline-evt.html


Merci d'avance pour vos conseils,
Steph
 
Olivier Duffez (admin)
Membre du personnel
Je te conseille de lire ma dernière newsletter LinkedIn : que faire en cas de chute d'indexation Google
sans oublier mon dossier pour comprendre comment utiliser le rapport d'indexation de GSC (spoiler : il faut filtrer par sitemaps)

rien que pour les villes (réelles ou imaginaires) présentes sur le site, ça fait déjà un total de un million et demi.
je n'ai pas été voir, tu as vraiment autant de pages pour des villes ? elles sont de bonne qualité et leur contenu intéresse ton audience ?
 
Nouveau WRInaute
Merci je vais voir ça.

Pour les villes, c'est sensé permettre de lier les infos de personnages, ou les lieux sur lesquels des photos ont été prises, mais c'est clair que pour 90% d'entre elles, leur présence n'a pour l'instant pas d'importance. Ce qui est important c'est quand le contenu a un impact sur des évènements décrits dans un des media, mais ça je ne peux le prédire... Par exemple, il faut bien qu'elles soient là lorsque je veux réaliser la fiche d'identité d'un personnage. Je sélectionne le pays ou la planète, puis il me présente les régions, et enfin les villes pour la région sélectionnée. Donc je pense que même si une ville n'est pas importante pour le site à un moment, elle peut le devenir par la suite.

Est-ce que dans ce cas précis, le nombre important de villes a un impact négatif sur les villes qui ont une grande importance sur le site?
 
Olivier Duffez (admin)
Membre du personnel
oui, si la qualité globale est très faible à cause d'une immensité de pages de faible qualité (en même temps que quelques pages ultra bien), alors Google estime que le site est de mauvaise qualité. une conséquence est une mauvaise indexation (cf. crawl prédictif) mais plus largement aussi en visibilité dans les SERP.
 
Nouveau WRInaute
OK merci c'est bien ce qu'il m'avait semblé comprendre en lisant https://www.linkedin.com/pulse/baisse-indexation-google-olivier-duffez-gmi2c/

J'ai énormément de Explorée, actuellement non indexée et de Détectée, actuellement non indexée, donc c'est que google considère le contenu comme inutile.
Conclusion: comme c'est un site perso, tant pis pour le SEO et je préfère continuer à pouvoir utiliser mes outils que de supprimer le contenu simplement pour améliorer le référencement.

Merci en tout cas pour les infos.
 
Nouveau WRInaute
Ce qui est étrange, c'est que lorsque je vais dans Indexation des pages > Explorée, actuellement non indexée, puisque je clique sur une ligne du résultat, puis la loupe à côté de l'url de la page: il m'affiche après analyse que la page est pourtant indexée comme on peut le voir sur cette capture:

perte-indexation.jpg


Alors je ne comprend plus rien...

Les 12 297 613 pages non indexées le sont-elles ou pas?
 
Olivier Duffez (admin)
Membre du personnel
pour celle-là apparemment elle serait indexée
il ne te reste que 12 297 612 tests à faire ;-)
 
Nouveau WRInaute
Il y a des gens qui passent le temps de rédiger de supers articles; et des ânes comme moi qui les lisent en oubliant des actions...
Désolé, tu as raison j'avais oublié de filtrer; et en filtrant il affiche:
Pages concernées 474
 
Olivier Duffez (admin)
Membre du personnel
concernées par quoi, je sais pas, tu détailles pas
mais 12M d'URL non indexées, sans doute crawlées pour la plupart, tu as un vrai pb sur le site
 
Nouveau WRInaute
Je n'en sais pas plus... Quand je clique par exemple sur une page non indexée, j'obtiens ceci:

perte-indexation.jpg

Indexation des pages
La page n'est pas indexée : Explorée, actuellement non indexée

Découverte
Sitemaps
Aucun sitemap référent détecté
Page d'origine
https://www.gaudry.be/de/lieu/us/us-ky/86862.html
https://www.gaudry.be/lieu/us/us-ky/86951.html
http://www.gaudry.be/lieu/us/us-ky/86919.html
https://www.gaudry.be/lieu/us/us-ky.html
Exploration
Dernière exploration
1 juil. 2025, 16:34:48
Explorée avec
Googlebot pour smartphone
Exploration autorisée ?
Oui
Récupération de page
Réussie
Indexation autorisée ?
Oui
Indexation
URL canonique déclarée par l'utilisateur
https://www.gaudry.be//lieu/us/us-ky/86862.html
URL canonique sélectionnée par Google


URL inspectée

Je ne sais pas si c'est parlant pour vous... Pour moi, non :(
 
Olivier Duffez (admin)
Membre du personnel
je répète : le plus important est de savoir si c'est une page qu'on souhaite faire indexer (elle doit être dans un sitemap) ou pas
 
Nouveau WRInaute
Grosse désindéxation sur mes sites, mais ça revient quand je retravaille le contenu, le problème est peut être de ce côté ?
 
Nouveau WRInaute
Oui c'est possible que je doive retravailler le contenu pour revenir dans l'indexation, mais éditer 12 millions de pages (rien que pour celles qui ont perdu l'indexation, car il y en a beaucoup plus qui n'ont même jamais été indexées), ça ne se fait pas en quelques jours :-) J'ai mis plus de 25 ans à générer le contenu, et ça prend du temps...
 
WRInaute occasionnel
Bonjour,
En prenant cette page en exemple, https://www.gaudry.be//lieu/us/us-ky/86862.html :
  • La page est relativement longue à charger
  • Le titre est trop générique
  • L'URL canonique indiquée ne correspond pas à l'URL (il y a un souci, par ailleurs, dans la génération des URL canoniques qui rajoute un double //)
  • 2 <H1> dans la structures de titres
  • Le contenu, bien qu'ayant du volume, semble un peu pauvre sémantiquement.

Bref de la mise en qualité à opérer.
 
Nouveau WRInaute
Merci pour ton retour d'infos sur la page https://www.gaudry.be//lieu/us/us-ky/86862.html :

  • La page est relativement longue à charger
    => Les outils de mesure que j'utilise ne sont peut-être pas bons alors car je suis en vert partout (même si je suis à la limite de l'orange):
    perte-indexation.jpg
  • Le titre est trop générique
    Oui probablement. Je donne juste le nom de la ville, suivis d'un discriminateur (ville, village, île...). Mais il me semble que pour Wikipedia qui est très bien référencé, le titre n'est pas non plus plus long...
  • L'URL canonique indiquée ne correspond pas à l'URL (il y a un souci, par ailleurs, dans la génération des URL canoniques qui rajoute un double //)
    => merci. Je constate en effet une erreur de mon côté dans la génération, entre le nom de domaine et le début de l'URL; je corrige ça.
  • 2 <H1> dans la structures de titres
    => alors là je ne comprends pas... Je n'arrive pas à trouver le second H1... D'autant plus que le code est sensé lancer une exception lorsque je tente d'ajouter un titre de niveau 1 alors qu'il en existe déjà un...
    Si tu peux me préciser quels sont les deux titres ça m'intéresse beaucoup; merci d'avance.
  • Le contenu, bien qu'ayant du volume, semble un peu pauvre sémantiquement.
    => c'est un bled perdu au fond du Kentucky, je ne trouve pas plus d'infos sur le lieu... Mais il permet d'afficher les informations de base sur le lieu, ainsi que la situation sur la carte.
 
WRInaute occasionnel
- Pour la mesure de vitesse, c'est grâce au cache. Le cache ce n''est pas un problème mais il induit en erreur en laissant un message en bas de page laissant à penser qu'on visualise une page périmée. Un bon système de cache délivre toujours la dernière version.. Mais là, par exemple, à minuit, que ce soit avec ou sans cache, la page met entre 11 et60 secondes ! (et ce n'est pas mon accès, pas de soucis sur d'autres sites)

- Les URL ont toujours un souci :
- les standard ont aussi un double // (code langue "à blanc") :
1751666883126.png
- La canonique est carrément différente :
1751666943227.png (/lieu/ est manquant)

- Comparer à Wikipedia, c'est probablement prendre un risque ;-) Wikipedia jouit d'une notoriété extrême de par son universalité. Par ailleurs le contenu des pages fait référence donc forcément, le titre devient moins pondérant. De là à dire que c'est transposable partout...

- Contenu et titre doivent avoir un objectif. Que présente la page ? avec un simple de nom de ville on en déduit quoi, du contenu géographique ? historique ? démographique ? La page contient un peu de tout ça..

- le deuxième H1 est caché dans le menu de droite, probablement utilisé à tort pour de la mise en forme :
1751666677779.png
 
Nouveau WRInaute
  • Pour la mesure de vitesse, c'est grâce au cache. Le cache ce n''est pas un problème mais il induit en erreur en laissant un message en bas de page laissant à penser qu'on visualise une page périmée.
    => Quel est le conseil alors? Je ne dois pas afficher la date de mise en cache? Ou je ne dois pas afficher le message informant que la page est en cache?

  • à minuit, que ce soit avec ou sans cache, la page met entre 11 et60 secondes !
    => oui je constate un problème d'infrastructure chez l'hébergeur, notamment à minuit; et à présent le site est carrément hors ligne avec une erreur 504.
    Idem pour tous les sites que j'héberge sur le même cluster chez eux...

  • les standard ont aussi un double
    => J'avais testé hier et ça me semblait corrigé, mais dès que j'ai à nouveau connexion vers le site, je vérifie. Merci.

  • La canonique est carrément différente
    => ça c'est vraiment grave, et dès que j'ai une connexion, je corrige. Je vois où se situe le problème. Merci.

  • le deuxième H1 est caché dans le menu de droite
    => OK c'est tout à fait cohérent (la page que j'avais testé ne contenait pas d'images, donc je n'avais pas ce H1 dans le menu), et je modifie ça dès que j'ai à nouveau accès. Merci.
 
WRInaute occasionnel
L'idéal c'est d'avoir un cache dynamique qui se rafraichit dès qu'un contenu est ms à jour pour que le visiteur n'ait pas à s'en soucier.
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut