WordPress Indexation de trop de pages sur mon site (couverture index search console)

Nouveau WRInaute
Bonjour,

je ne comprends pas l'indexation des pages de mon site sur Google, voici quelques infos :

Ici on peut voir 2490 pages indexées : https://goo.gl/jCTDJD mais je souhaiterais en indexer seulement un peu plus de 600 d'ailleurs mon sitemap n'index que cela : https://etudiant-voyageur.fr/sitemap_index.xml

j'ai supprimé beaucoup de tag qui ne servaient à rien et j'ai redirigé proprement en 301.

Vous me diriez que je dois attendre que Google repasse sur mon site mais ça fait déjà 2 mois.

upload_2019-1-31_15-24-44.png

upload_2019-1-31_15-25-12.png


Avez-vous une idée pour m'aider ?

Merci d'avance
 

Fichiers joints

  • upload_2019-1-31_15-17-31.png
    upload_2019-1-31_15-17-31.png
    39.5 KB · Affichages: 4
  • upload_2019-1-31_15-17-53.png
    upload_2019-1-31_15-17-53.png
    66.7 KB · Affichages: 4
Dernière édition:
Nouveau WRInaute
Bonjour,
Afin de pouvoir échanger autour d'un exemple
Prenons celui d'un site d'actualités autour des smartphones, qui publie donc des actualités et aussi des tests de téléphone au fil des années.
 
WRInaute occasionnel
https://etudiant-voyageur.fr/sitemap_index.xml

retourne une erreur.

Bref, le sitemap, il indique justes les pages à indexer ?

Il faut bien que le bot sache qu'il doit désindexer la page : par exemple Noindex
Et comme ce sont des pages peux visitées, tant que le bot n'est pas repassé dessus, il ne peut pas savoir qu'elles ne doivent pas être désindexées.

Aussi, si le bot est renvoyé en 301 par un page et qu'il n'y a plus de liens vers la page suiante à déindexer, la probablité qu'il mette à jour rapidement la page suivante devenue fantôme va décroitre
(je crois qu'il y a un truc bine dévolppé sur ce site sur les pages fantômes..)

Eb gros, des indexer c'est comme indéxer, mais dépilant une pile de pages indexées (on commence pas par le bas de la pile sinon la pile se casse la gueule)

x-robots-tag is your friend
 
Discussions similaires
Haut