my walking dead seo : comment chasser les pages zombies

WRInaute accro
Bonjour,

j'ai 2-3 questions si quelqu'un a 2mn ?

je dois chasser mes pages Zombie, l'ayant jamais fait je préfère m'assurer d'utiliser les bon tags:

1) dois je mettre "no-index follow" ou" no-index no-follow" ou "no-index" ?
ex de page zombie que je dois désindexer : https://phpsources.net/script/php/ecommerce/176-61_prestashop,1.6.1.22

2) est-ce que les liens qui mène a cette page doivent être en "no-follow no-index" ?

3) doit-on mettre tous les liens, même les pages en no-index dans le sitemap pour google ?
 
Olivier Duffez (admin)
Membre du personnel
Je te conseille de commencer par lire attentivement le guide de la chasse aux zombies (pour rappel, c'est la méthode que j'ai mise au point avec My Ranking Metrics).

je commence par des remarques :
  • "no-index" n'existe pas, c'est noindex
  • nofollow sur des liens internes n'a pas de sens
  • le but de la méthode pages zombies est de comprendre pourquoi des pages sont si peu efficaces, avec comme priorité de corriger le pb à la base afin de conserver les pages mais améliorées. Ce n'est qu'en dernier recours qu'on les désindexe et/ou supprimer
maintenant mes réponses :

1- tu dois d'abord étudier les différentes possibilités avant de conclure que la meilleure est de conserver l'URL et de la désindexer. Si c'est ce que tu décides, alors c'est "noindex"

2- un lien ne peut pas être en noindex. un lien interne en nofollow c'est rarement une bonne idée : si tu décides de conserver la page sur le site alors tu laisses les liens (follow), sinon tu les supprimes

3- le sitemap "normal" ne doit lister que les URL à faire indexer. de façon temporaire tu peux essayer un sitemap pour accélérer la désindexation.

et des bonus :
 
WRInaute accro
Merci pour toute ces fantastiques infos!!

Afin de chasser les pages zombies, j'ai importé le fichier CSV que fourni Google sur les pages crawlés mais non indexées, et ce directement dans mes tables SQL.

Ainsi je peux facilement traiter ces pages via mon back office.

Je rencontre quelques problèmes, essentiellement sur des pages de "versions de logiciels"

1er cas (les chiffres 300 et 800 sont approximatifs)
* les descriptions ne sont pas en Duplicate Content
quand la description est < 300 caractères : il n'index jamais
quand la description est > 300 et < 800 caractère : il n'index pas toujours
quand la description est > 800 caractères : il index

2 ieme cas
* les descriptions sont en Duplicate Content
C'est la roulette russe, certaines pages sont indexées et d'autre non
aucune corrélation avec la taille de la description

Mes questions:
Dois je mettre en noindex les pages qu'il n'index jamais, celle dont le contenu est très pauvre voir inexistant? Sachant qu'il n'existe pas de datas supplémentaires pour alimenter ces pages.

Dois je mettre en noindex les pages en Duplicate Content qu'il n'indexe pas ?
 
WRInaute accro
Vu la quantité de pages je préfère les désindexer. Je vais en modifier quelques une, les re proposer a l'indexation et voir comment ca réagis.
J'ai donc désindexer les pages vides, pages avec DC externe et interne.
Je ne supprime aucune page par contre '

Zombies OUT :p
 
Nouveau WRInaute
Bonjour,
jé préfère écrire dans cette discussion plutôt que de lancer un nouveau sujet qui traite de la même chose, à savoir, comment se débarasser des pages zombies.

Je voudrais savoir si c'est une bonne idée de déplacer toutes les pages zombie (que l'on souhaite conserver malgré tout sur son site) dans un répertoire dédié que l'on mettra ensuite en Disallow dans le robots.txt ?
 
Olivier Duffez (admin)
Membre du personnel
c'est possible (en ajoutant une meta robots noindex par sécurité) mais ça ne doit concerner que des cas extrêmes, les pages irrécupérables (pour le SEO).
car je rappelle que le but de ma méthode pages zombies, c'est de repérer très facilement les problèmes, afin de remonter à leur cause pour corriger le pb en amont.
 
Nouveau WRInaute
Ok merci Olivier pour votre réponse. J'ai des pages zombies dont j'ai amélioré le contenu (considéré "thin"). J'arrive à en réindexer certaines, mais pour certaines ca ne passe pas. Je passe par la search console pour les faire réindexer et rien à faire, Google conserve la vieille version de ces pages datant de plusieurs mois. J'en viens à me demander si je ne dois pas complètement "détruire" ces pages et les relancer avec de nouvelles url.
 
Discussions similaires
Haut