Masse de pages en noindex, nouveau critère pénalisant ?

WRInaute occasionnel
Bonjour,

Je viens de remarquer une différence de taille, entre l'ancienne et la nouvelle version de search console.

Dans l'ancienne, les environ 670 URL en erreur 404, sont considérées comme une erreur d'exploration : http://www.screencast.com/t/VEwerUuSRvg

Dans la nouvelle, je n'ai plus que 2 URL en 404, en revanche mes presque 380 URL en noindex, sont considérées comme une erreur d'exploration, alors qu'elles ne le sont pas dans l'ancienne version : upload_2018-9-30_15-12-56.png

Du coup, je me demande si la masse de pages en noindex ne serait pas devenue une erreur prioritaire, plus que la masse de pages en 404 ?

Ça expliquerait peut-être ma soudaine chute de trafic depuis la grosse mise à jour récente du 26–25 septembre. J'ai bien envie de faire passer mes pages déjà en noindex, dans une catégorie archives puis d'en bloquer l'accès depuis le fichier robots.txt. Puis de rajouter les nouvelles pages désindexaient au fur et à mesure.

Qu'en pense la communauté ?
 
Olivier Duffez (admin)
Membre du personnel
non, je ne pense pas qu'avoir plein de pages en noindex ait un rapport avec la mise à jour du 27/09 (avis purement perso)
ce qui n'est pas normal, c'est d'envoyer (via le sitemap) autant d'URL pourtant en noindex
concernant les 404, si elles ne sont pas dues à des erreurs dans les liens internes (actuels ou passés), ça n'est pas un pb
 
WRInaute occasionnel
ce qui n'est pas normal, c'est d'envoyer (via le sitemap) autant d'URL pourtant en noindex
Ce sont des pages inactives que je désindexe suite à ce topic : https://www.webrankinfo.com/forum/t...presentant-plus-dinteret.193647/#post-1579576.

je ne pense pas qu'avoir plein de pages en noindex ait un rapport avec la mise à jour du 27/09
Je vais quand-même passer toutes mes pages en Noindex sur une catégorie "archives", puis bloquer cette catégorie dans le robots.txt. De toutes façons je ne vois rien d'autre...
 
Dernière édition:
Membre Honoré
Bonjour,

Complément :
Important! For the noindex directive to be effective, the page must not be blocked by a robots.txt file. If the page is blocked by a robots.txt file, the crawler will never see the noindex directive, and the page can still appear in search results, for example if other pages link to it.
Source : Google.

Temps de réponse : 5 minutes.
Cordialement.
 
Olivier Duffez (admin)
Membre du personnel
mes presque 380 URL en noindex, sont considérées comme une erreur d'exploration
je ne crois pas non. Il s'agit ici de la couverture de l'index, qui liste les pages exclues (de l'index). Il ne s'agit pas d'une erreur d'exploration, Google indique seulement quelles URL ne sont pas dans l'index, et nous aide à comprendre pourquoi.

cela dit, à quoi bon conserver autant de pages en noindex sur le site ? sont-elles consultées par les internautes ?
l'idéal serait de les améliorer, ou les regrouper. Et si ce n'est pas possible, ce n'est sans doute pas très efficace d'en conserver autant en noindex, ou alors c'est temporaire.
 
Olivier Duffez (admin)
Membre du personnel
il faut regarder si elles sont consultées par les internautes (même si elles ne sont pas des pages d'arrivée sur le site, en tout cas en référencement naturel) et si elles servent à quelque chose sur le site
 
WRInaute discret
@WebRankInfo : j'ai moi aussi bcp de page en noindex consultées par les internautes. Mais comme elles sont de faible "qualité" je les mets en noindex. Ex : avis sur des objets, certains sont tellement courts que je mets ces pages là en noindex. Pas bien ?
 
Olivier Duffez (admin)
Membre du personnel
pourquoi faire une page dédiée à des avis sur un objet, très courte, et pas afficher les avis sur la page de l'objet directement ?
 
WRInaute discret
Les avis peuvent être nombreux et potentiellement très longs (et l'objet en question peut se décliner en plusieurs versions, bref ce sont des bagnoles). Donc un avis court sera mis en noindex.
Avant je faisais des pages avec plusieurs avis réunis (50 par page) mais c'était le bordel total car je les classais du plus long au plus court (normal faut récompenser les écrivains). Du coup la première page faisait 50 km de long puisque les avis les plus longs y étaient mis en premier.
Pour revenir au sujet, j'ai pris une grosse claque (-35% sur 50 000 visites/jour à peu près) lors de Fred 2 (fin mars 2018), j'ai repris un bon boost le 1er aout (sans revenir parfaitement comme avant) et encore un début septembre (rentrée ?) qui me fit revenir comme avant fred2 quasiment.
Et là, et c'est pourquoi je viens faire un tour ici, je me reprends une baisse qui me fait revenir comme début aout, mais il faut encore quelques jours pour y voir plus clair car c'est très frais.
 
WRInaute occasionnel
je me reprends une baisse

Moi aussi je me retrouve redescendu de -25 % à -30 %, après avoir remonté début août.

il faut encore quelques jours pour y voir plus clair car c'est très frais.

J'ai beau regarder je ne vois rien qui cloche sur mon site, j'ai pensé que justement ces près de 40 % d'articles en noindex pouvaient être un problème.

Comme ils ont déjà été désindexés par Google, je suis en train de les réunir dans une catégorie, puis je bloquerai l'accès de cette catégorie via le fichier robots.txt. On verra bien.
 
WRInaute occasionnel
Salut,


Moi aussi je me retrouve redescendu de -25 % à -30 %, après avoir remonté début août.

Idem pour moi mon site avait bien remonté.


J'ai beau regarder je ne vois rien qui cloche sur mon site

Moi non plus je ne vois rien qui cloche sur mon site.

j'ai pensé que justement ces près de 40 % d'articles en noindex pouvaient être un problème.

Tu ne va pas le croire mais toutes mes pages des "Profil/membre" des utilisateurs sont toutes en noindex depuis maintenant 1 an, je soupçonnai depuis des années un problème avec toutes ses pages là.
La question que je me posais avant la bonne remonté du mois d'aout c'était peut-être qu'il y avait encore un problème avec les profils des membres en noindex, il y a environ 120 000 profils en noindex et les urls sont de cette forme: site.com/u/<user>


Faut t'il les mettre une bonne fois pour toute dans un sous-domaine ? (profil.site.com/<user> sans noindex)
 
Dernière édition:
WRInaute passionné
J'ai les pages des profils de membres (12000 environ) qui sont en "noindex, nofollow, noarchive" et ça n'a jamais posé le moindre souci (le noarchive peut avoir son importance).

Si des liens internes (comme l'a évoqué Olivier) pointent vers ces pages, il ne faut surtout pas les bloquer par robots.txt!

Selon SEMrush, il y a eu du rififi chez Google récemment (30 sept., certaines catégories de sites étant très touchées). Note perso: vu les à-coups depuis 2-3 semaines, ça "sent" la bonne mise à jour d'ici peu...
 
Membre Honoré
Bonjour,
J'ai beau regarder je ne vois rien qui cloche sur mon site
Pages avec doubles redirections, amélioration des pages possibles, etc. .
Vous pouvez créer un topic et demander des avis concernant votre site Internet.
Moi non plus je ne vois rien qui cloche sur mon site.
Pareil vous pouvez créer un topic et demander des avis concernant votre site Internet :
https://www.webrankinfo.com/forum/f/demandes-davis-et-de-conseils-sur-vos-sites.36/ .

Temps de réponse : 5 minutes.
Cordialement.
 
WRInaute occasionnel
Si des liens internes (comme l'a évoqué Olivier) pointent vers ces pages, il ne faut surtout pas les bloquer par robots.txt!

Bonne idée, il faut commencer par enlever les liens qui pointent vers les pages en noindex, avant de les bloquer par le robots.txt. On peut identifier ces liens via la Search Console.

et ça n'a jamais posé le moindre souci

As tu subi une chute de trafic depuis fin septembre ?
 
Olivier Duffez (admin)
Membre du personnel
à quoi ça sert de garder sur le site des pages qui n'ont plus de liens entrants, qui sont bloquées à l'indexation et au crawl ?
 
WRInaute occasionnel
Bon, je vais donc faire comme ceci :
  1. Identifier les liens internes pointant vers chaque page en noindex, et les enlever.
  2. Déplacer les pages en noindex vers une catégorie nommée « archives ».
  3. Bloquer l'indexation de tous les articles de la catégorie « archives », via le robot.txt.
  4. Attendre que ces fameuses pages en noindex n'apparaissent plus en erreur sur la nouvelle version de la Search Console.
  5. Les mettre dans la corbeille, ou les laisser pour montrer aux internautes que le site existe depuis longtemps.
Et tout ceci m'amène à 2 questions :

1- Connaissez-vous un outil WordPress pour identifier les liens internes pointant vers un article ? Et oui, ces articles en noindex ne sont plus pris en compte par Search Console, et du coup on ne peut pas l'utiliser pour identifier les liens internes. Oui je sais, c'est ballot.

2- Pour empêcher les robots d'aller crawler les pages appartenant à une certaine catégorie, j'ajoute la mention Disallow: /category/archives ?

Merci d'avance, cher(e)s communautaires, pour vos commentaires et suggestions toujours pertinents :).
 
Olivier Duffez (admin)
Membre du personnel
John Mueller (de Google) semble confirmer ce que je te disais plus haut, à savoir que ça ne pose pas de problèmes d'avoir plein de pages en noindex sur un site. ça ne pénalise pas les autres pages.
Il répète que ce qui compte, ce sur quoi Google se base, c'est l'ensemble des pages qu'on laisse indexables.

Voilà en gros ce qu'il a dit dans un hangout vidéo (source) :

Non, cela n'a pas d'impact sur le classement. Ce n'est pas un signal de qualité si un site Web a beaucoup de pages en noindex, ceci peut être parfaitement normal. Par exemple, vous avez peut-être un site Web qui contient beaucoup de contenu privé ou qui se trouve derrière un identifiant de connexion et vous mettez tout cela sur des pages en noindex qui montrent que le formulaire de login est parfaitement correct. Un site Web peut être fantastique avec d'un côté un contenu indexable et de l’autre un contenu pour lequel vous ne voulez pas qu’il soit indexable, cela dépend totalement de vous. Cela n'aurait aucune incidence sur le type de pertinence du contenu indexable sur votre site Web.
 
Olivier Duffez (admin)
Membre du personnel
Je n'ai pas d'idée concrète, mais à mon avis pour ton site, il faut réfléchir du côté des critères qu'on nomme désormais "E-A-T". Et ça ne s'améliore pas simplement...
 
Membre Honoré
Bonjour,

Le site a des erreurs :
- Pages avec doubles redirections (liens internes)
- Amélioration des pages possibles (optimisations)
- URL des images à améliorer (Fotolia_numero_image)
- Vérifier les coquilles au niveau du référencement naturel
vous devriez auditer votre site Internet (en interne ou en externe).

Temps de réponse : 10 minutes.
Cordialement.
 
WRInaute occasionnel
Hello Pierrot,
des nouvelles (bonnes j'espère) depuis ?
J'étais dans le même cas que toi et j'ai fais un mass noindex.
J'étais bien remonté en août puis chuter fin septembre.
J'ai décidé de supprimer carrément ces pages (12000 pages sur 23000 pages...).
Très dur choix de supprimer ces heures de travail pour créer ces pages, qui au final a finit par être contre productif.
Mais ce choix, je l'ai fais pour avoir un serveur moins chargé, un temps de réponse plus rapide, une gestion plus simple de mes produits, et centrer les efforts uniquement sur les produits de qualité.
La qualité, au dessus de la quantité.
Cela fait 12 ans que je ne fais que de rajouter des produits (en masse ou petit à petit) : il était grand temps de faire le ménage.
RDV d'ici quelques semaines / mois, pour de bonnes nouvelles je l'espère.
 
WRInaute occasionnel
des nouvelles (bonnes j'espère) depuis ?
Salut,

Depuis le début de ce post mon trafic fait le yo-yo, difficile de savoir s'il s'agit de la saisonnalité et de l'information, ou simplement d'un repositionnement SEO. Il semble qu'il y ait eu d'autres updates sur la qualité générale du site, du coup moi-aussi je me lance dans une opération de nettoyage d'envergure, notamment grâce au nouvel outil de RM Tech qui permet d'identifier les pages zombie. En m'y mettant à fond je pourrais être prêt à choper une nouvelle update vers début février.
 
WRInaute accro
Je vais quand-même passer toutes mes pages en Noindex sur une catégorie "archives", puis bloquer cette catégorie dans le robots.txt. De toutes façons je ne vois rien d'autre...

La logique voudrait qu'on commence par bloquer la catégorie "archives" avant d'y mettre quoi que ce soit car google pourrait très bien visiter les pages qui y sont mises avant que le blocage soit effectif...

Ensuite je ne suis pas totalement d'accord sur ce que dit John Mueller par simple question de bon sens. Certes, avoir quelques pages en no-index ne pénalise pas, mais dans ton cas il y a plus de pages en no-index que de pages valides. Quelque chose me dérange là dedans. Ce n'est pas logique de faire un site pour ne pas le faire indexer. Du coup l'ensemble du site risque de dégringoler dans les classements car on pourrait presque se demander si les pages en "index" ne seraient pas des "no-index" oubliés vu que la majorité du site n'est pas indexable. Donc pourquoi google le classerait bien dans les résultats étant donné que la plus grande partie du site n'est pas indexable... c'est qu'il ne présente pas d'intérêt... si ?

Si ces pages n'ont effectivement pas été consultées depuis 1 an la question qu'il faut se poser n'est pas "faut-il les mettre en no-index ?" mais "pourquoi n'ont-elles pas été consultées ?".

L'idée est ensuite de chercher à les améliorer pour qu'elles soient consultées.

Si vraiment pas possible de les améliorer je préconise de les supprimer et de faire des redirections de chacune de ces pages vers une page générale d'archive qui explique que la page recherchée a été archivée et n'est plus disponible (un genre de page d'erreur 404 personnalisée mais sans le code 404). Vous en pensez quoi ?

Sinon pour info, j'ai un site d'environ la même taille et voici ce que m'annonce la search console :
Capture1.JPG
Déjà, il n'y a pas d'erreur.
Il y a bien des pages exclues mais leur nombre est inférieur au nombre de pages valides et c'est important, je pense, qu'il reste toujours inférieur.
Sinon comment fais-tu pour avoir autant de pages en erreur alors que tu les corriges tous les mois ?
 
Olivier Duffez (admin)
Membre du personnel
tout dépend à quoi correspondent les 770 pages exclues : ça peut être des pages que tu veux que Google crawle et n'indexe pas (ça devrait être très rare en effet), mais ça peut aussi être des pages que tu veux que Google INDEXE et qu'il ne souhaite pas indexer pour l'instant. Dans ce dernier cas c'est problématique.
 
WRInaute accro
Dans mon cas ce sont des pages que je voudrais voir indexées mais qui sont en duplicate content pour 500 d'entre-elles. Mais j'y travaille
 
Nouveau WRInaute
Bonjour à tous,
je suspecte à mon tour qu'une masse de pages en "no index" soit à l'origine d'une baisse importante de mon trafic depuis la mi octobre 2018 > les 2 faits sont-ils selon vous réellement corrélés ?

Le cas échéant, dans ces pages exclues j'ai identifié une grande quantité de pages de type flux (feed)
> puis-je (dois-je) les supprimer en vue de corriger mon pb de trafic ?

Merci pour votre aide
 
Olivier Duffez (admin)
Membre du personnel
la question n'est pas claire, ou disons qu'on n'a pas assez d'infos
le trafic a-t-il baissé après avoir mis une masse de pages en noindex ? si c'est le cas, peut-être que le choix des pages à désindexer a été mal fait
les flux n'ont pas à être crawlés ou indexés, mais même si ça arrivait, je doute que cela soit pénalisant pour le site
le mieux serait d'ouvrir une autre discussion en donnant l'URL et les détails
 
Nouveau WRInaute
Ok merci bcp.
Ces premiers éléments me permettent d'ores et déjà d'éliminer des hypothèses quant à mon problème de baisse de trafic et de lien éventuel avec du no index en masse.
J'écarte aussi du coup la solution d'éliminer les flux.
Je vais suivre vos conseils en ouvrant probablement une nouvelle discussion ciblée sur mon cas personnel.
Merci à vous et au plaisir de vous lire comme tjs ;)
 
Discussions similaires
Haut