Masse de pages en noindex, nouveau critère pénalisant ?

Discussion dans 'Débuter en référencement' créé par Icipierrot, 30 Septembre 2018.

  1. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Bonjour,

    Je viens de remarquer une différence de taille, entre l'ancienne et la nouvelle version de search console.

    Dans l'ancienne, les environ 670 URL en erreur 404, sont considérées comme une erreur d'exploration : http://www.screencast.com/t/VEwerUuSRvg

    Dans la nouvelle, je n'ai plus que 2 URL en 404, en revanche mes presque 380 URL en noindex, sont considérées comme une erreur d'exploration, alors qu'elles ne le sont pas dans l'ancienne version : upload_2018-9-30_15-12-56.png

    Du coup, je me demande si la masse de pages en noindex ne serait pas devenue une erreur prioritaire, plus que la masse de pages en 404 ?

    Ça expliquerait peut-être ma soudaine chute de trafic depuis la grosse mise à jour récente du 26–25 septembre. J'ai bien envie de faire passer mes pages déjà en noindex, dans une catégorie archives puis d'en bloquer l'accès depuis le fichier robots.txt. Puis de rajouter les nouvelles pages désindexaient au fur et à mesure.

    Qu'en pense la communauté ?
     
  2. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 138
    J'aime reçus:
    272
  3. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 008
    J'aime reçus:
    296
    non, je ne pense pas qu'avoir plein de pages en noindex ait un rapport avec la mise à jour du 27/09 (avis purement perso)
    ce qui n'est pas normal, c'est d'envoyer (via le sitemap) autant d'URL pourtant en noindex
    concernant les 404, si elles ne sont pas dues à des erreurs dans les liens internes (actuels ou passés), ça n'est pas un pb
     
  4. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Ce sont des pages inactives que je désindexe suite à ce topic : https://www.webrankinfo.com/forum/t...presentant-plus-dinteret.193647/#post-1579576.

    Je vais quand-même passer toutes mes pages en Noindex sur une catégorie "archives", puis bloquer cette catégorie dans le robots.txt. De toutes façons je ne vois rien d'autre...
     
    #4 Icipierrot, 1 Octobre 2018
    Dernière édition: 1 Octobre 2018
  5. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 138
    J'aime reçus:
    272
    Bonjour,

    Complément :
    Source : Google.

    Temps de réponse : 5 minutes.
    Cordialement.
     
  6. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Oui, c'est clair, et justement ces pages ont déjà été désindexées par Google. Elles sont listées sur dans la nouvelle Search Console dans [couverture/URL envoyée désignée comme "noindex"]. On peut les télécharger en csv.
     
  7. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 138
    J'aime reçus:
    272
    Bonjour,
    Au temps pour moi.

    Temps de réponse : 5 minutes.
    Cordialement.
     
  8. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    ;);););););););););););)
     
  9. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 008
    J'aime reçus:
    296
    je ne crois pas non. Il s'agit ici de la couverture de l'index, qui liste les pages exclues (de l'index). Il ne s'agit pas d'une erreur d'exploration, Google indique seulement quelles URL ne sont pas dans l'index, et nous aide à comprendre pourquoi.

    cela dit, à quoi bon conserver autant de pages en noindex sur le site ? sont-elles consultées par les internautes ?
    l'idéal serait de les améliorer, ou les regrouper. Et si ce n'est pas possible, ce n'est sans doute pas très efficace d'en conserver autant en noindex, ou alors c'est temporaire.
     
  10. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Non, pages inactives depuis 1 an. C'est ce qui m'avait pénalisé il y a 3 mois. Depuis j'ai remonté mon trafic, jusque ça replonge depuis le 27...

    Justement je me me tâte :) : vaut-il mieux les effacer ou les archiver ?
     
  11. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 008
    J'aime reçus:
    296
    il faut regarder si elles sont consultées par les internautes (même si elles ne sont pas des pages d'arrivée sur le site, en tout cas en référencement naturel) et si elles servent à quelque chose sur le site
     
  12. jolm
    jolm WRInaute occasionnel
    Inscrit:
    3 Septembre 2011
    Messages:
    270
    J'aime reçus:
    0
    @WebRankInfo : j'ai moi aussi bcp de page en noindex consultées par les internautes. Mais comme elles sont de faible "qualité" je les mets en noindex. Ex : avis sur des objets, certains sont tellement courts que je mets ces pages là en noindex. Pas bien ?
     
  13. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 008
    J'aime reçus:
    296
    pourquoi faire une page dédiée à des avis sur un objet, très courte, et pas afficher les avis sur la page de l'objet directement ?
     
  14. jolm
    jolm WRInaute occasionnel
    Inscrit:
    3 Septembre 2011
    Messages:
    270
    J'aime reçus:
    0
    Les avis peuvent être nombreux et potentiellement très longs (et l'objet en question peut se décliner en plusieurs versions, bref ce sont des bagnoles). Donc un avis court sera mis en noindex.
    Avant je faisais des pages avec plusieurs avis réunis (50 par page) mais c'était le bordel total car je les classais du plus long au plus court (normal faut récompenser les écrivains). Du coup la première page faisait 50 km de long puisque les avis les plus longs y étaient mis en premier.
    Pour revenir au sujet, j'ai pris une grosse claque (-35% sur 50 000 visites/jour à peu près) lors de Fred 2 (fin mars 2018), j'ai repris un bon boost le 1er aout (sans revenir parfaitement comme avant) et encore un début septembre (rentrée ?) qui me fit revenir comme avant fred2 quasiment.
    Et là, et c'est pourquoi je viens faire un tour ici, je me reprends une baisse qui me fait revenir comme début aout, mais il faut encore quelques jours pour y voir plus clair car c'est très frais.
     
  15. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Moi aussi je me retrouve redescendu de -25 % à -30 %, après avoir remonté début août.

    J'ai beau regarder je ne vois rien qui cloche sur mon site, j'ai pensé que justement ces près de 40 % d'articles en noindex pouvaient être un problème.

    Comme ils ont déjà été désindexés par Google, je suis en train de les réunir dans une catégorie, puis je bloquerai l'accès de cette catégorie via le fichier robots.txt. On verra bien.
     
  16. mickou51
    mickou51 WRInaute discret
    Inscrit:
    8 Janvier 2016
    Messages:
    67
    J'aime reçus:
    2
    Salut,


    Idem pour moi mon site avait bien remonté.


    Moi non plus je ne vois rien qui cloche sur mon site.

    Tu ne va pas le croire mais toutes mes pages des "Profil/membre" des utilisateurs sont toutes en noindex depuis maintenant 1 an, je soupçonnai depuis des années un problème avec toutes ses pages là.
    La question que je me posais avant la bonne remonté du mois d'aout c'était peut-être qu'il y avait encore un problème avec les profils des membres en noindex, il y a environ 120 000 profils en noindex et les urls sont de cette forme: site.com/u/<user>


    Faut t'il les mettre une bonne fois pour toute dans un sous-domaine ? (profil.site.com/<user> sans noindex)
     
    #16 mickou51, 1 Octobre 2018
    Dernière édition: 1 Octobre 2018
  17. anemone-clown
    anemone-clown WRInaute passionné
    Inscrit:
    11 Novembre 2007
    Messages:
    1 583
    J'aime reçus:
    16
    J'ai les pages des profils de membres (12000 environ) qui sont en "noindex, nofollow, noarchive" et ça n'a jamais posé le moindre souci (le noarchive peut avoir son importance).

    Si des liens internes (comme l'a évoqué Olivier) pointent vers ces pages, il ne faut surtout pas les bloquer par robots.txt!

    Selon SEMrush, il y a eu du rififi chez Google récemment (30 sept., certaines catégories de sites étant très touchées). Note perso: vu les à-coups depuis 2-3 semaines, ça "sent" la bonne mise à jour d'ici peu...
     
  18. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 138
    J'aime reçus:
    272
    Bonjour,
    Pages avec doubles redirections, amélioration des pages possibles, etc. .
    Vous pouvez créer un topic et demander des avis concernant votre site Internet.
    Pareil vous pouvez créer un topic et demander des avis concernant votre site Internet :
    https://www.webrankinfo.com/forum/f/demandes-davis-et-de-conseils-sur-vos-sites.36/ .

    Temps de réponse : 5 minutes.
    Cordialement.
     
  19. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Bonne idée, il faut commencer par enlever les liens qui pointent vers les pages en noindex, avant de les bloquer par le robots.txt. On peut identifier ces liens via la Search Console.

    As tu subi une chute de trafic depuis fin septembre ?
     
  20. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 008
    J'aime reçus:
    296
    à quoi ça sert de garder sur le site des pages qui n'ont plus de liens entrants, qui sont bloquées à l'indexation et au crawl ?
     
  21. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Hmmm, effectivement une fois tout ça balayé, ça pourrait aller à la poubelle.
     
  22. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Bon, je vais donc faire comme ceci :
    1. Identifier les liens internes pointant vers chaque page en noindex, et les enlever.
    2. Déplacer les pages en noindex vers une catégorie nommée « archives ».
    3. Bloquer l'indexation de tous les articles de la catégorie « archives », via le robot.txt.
    4. Attendre que ces fameuses pages en noindex n'apparaissent plus en erreur sur la nouvelle version de la Search Console.
    5. Les mettre dans la corbeille, ou les laisser pour montrer aux internautes que le site existe depuis longtemps.
    Et tout ceci m'amène à 2 questions :

    1- Connaissez-vous un outil WordPress pour identifier les liens internes pointant vers un article ? Et oui, ces articles en noindex ne sont plus pris en compte par Search Console, et du coup on ne peut pas l'utiliser pour identifier les liens internes. Oui je sais, c'est ballot.

    2- Pour empêcher les robots d'aller crawler les pages appartenant à une certaine catégorie, j'ajoute la mention Disallow: /category/archives ?

    Merci d'avance, cher(e)s communautaires, pour vos commentaires et suggestions toujours pertinents :).
     
  23. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 008
    J'aime reçus:
    296
    John Mueller (de Google) semble confirmer ce que je te disais plus haut, à savoir que ça ne pose pas de problèmes d'avoir plein de pages en noindex sur un site. ça ne pénalise pas les autres pages.
    Il répète que ce qui compte, ce sur quoi Google se base, c'est l'ensemble des pages qu'on laisse indexables.

    Voilà en gros ce qu'il a dit dans un hangout vidéo (source) :

    Non, cela n'a pas d'impact sur le classement. Ce n'est pas un signal de qualité si un site Web a beaucoup de pages en noindex, ceci peut être parfaitement normal. Par exemple, vous avez peut-être un site Web qui contient beaucoup de contenu privé ou qui se trouve derrière un identifiant de connexion et vous mettez tout cela sur des pages en noindex qui montrent que le formulaire de login est parfaitement correct. Un site Web peut être fantastique avec d'un côté un contenu indexable et de l’autre un contenu pour lequel vous ne voulez pas qu’il soit indexable, cela dépend totalement de vous. Cela n'aurait aucune incidence sur le type de pertinence du contenu indexable sur votre site Web.
     
  24. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Merci bcp pour ton retour. Du coup me revoilà de retour à la case départ....
     
  25. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 008
    J'aime reçus:
    296
    Je n'ai pas d'idée concrète, mais à mon avis pour ton site, il faut réfléchir du côté des critères qu'on nomme désormais "E-A-T". Et ça ne s'améliore pas simplement...
     
  26. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 138
    J'aime reçus:
    272
    Bonjour,

    Le site a des erreurs :
    - Pages avec doubles redirections (liens internes)
    - Amélioration des pages possibles (optimisations)
    - URL des images à améliorer (Fotolia_numero_image)
    - Vérifier les coquilles au niveau du référencement naturel
    vous devriez auditer votre site Internet (en interne ou en externe).

    Temps de réponse : 10 minutes.
    Cordialement.
     
  27. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Hmmm, merci pour le tuyau.
     
  28. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Je le passe dans RMTech tous les mois, je rectifie ces erreurs tous les jours. Mais y'a dû boulot !
     
  29. anthony974
    anthony974 WRInaute occasionnel
    Inscrit:
    14 Novembre 2011
    Messages:
    300
    J'aime reçus:
    0
    Hello Pierrot,
    des nouvelles (bonnes j'espère) depuis ?
    J'étais dans le même cas que toi et j'ai fais un mass noindex.
    J'étais bien remonté en août puis chuter fin septembre.
    J'ai décidé de supprimer carrément ces pages (12000 pages sur 23000 pages...).
    Très dur choix de supprimer ces heures de travail pour créer ces pages, qui au final a finit par être contre productif.
    Mais ce choix, je l'ai fais pour avoir un serveur moins chargé, un temps de réponse plus rapide, une gestion plus simple de mes produits, et centrer les efforts uniquement sur les produits de qualité.
    La qualité, au dessus de la quantité.
    Cela fait 12 ans que je ne fais que de rajouter des produits (en masse ou petit à petit) : il était grand temps de faire le ménage.
    RDV d'ici quelques semaines / mois, pour de bonnes nouvelles je l'espère.
     
  30. Icipierrot
    Icipierrot WRInaute occasionnel
    Inscrit:
    30 Octobre 2013
    Messages:
    334
    J'aime reçus:
    14
    Salut,

    Depuis le début de ce post mon trafic fait le yo-yo, difficile de savoir s'il s'agit de la saisonnalité et de l'information, ou simplement d'un repositionnement SEO. Il semble qu'il y ait eu d'autres updates sur la qualité générale du site, du coup moi-aussi je me lance dans une opération de nettoyage d'envergure, notamment grâce au nouvel outil de RM Tech qui permet d'identifier les pages zombie. En m'y mettant à fond je pourrais être prêt à choper une nouvelle update vers début février.
     
  31. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 683
    J'aime reçus:
    76
    La logique voudrait qu'on commence par bloquer la catégorie "archives" avant d'y mettre quoi que ce soit car google pourrait très bien visiter les pages qui y sont mises avant que le blocage soit effectif...

    Ensuite je ne suis pas totalement d'accord sur ce que dit John Mueller par simple question de bon sens. Certes, avoir quelques pages en no-index ne pénalise pas, mais dans ton cas il y a plus de pages en no-index que de pages valides. Quelque chose me dérange là dedans. Ce n'est pas logique de faire un site pour ne pas le faire indexer. Du coup l'ensemble du site risque de dégringoler dans les classements car on pourrait presque se demander si les pages en "index" ne seraient pas des "no-index" oubliés vu que la majorité du site n'est pas indexable. Donc pourquoi google le classerait bien dans les résultats étant donné que la plus grande partie du site n'est pas indexable... c'est qu'il ne présente pas d'intérêt... si ?

    Si ces pages n'ont effectivement pas été consultées depuis 1 an la question qu'il faut se poser n'est pas "faut-il les mettre en no-index ?" mais "pourquoi n'ont-elles pas été consultées ?".

    L'idée est ensuite de chercher à les améliorer pour qu'elles soient consultées.

    Si vraiment pas possible de les améliorer je préconise de les supprimer et de faire des redirections de chacune de ces pages vers une page générale d'archive qui explique que la page recherchée a été archivée et n'est plus disponible (un genre de page d'erreur 404 personnalisée mais sans le code 404). Vous en pensez quoi ?

    Sinon pour info, j'ai un site d'environ la même taille et voici ce que m'annonce la search console :
    Capture1.JPG
    Déjà, il n'y a pas d'erreur.
    Il y a bien des pages exclues mais leur nombre est inférieur au nombre de pages valides et c'est important, je pense, qu'il reste toujours inférieur.
    Sinon comment fais-tu pour avoir autant de pages en erreur alors que tu les corriges tous les mois ?
     
  32. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 008
    J'aime reçus:
    296
    tout dépend à quoi correspondent les 770 pages exclues : ça peut être des pages que tu veux que Google crawle et n'indexe pas (ça devrait être très rare en effet), mais ça peut aussi être des pages que tu veux que Google INDEXE et qu'il ne souhaite pas indexer pour l'instant. Dans ce dernier cas c'est problématique.
     
  33. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 683
    J'aime reçus:
    76
    Dans mon cas ce sont des pages que je voudrais voir indexées mais qui sont en duplicate content pour 500 d'entre-elles. Mais j'y travaille
     
  34. OliverOUF
    OliverOUF Nouveau WRInaute
    Inscrit:
    16 Janvier 2019
    Messages:
    2
    J'aime reçus:
    0
    Bonjour à tous,
    je suspecte à mon tour qu'une masse de pages en "no index" soit à l'origine d'une baisse importante de mon trafic depuis la mi octobre 2018 > les 2 faits sont-ils selon vous réellement corrélés ?

    Le cas échéant, dans ces pages exclues j'ai identifié une grande quantité de pages de type flux (feed)
    > puis-je (dois-je) les supprimer en vue de corriger mon pb de trafic ?

    Merci pour votre aide
     
  35. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 008
    J'aime reçus:
    296
    la question n'est pas claire, ou disons qu'on n'a pas assez d'infos
    le trafic a-t-il baissé après avoir mis une masse de pages en noindex ? si c'est le cas, peut-être que le choix des pages à désindexer a été mal fait
    les flux n'ont pas à être crawlés ou indexés, mais même si ça arrivait, je doute que cela soit pénalisant pour le site
    le mieux serait d'ouvrir une autre discussion en donnant l'URL et les détails
     
    OliverOUF apprécie ceci.
  36. OliverOUF
    OliverOUF Nouveau WRInaute
    Inscrit:
    16 Janvier 2019
    Messages:
    2
    J'aime reçus:
    0
    Ok merci bcp.
    Ces premiers éléments me permettent d'ores et déjà d'éliminer des hypothèses quant à mon problème de baisse de trafic et de lien éventuel avec du no index en masse.
    J'écarte aussi du coup la solution d'éliminer les flux.
    Je vais suivre vos conseils en ouvrant probablement une nouvelle discussion ciblée sur mon cas personnel.
    Merci à vous et au plaisir de vous lire comme tjs ;)
     
Chargement...
Similar Threads - Masse noindex nouveau Forum Date
Réglage nofollow sur des articles en masse Crawl et indexation Google, sitemaps 23 Juin 2019
Redirection 301 en masse pour booster le Quality Risk Netlinking, backlinks, liens et redirections 9 Novembre 2018
Redirection de masse code 410 Htaccess URL Rewriting et .htaccess 19 Juin 2018
Strategie de masse Adwords, des outils? AdWords 27 Juin 2017
mailing de masse Administration d'un site Web 8 Août 2016
Twitter : désinscription de masse Twitter 20 Juillet 2016
1 fiche produit/déclinaison = duplicate content en masse ? Crawl et indexation Google, sitemaps 20 Avril 2016
Suppression en masse de mauvaises url Crawl et indexation Google, sitemaps 26 Novembre 2015
Redirection 301 en masse spécifique Administration d'un site Web 22 Novembre 2015
ecommerce changement des titres en masse Débuter en référencement 15 Octobre 2015
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice