Pages zombies SEO : pourquoi et comment les traiter

Olivier Duffez (admin)
Membre du personnel
Je viens enfin de finaliser mon algo des pages zombies et j'en suis hyper content. Je ne pensais pas que ce serait aussi efficace (surtout pour des sites > 100 pages) !
Pour mieux vous expliquer mon raisonnement, je me permets un bref historique.

Début 2017, j'ai publié mon algo QualityRisk qui évalue les faiblesses SEO d'une page à part de nombreuses métriques récoltées avec un crawl. QualityRisk permet d'estimer la qualité intrinsèque d'une page, ou inversement ses risques de décevoir l'internaute, même si on ne connait pas les performances réelles de la page. C'est aussi une manière d'estimer le potentiel d'amélioration SEO d'une page.

Mi 2018, j'ai détaillé ma méthode d'analyse des pages inactives ou trop faiblement actives, en précisant la nécessité de le faire sur une longue période (1 an). L'intérêt est de mieux se rendre compte des pages qui sont performantes et de (la masse de) celles qui ne le sont pas...

Il était temps de prendre le meilleur des 2 !

Aujourd'hui, après des mois de R&D et de tests, je suis très content de sortir mon nouvel algo des "Pages Zombies". Il est vraiment très efficace, je gagne un temps dingue et repère instantanément ce qui doit impérativement être corrigé sur un site (ainsi que ce qui cartonne et qu'il faut continuer de faire).

Qu'est-ce qu'une page zombie ?
Une page zombie est une page qui non seulement cumule énormément de problèmes (et risque de décevoir l'internaute) mais aussi qui n'a pas de succès (génère pas ou très peu de visites SEO sur 1 an, est rarement consultée, rank très mal…).

Est-ce gênant pour le référencement d'avoir des pages zombies sur son site ?
Oui !

Pourquoi ? Comment les repérer ? Que faire de ces pages ?
J'explique TOUT en détails dans un dossier WebRankInfo très complet (+3000 mots)

Je donne aussi 3 retours d'expérience obtenus avec mes clients, par exemple :
pages-zombies-seo-hausse-2.png


Je montre enfin en vidéo + de 30 exemples de pages zombies trouvées par RM Tech (sites médias, ecommerce, blogs sur WordPress, Drupal, Prestashop, Magento, etc.) :

Avez-vous déjà testé quelque chose de similaire ?
Merci d'avance pour vos questions et réactions, ainsi que pour vos relais du dossier sur les réseaux sociaux !!!
 
D
D91127
Guest
Dans un article ancien, tu as pu tester qu’avec le fichier robots.txt, on empêche le crawl mais que Google pouvais l’indexer quand même.

Donc quand on créer une nouvelle page de site, qu’on le sait, par avance, non pertinente donc qu’on ne veut pas voire indexer afin d"viter qu'elle deveinne une page "zombie"

Il vaut mieux mettre une balise no-index et laisser le crawl se faire ? Car si on bloque le crawl Google risque de l’indexer, sans lire la balise no-index. Non ?

D’où ma deuxième question : Finalement si on veut vraiment ne voir pas ces pages indexées, il ne faut surtout pas utiliser le robots.txt ? Et tampis pour la notion de « budget crawl » ?
 
Olivier Duffez (admin)
Membre du personnel
avec le fichier robots.txt, on empêche le crawl mais que Google pouvais l’indexer quand même
non, pas tout à fait. J'explique dans mon article que la page n'est pas indexée mais connue de Google. Elle n'apparait dans les SERP que si on fait une requête très spéciale (du genre info:URL)

pour les URL que tu ne veux jamais voir indexées, et que Google ne doit pas non plus crawler, je conseille le blocage dans le robots.txt (à mettre avant que Google découvre ces URL).
 
WRInaute discret
Bonjour à tous,

Mon site fait partie des exemples fournis par @WebRankInfo dans sa vidéo et notamment 85% des pages de ma boutique qui ressortent en pages zombies !
J'ai été affecté par la mise à jour de l'algo de GG du 27 septembre (google birthday update), voir ici !

J'ai décidé de prendre le taureau par les cornes et donc de dépublier toutes les pages de ma boutique qui n'avaient pas reçu de visites depuis un an.

Résultat :
- 114 016 pages publiées avant grand ménage
- 18 874 pages publiées après grand ménage soit 95 142 pages dépubliées (plus de 83% nettoyé)

Maintenant, j'ai un script automatique qui permet de republier une page qui reçoit une visite organique.

A voir dans le temps si mon site va reprendre "vie" suite à ce grand ménage.
En tout cas, grand merci à l'outil RMTech de détection des pages zombie !

Je vous tiendrais au courant de la suite !
 
Olivier Duffez (admin)
Membre du personnel
Espérons que ça marche bien ! Cela dit, comme je le répète à longueur d'article et de messages, le traitement des pages zombies ne se limite surtout pas à de la suppression ou désindexation, mais aussi à l'amélioration des pages.
 
D
D91127
Guest
non, pas tout à fait. J'explique dans mon article que la page n'est pas indexée mais connue de Google. Elle n'apparait dans les SERP que si on fait une requête très spéciale (du genre info:URL)

pour les URL que tu ne veux jamais voir indexées, et que Google ne doit pas non plus crawler, je conseille le blocage dans le robots.txt (à mettre avant que Google découvre ces URL).

Yes, j'ai compris ;) Donc pour résumer :

- Page inintérésante et jamais crawl : bloquage avec robots.txt suffit.
- Page inintéréssante déjà indéxée ( et impossible à sauver) : no-index

Finalement dans quel cas particulier, on mettrais des pages pas encore crawlées et inintéréssantes, en seulement no-index ? Si cette pratique est ce fait.
 
WRInaute impliqué
Tu peux aussi mettre la page déjà indexée en 410 et la "recréer" en la bloquant par le robot.txt.
Car les pages en noindex sont quand même crawlées par Google de temps en temps et mange le budget crawl.
 
D
D91127
Guest
Tu peux aussi mettre la page déjà indexée en 410 et la "recréer" en la bloquant par le robot.txt.
Car les pages en noindex sont quand même crawlées par Google de temps en temps et mange le budget crawl.

Oui effectivement, c'est toujour bon à rappeler. Pour ma part j'utilise cette solution seulement pour les pages "masse noire" - par exemple des pages techniques page.js?*
 
WRInaute discret
Bonjour,
je vois depuis un bon moment les conseils sur la suppressions des pages à faible trafic.
Mais tous les sites ne sont pas du Ecommerce ou des articles.
Dans le cas d'un annuaire de professionnels, difficile d'améliorer le contenu et surtout, de supprimer les pages avec peu de visite.
Prenons une rubrique médecins par exemple, nous en avons 170.000 de référencés.
Il est nécessaire de tous les laisser crawler par google mais beaucoup ne sont consultés que de temps en temps.
Que faire dans ce cas ?
 
WRInaute occasionnel
Bonjour Astus,

Il faudrait peut être regrouper tes pages. Qui va faire une recherche sur un nom de médecin spécifique ?
Faire une liste de fiches de médecins par sous catégorie ou par ville me parait bien non ?
 
WRInaute impliqué
Et garder en tête que Google n'aime pas les annuaires... donc ce n'est pas son but de te faire ressortir. Il préfère afficher ses infos en position 0.
 
WRInaute discret
Bonjour,
Beaucoup de recherche par nom sur notre annuaire.
Nous avons aussi de nombreuses listes et recherches par critères ( spécialités, lieux, etc...).
La question n'est pas si google aime ou pas les annuaires, nous existons depuis plus de 14 ans.
Au niveau ergonomie, c'est un site qui est apprécié depuis longtemps car il concentre tout un tas d'informations ( c'est toujours perfectible ;) )
La question est de s'adapter au règles de référencements d'aujourd'hui.
 
Olivier Duffez (admin)
Membre du personnel
La question n'est pas si google aime ou pas les annuaires
en fait si... Google est votre 1er concurrent (avec My Business), il n'a donc pas envie de lister l'annuaire, surtout si vous n'avez pas d'infos inédites ("difficile d'améliorer le contenu")

Quels genres de pages fonctionnent (encore) très bien sur le site ?
Quels genres sont bcp moins efficaces ?
ce type d'analyse (du type zombie) aide à définir une stratégie pour savoir sur quoi investir, ce qui est le plus rentable à travailler sur le site

en complément, il faut regarder le genre de contenus que Google aime (désormais) positionner en #1 pour les requêtes stratégiques. Quelle est l'UX des pages concernées ?
est-ce aussi des annuaires ?

PS : je le répète encore (j'ai pas fini), le traitement des pages zombies ne consiste pas à supprimer celles sans trafic. Ce n'est qu'un des cas, le dernier à envisager d'ailleurs
 
WRInaute discret
Le soucis est que tous les types de pages fonctionnent:
Dr bibul machin
Endocrinologues à ville...
listes des medecins du 31xxx

Mais parmi toutes les pages de medecins, au moins 70% ne sont pratiquement pas consultées, mais c'est très variable d'un mois à l'autre.
Idem pour les listes.

Sur les requettes, on retrouve les mêmes types de site, annuaire de médecins ou autres professions.

Donc difficile de savoir quoi privilégier.

Tout ce que l'on sait avec certitude c'est les rubriques plus populaires que d'autres ( les cinema ou supermarché ne font pas autant recette que les avocats ou les banques... )
 
Olivier Duffez (admin)
Membre du personnel
je ne parlais pas de requêtes, mais de types de pages
je ne parle pas de stats sur 1 mois mais sur 1 an
bon courage !
 
WRInaute accro
en fait si... Google est votre 1er concurrent (avec My Business), il n'a donc pas envie de lister l'annuaire, surtout si vous n'avez pas d'infos inédites ("difficile d'améliorer le contenu")
Et qu'il faut composer un n° surtaxé pour avoir le n° de téléphone.
Et que le site ressemble à un site fait en 199x.
Et que la navigation n'est pas du tout adaptée aux mobiles.
[...]
 
WRInaute discret
Notre site est divisé en rubrique professionnels.
Il y a donc des pages de listes et des pages d'information sur un professionnels.
Elles sont toutes sur le même caneva.
Donc je parlais aussi de type de pages, il y a des pages finales de professionnels qui fonctionnent bien et d'autres dans le même rubrique moins bien.
Idem pour les listes.

Au niveau des stats, je parlais bien aussi sur plusieurs années.
Certains médecins peuvent être consultés beaucoup de fois pendant un mois puis plus du tous pendant quelques mois et à nouveau 6 mois plus tard par exemple.
Donc une page sans traffic aujourd'hui peut le devenir quelques mois par an.

idem pour les listes.

Donc difficile à un instant T de définir ce qui fonctionne ou pas, c'est une alternance continuelle en fonction de l'actualité, du besoin des gens, etc...

Après pour ce qui est du design et des gouts, c'est selon chacun, mais un design décallé est par expérience toujours bénéfique face à l'uniformité des wordpress et compagnie actuels, tous aussi fade les uns que les autres :)

Quand aux numéros surtaxé, absolument tous les annuaires le sont maintenant, de société à verif , en passant par les annuaire spécialisés ou non...
 
Olivier Duffez (admin)
Membre du personnel
vu qu'aucun de nos conseils n'est semble-t-il pertinent et applicable selon vous, il me reste à vous souhaiter "bonne chance pour la suite"
 
WRInaute discret
A ok, je posait juste un question simple sur les pages à faible traffic d'un annuaire et il ne me semble pas avoir eu beaucoup d'aide à ce niveau... a part d'autre considérations hors sujet.
Si on me convie gentiment de sortir soit, vous comprendrez pourquoi je n'intervient pratiquement pas depuis mon inscription de 2004.
Surtout que j'avait demandé un devis pour un audit complet du site il y a 3 ans et que la réponse a été la même, bonne continuation sans même avoir un devis pour l'audit...
Rm tech n'a que peu d’intérêt avec un site de 600.000 pages, surtout que la réponse est d'augmenter le contenu et supprimer les pages à faible traffic...
"Bonne chance pour la suite à vous aussi"...
 
WRInaute occasionnel
alors pour alimenter le débat, c'est une évidence qu'un outil automatisé n'aura pas plus d'utilité
qu'un outil automatisé qu'un outil automatisé et qu'un outil automatisé et qu'un outil automatisé.
Aussi quand schmoll ou bidule annonce un truc, il faut faire la part de choses. Déjà le gros matt cutt dit des conneries (en plus google n'ont jamais confirmé qu'il travaille bien chez eux), alors... SEO c'est un métier de bonimenteur, et c'est simple : quand un site progresse, on sort des stats gogole et toute sortes d’âneries.
Quand un site plonge : on annonce que c'est la mise à jour panda et que google pénalise les sites à pénaliser (après ca dépend ou on bosse et pour qui on bosse, si c'est dans le fromage alors google n'aime pas les sites ou il y a des images d'animaux...).
C'est note métier, et notre chance est que google brasse les serps.
Sinon ce serait la mort assurée du métier. Merci google.
On résume : page zombie, page truc, sur 50 ans ou 2 jours on s'en bat les c... et il est vrai que les visites vont rarement beaucoup plus loin que la landing page (mais bon, il faut quand même un peu de consistance, des fois sur un malentendu ca fait des clients) et aussi c'est évident que des pages qui ne servent à rien n'ont aucun intérêt (un peu comme tous ces sits bidons de digital marketing qui ne servent à rien). SEO c'est tout et son contraire. On trouve à foison le même sujet pour dire l'intérêt d la longue traine (en gros des pages de merdes sur un malentendu...)
 
Olivier Duffez (admin)
Membre du personnel
ça vole haut tout ça... Vous n'auriez pas des remarques, suggestions ou questions sur le sujet initial plutôt ?
 
WRInaute accro
ça vole haut tout ça... Vous n'auriez pas des remarques, suggestions ou questions sur le sujet initial plutôt ?
Concernant ton article il n'y a pas grand chose a dire, ca me parait tres pertinent et clair, que rajouter de plus ? Si j'avais une remarque a faire, tu le saurais...
J'ai reagi par rapport aux remarques avisées de Rollback, que meme toi n'a pas reussi a comprendre, c'est dire.... un peu d'humour ce ne peut pas faire de mal, faut se detendre....la vie est courte..
 
WRInaute occasionnel
c'est pourtant limpide.
Si on a le droit de dire qu'on est pas d'accord (a voir)
Rien n'est probant dans ces copies d'écrans, et les mêmes personnes qui annoncent que les pages zombies blabla. Annoncaient il ya quelques années en arrière que la longue traine était bénéfique blabla .
Et les pages de longue traine d'hier et les pages de zombie aujourd'hui sont les mêmes.
Toutes ces courbes ne sont pas probantes, le moindre scientifique crierait au scandale.
 
Olivier Duffez (admin)
Membre du personnel
OK pour l'humour Furtif, j'ai vu que tu aimes bien les GIF :)

rollback : il faut quoi pour qu'une courbe soit probante ? il est clair qu'on ne publie pas dans un magazine scientifique, qu'on ne peut pas tout maîtriser (loin de là), mais quand on a autant d'augmentation de trafic, on finit par se dire que la méthode fonctionne bien. Et puis c'est tout de même que du bon sens tout ça (améliorer ce qui peut l'être et qu'on n'avait pas remarqué comme étant pourri, supprimer ce qui est irrécupérable, travailler encore les meilleures pages)

<ironie>en effet, la longue traîne est une vraie arnaque à laquelle trop de gens croient encore</ironie>

au fait, n'hésite pas à ouvrir de nouvelles discussions pour dire ce qui pourrait être une bonne méthode pour le SEO

bon, tant pis, je vais attendre si jamais d'autres personnes ont des avis ou des questions sur le sujet.
 
WRInaute occasionnel
vu de "cet angle" je suis aussi de cet avis. Tant que c'est du bon sens.
Mais de mon point de vue le danger de désindexer des pages. Soyons clair : 80% des sites ont 20 pages au plus. Donc oui on pompe comme les shadocks. Pour les solutions SEO qu marchent, après 25 ans de SEO chez des "pure player" du web, dur à dire.. Moi ma grand mère disait : "on ne force pas un âne à boire"
 
WRInaute occasionnel
ou sinon, bien que c'est hors sujet : dans une certaine société, j'ai eu à travailler sur un projet multilingue avec plusieurs seo (les plus "gros" connus dans leur pays respectif) de plusieurs pays ont été appelé pour leur compétences dans leurs pays.
En fr, pas de pub, disons..; En espagne une grosse société qui je crois n'existe plus, idem au NL, au uk https://www.davidnaylor.co.uk/ . Les NL ont été a court terme les plus forts, ils avaient en magasins de très gros sites ou poser des liens et hélas des indiens en sous traitance pour créer des milliers de liens pourris. Les FR ont fait kedal, il ont fait passé leur outil à 5 sous et envoyé des courbes inutiles et des conseils bidons pour rendre des pages "réactives". Espagne, kedal. Uk, une très grosse proximité avec un site ou soit disant on ne peut pas bourrer des liens et qui booste votre classement et trafic avec à la clef des progressiosn stratosphériques

Après ce n'est pas une généralité, et c'est du cas par cas

Mais je dirai, acheter ou avoir des liens dans des gros sites de référence, améliorer de contenu comme le dirait le sujet (bien que ça c'est une évidence et c'est accessible à tout le monde, donc ne fait pas du tout la différence sur la grosse concurrence), acheter du trafic parce que le trafic amène le trafic (ce qu'on voit sur toute courbe analytics en tout genre). Donc on résume, on peut optimiser tout ce qu'on veut, pas de trafic, * 1 miliard d'optimisation restera à pas de trafic.
Pas de trafic, pas de classement (ou si du classement, sujet sans concurrence et sans intérêt commercial)
 
WRInaute occasionnel
80% des sites ont 20 pages au plus
Tu es certain de cette stat ? Dans le cas ou c'est vrai il faut penser aux 20% ;-)

Sinon même pour un site de moins de 50 pages je trouve l'outils utile. On pourrait presque le faire "à la main" mais même dans ce cas on peut oublier des trucs (un lien cassé, un titre en double, une description trop courte, ...). Autant avoir un site nikel on se donne un max de chances d'avoir du trafic SEO.

Sur un site de 10 000 pages je défis n'importe qui d'avoir 100% de pages "propres" sans utiliser d'outils.

Concernant la fonctionnalité des pages zombies (c'est le sujet initiale) je trouve ça bien. Après il y a quand même les cas des pages zombies (donc sans trafic SEO) qui font du trafic hors SEO : événementiel par exemple (publicité, partages FB, ...). Elles peuvent être encore utiles aux visiteurs et il y a souvent un moyen de les rendre SEO friendly.
 
Olivier Duffez (admin)
Membre du personnel
Après il y a quand même les cas des pages zombies (donc sans trafic SEO) qui font du trafic hors SEO
Mon indice en tient déjà compte ! L'indice zombie dépend de plein de critères, le trafic SEO généré n'est qu'un d'entre eux. ça permet justement d'éviter de classer "zombie" une page qui génère des visites via n'importe quel autre canal, ou même qui ne génère rien du tout mais qui est souvent consultée.
 
WRInaute accro
Tout d'abord merci pour tous ces articles concernant les pages Zombies.

Petite question : Est-ce que des pages mises en noindex (suite à un nettoyage) et qui ne sont plus liées aux autres par des liens deviennent elles des pages Orphelines et Zombies ?

(Certes je pourrais éventuellement les supprimer, mais ce n'est pas le propos ^^)
 
Olivier Duffez (admin)
Membre du personnel
si les pages ne sont plus indexées, alors on ne considère pas ça comme des orphelines ou zombies
en tout cas RM Tech ne se base que sur les pages indexables
 
WRInaute accro
Espérons que ça marche bien ! Cela dit, comme je le répète à longueur d'article et de messages, le traitement des pages zombies ne se limite surtout pas à de la suppression ou désindexation, mais aussi à l'amélioration des pages.

Je suis bien d'accord avec ça et j'irai même plus loin : si une page est de qualité mais si malheureusement elle ne reçoit aucune visite pendant 1 an ou même pendant 10 ans, ça ne signifie pas qu'elle ne va pas en recevoir des tonnes l'année suivante.
Imaginons que sur un site qui parle d'art je publie une page consacrée à Picasso alors qu'il n'est pas encore connu. Et quelques années après il dévient célèbre et la page devient une référence.
Donc bien sur que non qu'il ne faut pas supprimer les pages qui n'obtiennent pas de visite, sinon c'est la mort du web.
Moi je peste à chaque fois que je cherche quelque chose que j'étais certain d'avoir vu il y a quelques années mais malheureusement la page a disparu parce que sans doute elle ne recevait plus assez de visites. Du coup je suis comdamné à aller sur d'autres sites populaires qui ne donnent pas forcément l'information que je cherchais.
Supprimer une information ou même la mettre en no-index c'est une mort progressive du web où il ne restera qu'une pensée unique partagée entre quelques grands sites.

Par contre, certaines pages qui ne donnent pas d'information mais qui sont des pages techniques peuvent très bien être mises en no-index (pages de profil, etc...). Le visiteur qui est sur le site peut ainsi toujours y accéder s'il le désire. Mais elles ne ressortirons pas dans les SERP.

Ce qui devrait être considéré comme pages zombies ne devrait être que les pages techniques et surtout pas les pages informatives.
 
WRInaute impliqué
Ahh! les fameuses pages zombies, moi je pense en avoir pas mal sur mes différents sites. J'ai même des pages "introuvables" dans le sens où j'ai viré la manière de les retrouver à partir de mes menus.

Elles vivent leurs vies respectives sans que je me souvienne de leurs noms.

Parfois, j'en retrouve une à l'occasion de la consultation d'un internaute.

C'est amusant finalement. Toute page même sans importance, peut être consulté car Google voit tout. Rien ne lui échappe.

Désolé, je n'arrive pas à être aussi amusant que @rollback que j'admire.
 
Nouveau WRInaute
Bonjour,

Désirant améliorer le trafic de mon site PrestaShop B2B, j’ai fait un premier audit gratuit avec RMTech pour me donner une idée d’où je partais d’un point de vue technique. A ma grande surprise l’audit à crawlé près de 5000 pages, alors que le site en contient au maxi 700 (qui correspond au nombre de pages indexées par Google)

( chiffres à multiplier par x2 car site en FR et EN):
8 catégories
Une douzaine de produits
Une dizaine de page génériques style CGV
Un blog de 35 articles
Un forum d’environ 250 discussions.

Je voudrais lancer un audit complet (payant), mais le nombre de pages crawlables inutilement m’y dissuade, du moins dans un premier temps (cela couterait cher en points). J’ai choisi de commencer par comprendre d’où venait ce nombre astronomique d’URL vues par RMTech.

J’ai donc utilisé Xenu dans un premier temps pour lister toutes ces URLs. Cela m’a permis de comprendre que j’avais un très gros problème avec les modules de blog et surtout celui du forum, qui produisent 2 à 4 URLS différentes pour la même page (que je retrouve dans la partie « pages non indexées » du rapport de couverture de Google Search)
Suite à cela j’ai attaqué un travail correctif, à base de règles de réecriture d’URL, de disallow etc...
J’attend à présent un peu que Google voit tous ces changements pour passer à la suite...

J’en arrive à ma question... qui concerne une grosse majorité des pages du forum, et donc la majorité du volume des pages du sites. La plupart sont très courtes (une question courte d’un client sur un des produits et une réponse de quelques lignes de ma part).
Si on regarde la définition d’une page zombie, on est en plein dedans, ce type de page performe très mal d’un point de vue SEO et n’amène aucun trafic organique.
Je pourrais les supprimer, mais en pratique on ne supprime pas les pages d’un forum et d’un point de vue utilisateur, certaines ont un certain intérêt : c’est souvent les mêmes questions que l’on me pose et je sais que mes clients utilisent la recherche interne du forum pour trouver une réponse à leur question.
Il m’arrive aussi souvent moi même de faire ce type de recherche et de communiquer l’URL du post en guise de réponse aux questions que des prospects ou clients me pose par mail ou tchat (en écrivant ces lignes je réalise que les pages ainsi lues par le client sortent de la définition de zombie pure, mais, bon, c’est du très petit volume).

Bref, je voudrais garder ces pages (disons au moins 70% d’entre elles), mais les désindexer car non améliorables, afin de diminuer drastiquement mon budget crawl de Google et surtout d’arrêter de pénaliser le page rank global du site avec tant de petites pages. Pas toutes car certaines pages du forum sont au contraire assez riches avec une réponse sous forme de tuto détaillé, avec graphiques et lien vers une page produit.
Idéalement, je voudrais mettre ces pages zombies en noindex pour les sortir de l’index Google.
Mais si j’ai bien compris, noindex n’empèche pas Google de les crawler, donc ce n’est pas suffisant.

J’envisage donc une des ces deux actions en plus du noindex:
-une fois les pages déindexées, les déclarer disallow dans le robots.txt. Le pb est qu’il faut le faire à la main, une par une, et à refaire pour chaque nouveau post du forum non pertinent.
-ou bien ajouter un nofollow avec le noindex , dans tous les liens vers ces pages (chose que je peux automatiser par programmation). Mais je lis partout, y compris dans le rapport type de RMTech, que ce n’est pas une bonne idée de mettre en nofollow les liens internes (perte de jus).

J’avoue m’y perdre un peu. Que me recommanderiez vous ?

Cordialement
Franck
 
WRInaute accro
On parle d'un budget crawl quand on a un site très complet qui évolue constamment chaque jour. Ainsi, on voudrait que google ne perde pas de temps à crawler des pages inutiles mais s'intéresse aux pages importantes et découvre plus rapidement les nouvelles pages ou les modifications effectuées sur d'anciennes pages.

Quand on a un blog de 35 articles et une boutique de 12 produits je ne pense pas que les pages évoluent continuellement. Ce n'est pas comme ajouter 35 nouveaux articles par jour et publier 12 nouveaux billets dans le blog quotidiennement.

Donc le budget crawl, dans ce cas, je m'en ficherai éperdument. Et au contraire, c'est même mieux que google trouve rapidement un nouveau fil dans le forum. Ainsi il voit que le site est vivant et pas à l'abandon.

Mais peut-être n'as-tu pas tout dis et qu'il y a d'autres raisons pour toi pour privilégier un budget crawl sur certaines pages plus que d'autres
 
Olivier Duffez (admin)
Membre du personnel
Tu peux exclure le forum de l'audit et te concentrer à faire un site "parfait" sur tout le reste, qui est essentiel pour le succès de ton site.
 
Nouveau WRInaute
Merci pour vos réponses rapides.

Indigène. C’est vrai que j’ai prévu d’ajouter dans les six mois une « base de connaissance », donc une 50aines d’articles, mais ça reste léger et le budget crawl n’est pas ma priorité, ce site n’est pas un magazine en ligne ni même un vrai blog. Donc oui je peux laisser Google crawler les nouveaux articles du forum. Mais par contre il me semble important de désindexer les vieux articles sans intérêt et contenant très peu de contenu ou qui n’ont généré aucun trafic.

Ma question portait donc surtout sur la méthode à suivre pour les désindexer tout en les conservant présents sur le site. Mais j’ai depuis trouvé cette autre article d’Olivier qui je pense répond à mes questions.

Il y a juste un point sur lequel j’ai un doute :
Un Disallow dans le robots.txt empêche la page d’être crawlé. Ça ok.
Un rel=« nofollow« dans un lien empêche que la page pointée par le lien soit crawlé. OK
Mais que fait une balise meta nofollow dans le block head d’une page (avec ou sans noindex) ? Empêche t’il cette page d’être crawlée (ce qui fait que ça n’aurait pas de sens de lui adjoindre un noindex) OU empêche t’il les liens présents dans cette page d’être suivis ?

WebRankInfo : en effet, bonne suggestion, je n’avais pas vu que l’on pouvait exclure une partie complète du site de l’audit. Je vais essayer de faire cela lorsque je serais sûr que mes redirections, canonisations et disallow garantissent que le forum n’est plus accessible au travers de diverses urls différentes.

Franck
 
Olivier Duffez (admin)
Membre du personnel
il me semble important de désindexer les vieux articles sans intérêt et contenant très peu de contenu ou qui n’ont généré aucun trafic.
ce n'est qu'en dernier recours qu'il faut désindexer (ou supprimer) ces pages. Il est préférable d'essayer d'abord d'améliorer leur contenu, les compléter ou mettre à jour, ou pourquoi pas les fusionner ensemble pour en faire de meilleures pages
Un Disallow dans le robots.txt empêche la page d’être crawlé. Ça ok.
oui, généralement Google respecte ces instructions, mais ce n'est pas garanti à 100%
Un rel=« nofollow« dans un lien empêche que la page pointée par le lien soit crawlé. OK
non, ça ne garantit pas qu'elle ne soit pas crawlée. Si Google connait la page cible (par un autre lien ou une présence dans un sitemap), elle pourra être crawlée.
que fait une balise meta nofollow dans le block head d’une page
avec une balise meta nofollow, ça fait comme si tous les liens de la page étaient en nofollow. Je ne connais pas de cas où ça présente un intérêt.
 
Nouveau WRInaute
ce n'est qu'en dernier recours qu'il faut désindexer (ou supprimer) ces pages. Il est préférable d'essayer d'abord d'améliorer leur contenu, les compléter ou mettre à jour, ou pourquoi pas les fusionner ensemble pour en faire de meilleures pages

Oui j’ai bien compris le conseil, mais comme il s’agit de pages d’un forum, il n’est pas possible (éthiquement) de modifier le contenu des textes saisis par les visiteurs. Ni fusionner les discussions.
Mon idée est d’améliorer le texte de mes réponses apportées dans les discussions les plus riches et qui génèrent déjà des impressions (mais pas en page 1) et parfois quelques visites, de garder celles utiles aux visiteurs et de désindexer celles qui n’apportent rien à personne (du style signalement d’un bug résolu depuis 2 ans).
Et à l’avenir, quand une nouvelle discussion sur le forum, me semblera mériter une réponse détaillée et construite, je ferai un nouvel article dans la base de connaissance du site (en cours de construction) et donnerai un lien depuis ma réponse dans le forum, vers cet article. J’optimiserai le référencement de l’article et le forum sera la juste pour ajouter du maillage interne (à condition bien sur de ne pas désindexer ce type de discussion).
Si le site était un e-commerce de milliers de produits, je ne me prendrais pas trop la tête avec ce forum, mais ici, pour un site d’une dizaine de produits (dont seulement 2 produits vraiment stratégiques), le poids SEO de ces centaines de discussions très courtes du forum, sans liens, est très pénalisant, d’ou l’envie de les traiter comme de la matière noire et de les désindexer. Mais ce sera fait une par une, après relecture, étude des backling, des visites de ces pages etc...pas de manière automatique.

avec une balise meta nofollow, ça fait comme si tous les liens de la page étaient en nofollow. Je ne connais pas de cas où ça présente un intérêt.

Merci pour cette clarification, naïvement je croyais que c’était équivalent à un disallow de la page.
Sur certains blogs spécialisés Prestashop, on trouve des scripts pour ajouter ce type de balise dans le Head des pages du type CGV, About us etc... Intérêt limité donc.
 
WRInaute accro
Bonjour

C'est vrai que le contenu est important et fait la différence par rapport aux page zombies.

En ce qui concerne les pages peu visitées, ( dans mon cas ), ce sont des page anciennes qui n'intéressent plus personne.

La correspondance entre page peu visitées, et la visibilité globale du site, pourrait venir de l'algorithme de Google, privilégiant l'intérêt du visiteur pour le site ?

Donc, conclusion : Dans un site avec infos récentes seules intéressantes, ce serait toujours adapté du point de vue SEO ), de supprimer les pages anciennes ?

Du moins, les pages anciennes ( < 5ans ) n'ayant plus d'effet sur les statistiques de courses.

Pour le reste( amélioration du contenu ), ce serait relativement indépendant comme technique SEO, en cherchant aussi l'optimisation de la fréquentation.

Merci beaucoup de vos avis.

Amicalement.
 
Olivier Duffez (admin)
Membre du personnel
Si le seul problème de ces pages est qu'elles sont anciennes et n'intéressent plus personne, je ne pense pas que leur suppression fasse forcément remonter le référencement du site. Cela dit, je me demande dans ce cas pour quelle raison elles sont conservées sur le site.
 
Discussions similaires
Haut