Repérer et traiter les pages orphelines (référencement)

Discussion dans 'Techniques avancées de référencement' créé par WebRankInfo, 21 Février 2019.

  1. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 989
    J'aime reçus:
    293
    Il arrive souvent que des pages d'un site deviennent orphelines, c'est-à-dire qu'il n'existe plus aucun lien interne permettant d'y accéder, même si les pages elles-mêmes sont encore en place, consultables.

    Il y a clairement 2 cas de figure :
    1. des pages de qualité dont le référencement compte et qui devraient être "optimisées"
    2. des pages pourries qu'on pensait avoir supprimées, ou qui n'auraient jamais dû exister (masse noire)
    Pour savoir si vous en avez, le plus classique (qu'il faut forcément faire au moins 1 fois) est de croiser un crawl du site (suivi des liens) avec un sitemap exhaustif. Après avoir retenu que les pages indexables, on obtient par "soustraction" la liste des pages orphelines du site via le sitemap.

    Je l'explique mieux dans mon article sur les pages orphelines.

    Une méthode astucieuse permet d'en identifier encore bien plus, éventuellement sans même avoir besoin d'un sitemap exhaustif. Et surtout sans avoir besoin d'un accès aux logs (c'est parfois compliqué de les récupérer, et souvent très difficile quand on veut le faire sur 1 an comme j'en ai l'habitude).
    Il faut récupérer les URL ayant eu un minimum de succès SEO dans le passé, par exemple des pages ayant généré des visites en organic selon Google Analytics, ou des pages ayant été vues dans les SERP selon Google Search Console. Après avoir retenu que les pages indexables, et suppression des doublons, on obtient par "soustraction" la liste des pages orphelines du site via Analytics/Search Console.

    Une fois que vous avez votre liste de pages orphelines, il faut les traiter :
    • pour les pages de qualité : il suffit de leur refaire des bons liens internes, via un maillage sémantique intelligent, pour leur redonner un coup de fouet. Je l'ai testé pour un client avec des fiches produits (qu'il vend !), ce fut extrêmement efficace. Ces fiches produits orphelines sont plus nombreuses que vous ne le pensez sans doute : dans son cas c'était 9% des URL de son site.
    • pour les pages "pourries" : à moins qu'il soit possible de les améliorer, il faut les désindexer et supprimer (comme les mauvaises pages zombies).
    Si vous pensez qu'il ne peut pas y avoir de pages orphelines sur votre site, faites au moins un test avec les outils de votre choix. Comme vous l'avez deviné, mon outil RM Sitemaps (plateforme My Ranking Metrics) fait ça de A à Z. Il vous suffit d'un clic !

    En fait, une page peut être orpheline malgré la présence de liens vers elle sur le site : il suffit que ces liens ne soient pas visibles de Google. Il y a pas mal de raisons qui pourraient l'expliquer, qu'il s'agisse d'erreurs humaines ou d'effets de bord techniques (pagination, liens nofollow, URL bloquées au crawl, mauvaises redirections, etc.).

    Je suis curieux de vous lire : racontez si vous avez déjà cherché ces pages orphelines, ce que vous avez trouvé, ce que ça a changé de corriger le pb, vos difficultés à identifier ces pages, etc.

    [​IMG]
     
  2. Jeanne5
    Jeanne5 WRInaute occasionnel
    Inscrit:
    4 Juillet 2013
    Messages:
    402
    J'aime reçus:
    21
    En tout cas j'adore les illustrations, après les images de petits zombies ;) (qui ont disparu de l'article....)
     
  3. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 989
    J'aime reçus:
    293
    les zombies n'ont pas disparu, ici c'est un nouvel article
    mais oui, je suis passé aux doudous nounours :)
     
  4. zikeur54
    zikeur54 WRInaute impliqué
    Inscrit:
    15 Juin 2010
    Messages:
    581
    J'aime reçus:
    35
    Mince, j'avais parlé de ça hier en me trompant de terme. J'avais répondu à ton post des "pages zombies" avec un peu d'humour alors que ce que je voulais dire concernait mes " pages orphelines".
    Il faut que je me souvienne de ce terme.
     
  5. michaeljack
    michaeljack WRInaute discret
    Inscrit:
    14 Juin 2004
    Messages:
    140
    J'aime reçus:
    1
    Je vais avancer là-dessus, c'est un de mes chantiers ;)
    Y'a autre chose que je vais tester aussi : le cahngement de titre et l'amélioration d'articles anciens et moyennement bien positionnés sur GG.
     
  6. Jeanne5
    Jeanne5 WRInaute occasionnel
    Inscrit:
    4 Juillet 2013
    Messages:
    402
    J'aime reçus:
    21
    J'avais l'impression que tu avais supprimé l'image des petits zombies de l'article précédent pour la remplacer par le sécateur ?
     
  7. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 989
    J'aime reçus:
    293
    ah ok, en effet j'ai modifié l'image quand j'ai ajouté des explications sur le content pruning
     
  8. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 682
    J'aime reçus:
    76
    Très souvent, un simple changement de title force google à réindexer complètement la page, à la repasser à la moulinette. Pour une page qui est bien positionnée ça peut être catastrophique. Je l'ai expérimenté avec l'une de mes meilleure page qui m'apportait le plus de visites mais qui avait un title extrêmement court. En croyant bien faire et en allongeant le title la page s'est retrouvée en page 40 des résultats. Ca a duré plusieurs mois. Jusqu'à ce que finalement je remette l'ancien titre avec une nouvelle url.

    Mais en cas d'amélioration d'article il peut donc être très judicieux de changer également le title pour forcer la prise en compte des améliorations. Sinon les améliorations vont peut-être être considérées comme de simples commentaires de blog qui ne changent pas foncièrement le contenu de la page et ça peut mettre des mois (ou même des années) pour être correctement pris en compte par les algos de google comme faisant partie du contenu.

    Je pense que google a plusieurs indicateurs pour déterminer si une page doit être repassée à la moulinette. Le changement de title en est un. Un gros changement dans le contenu peut en être un autre (par exemple passer de 200 mots à 1000 mots), ou un gros changement dans la sémantique (les mots les plus utilisés dans la page n'ont plus aucun rapport avec ceux qui étaient utilisés dans la première version).

    Si l'article est bien positionné, il faut parfois procéder par petites touches. Si par exemple on doit ajouter 3 paragraphes il est peut-être plus judicieux de les ajouter en raison de un par mois au lieu de tous les trois en même temps. Ainsi on évite un repassage à la moulinette qui peut être catastrophique et faire perdre le bon positionnement qu'on avait. Il faut être plus malin que google.

    Et si vraiment on a de gros gros changements à faire sur une page il peut aussi être intéressant de créer une nouvelle url et à terme supprimer la première après quelque mois. Ainsi on est certain que la moulinette google prend en compte tout le nouveau contenu et qu'on ne va pas se trainer des choses qui viennent de l'ancienne page mal positionnée. Car il doit exister plusieurs "moulinettes" qui ont toutes un objectif différent et qui ont une fréquence différente. Pour une nouvelle page, en quelques semaines, tous les filtres passeront dessus. Alors que pour une ancienne page mise à jour certains filtres ne repasseront qu'au bout de quelques mois, voir un an.
     
  9. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 989
    J'aime reçus:
    293
    Je conseille rarement que le seul changement soit une modif de la balise title.
    Je suis un peu étonné du conseil "Si par exemple on doit ajouter 3 paragraphes il est peut-être plus judicieux de les ajouter en raison de un par mois au lieu de tous les trois en même temps."
    Si ces 3 paragraphes apportent une vraie valeur ajoutée à l'internaute, je ne comprends pas qu'on mette 3 mois à les ajouter ?
     
  10. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 682
    J'aime reçus:
    76
    pour éviter que google le perçoive comme un énorme changement et repasse à la moulinette la totalité de la page qui perde ainsi son positionnement initial. En y allant par petites touches ça ne réveille pas le monstre
     
  11. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 989
    J'aime reçus:
    293
    3§ c'est un énorme changement ? je suis un peu surpris
    par ailleurs, en te lisant, on a l'impression que tu fais en fonction de Google uniquement. Si ces 3§ sont un vrai + pour l'internaute, autant le faire directement.
     
  12. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 682
    J'aime reçus:
    76
    Non, je ne fais pas du tout "en fonction de google" mais en fonction du "bon sens".

    Si une page est très bien positionnée et que je dois y ajouter des informations importantes pour l'internaute je vais y aller avec des pincettes pour ne pas que s'écroule le positionnement tant recherché. C'est une simple règle de bon sens.

    Et google me donne raison car j'ai l'impression qu'il cherche à appliquer le "bon sens" dans la programmation de son algorithme. Du moins le même "bon sens" que celui que j'ai.

    Il faut dire aussi que tu as l'habitude de travailler sur des sites très très volumineux avec des dizaines de milliers de pages. Si un article perd en positionnement ça ne sera sans doute pas catastrophique étant donné le volume de requêtes. Mais essaye de te mettre à la place de quelqu'un qui développe un site de 100 pages où un article peut représenter à lui seul 10% du trafic. Si le positionnement de cet article s'écroule c'est 10% du trafic qui s'écroule. Donc le bon sens et la raison dicte de ne pas trop y toucher violemment pour éviter ce genre de désagréments. Ce n'est pas "faire en fonction de google", c'est "agir en fonction de sa propre situation". Dans un cas comme celui-là j'aurai une préférence pour publier un nouvel article avec ces trois paragraphes et simplement ajouter un lien depuis le premier.

    Mais c'est certain que pour un article qui ne ranke pas on peut faire ce qu'on veut. On ne prend pas énormément de risque et ça ne peut être que profitable.
     
  13. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 989
    J'aime reçus:
    293
    ah bon ?
     
  14. rollback
    rollback WRInaute occasionnel
    Inscrit:
    5 Novembre 2018
    Messages:
    448
    J'aime reçus:
    45
    on est bien d'accord que tout ça reste du cas par cas. Par contre j'ai eu il y a 2 ou 3 années déjà en arrière un système ou on créait des urls et des pages à partir de flux de news. Rien d'anormal, c'est courant dans tout ce qui touche à l'information "live" sur un sujet. C'est dans ce secteur que j'ai vu le records de gogole, des pages postées et 7 minutes plus tard dans l'index des recherches de google (on peut le tester, dans les options de rechere : prendre moins d'une heure). Le record du système que j'avais dans les mains : 7 minutes.
    Donc effectivement, rapidement des milliers de pages. A l'époque en tous cas, ce qu'on voyait c'est que le nombre moyen de pages indexées ne changeait pas. Les "vieilles pages " disparaissaient.
    Pour optimiser, parce qu'on ne voulait plus malgré tout des vieilles news sans intérêt pour le secteur d'activité, au début on testé des redirection et après, le plus efficace, on a simplement virer les pages (de toutes façons elel généraient plus de trafic et n'avait plus d'intérêt).

    et c'est très facile (très cher) si on est très frais de faire passer le bot toutes les 4 minutes

    https://www.google.com/search?client=firefox-b-d&biw=1418&bih=811&tbs=qdr:h&ei=R5N5XIqeAYbIaKWuimA&q=usd+to+eur&oq=usd+to+eur&gs_l=psy-ab.12...0.0..11519...0.0..0.0.0.......0......gws-wiz.TI6fAgHvEYU

    mais la fraicheur, la vraie fraicheur (de l'info) coute très très très cher
     
Chargement...
Similar Threads - Repérer traiter orphelines Forum Date
Repérer d'où vient le trafic provenant de Facebook Facebook 17 Septembre 2015
Repérer les "copieurs/pompeurs" Google Analytics 26 Avril 2014
Repérer le contenu dupliqué. et ensuite ? Débuter en référencement 2 Avril 2014
Comment repérer les e-mails "inexistants" ou "mal écris" dans une liste ? Développement d'un site Web ou d'une appli mobile 7 Janvier 2013
Repérer les mauvais backlinks Débuter en référencement 2 Juillet 2012
Repérer les visites provenant du référencement naturel sous analytics Débuter en référencement 9 Mai 2012
Peut-on repérer la valeur des ancres des backlinks ? Netlinking, backlinks, liens et redirections 28 Octobre 2010
Existe il un outil pour repérer les erreurs 404 d'un site? Débuter en référencement 16 Août 2010
Comment traiter des pages profils peu fournies ? Crawl et indexation Google, sitemaps 30 Janvier 2019
Pages zombies SEO : pourquoi et comment les traiter Techniques avancées de référencement 5 Décembre 2018
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice