Le succès SEO de HomeToGo : une stratégie anti pages zombies

Olivier Duffez (admin)
Membre du personnel
Juan Gonzalez (de Sistrix) a publié un article intéressant qui décortique le succès SEO de HomeToGo, qui réussit à dépasser Airbnb. Juan utilise efficacement les outils de Sistrix pour appuyer son enquête (outils que j'utilise moi aussi dans certains cas, ils peuvent être assez puissants).

Un des principaux éléments de succès me semble être d'avoir décidé de ne faire indexer que des pages de haute qualité apportant une forte valeur ajoutée à l'utilisateur. En gros, 5k URL indexées pour 16M d'offres disponibles à la location.

L'auteur dit que ça permet d'optimiser le fameux crawl budget de Google. C'est vrai dans un sens, mais je dirais plutôt que HomeToGo a décidé de ne pas avoir à se préoccuper du crawl budget (5000 URL c'est peu), tandis que Airbnb est empêtré dedans.

Mais moi je vois plutôt l'autre effet : avec ce choix, HomeToGo ne prend aucun risque d'avoir des pages zombies (surtout que l'éditorial est soigné et bien adapté aux locales). Tandis que les zombies ont infesté le site Airbnb...

hometogo-airbnb-2019.png


Que pensez-vous :
  • de l'article ?
  • des analyses faites dans Sistrix ?
  • des stratégies de HomeToGo et de Airbnb ?
 
WRInaute accro
Merci pour ce partage.
ça reflète bien ce que je souhaite mettre en place pour mon nouveau projet.
Je vais lancer une mega-plateforme avec des services de petites annonces, une marketplace, un forum, un blog etc... et malgré tout, je vais être sélectif dans ce que je vais indexer.
A l'époque pas si lointaine où un site dynamique (php) était utile pour multiplier la création de pages et ainsi se placer sur la longue traine avec un minima de travail sur le contenu on-page. Maintenant ce n'est plus vrai.
Ma plateforme devrait générer des milliers pages par mois, tout service confondu et cependant je vais être sélectif.
 
Nouveau WRInaute
Tout à fait.
Cela étaye le fait que peu de pages (5400 pour hometogo) mais d'excellente qualité c'est mieux. Donc ciao les pages zombies qui, en plus font, dépenser du crawl budget à Google. Le but est de faciliter le travail aux moteurs de recherches et pas l'inverse ;-)

Pour Sistrix, étant partie prenante, je vous laisse découvrir l'outil.

En ce qui concerne Airbnb, je pense qu'ils sont en train de réparer plusieurs année de non stratégie SEO. Autrement, chaque responsable SEO sait que remettre les choses à plat sur un site avec des dizaines de milliers d'URL est une tâche peu aisée.
Mais avec les bonnes informations issus des bons outils on peut se rendre compte du soucis à temps pour ensuite en gagner...du temps.
 
WRInaute discret
Bonjour,
Petite question en passant :
- est-ce que le fait de mettre un meta "<meta name="googlebot" content="noindex">" suffit pour empêcher google d'indexer et de ne pas faire dépenser du crawl budget, ou faut-il absolument le faire pour tous les robots "<meta name="robots" content="noindex">" ?
 
Olivier Duffez (admin)
Membre du personnel
la noindex n'empêche pas le crawl, donc elle n'a aucun effet sur le crawl budget... ce dernier se gère par le robots.txt
 
WRInaute discret
la noindex n'empêche pas le crawl, donc elle n'a aucun effet sur le crawl budget... ce dernier se gère par le robots.txt

Merci beaucoup pour cette réponse rapide Olivier, je m'aperçois que j'ai confondu les deux et que ma stratégie n'est pas la bonne alors...
Je pensais qu'en mettant en noindex, Google ne crawlait pas l'url mais j'ai tout faux... Je vais revoir ma pratique alors, encore merci !
 
Nouveau WRInaute
Tu peux aussi doubler la technique en ajoutant du nofollow sur tes liens que tu ne veux pas voir indexer (en plus du robots.txt et du noindex)
 
Olivier Duffez (admin)
Membre du personnel
le nofollow sur un lien n'a pas d'impact sur l'indexabilité de la page recevant le lien
 
Nouveau WRInaute
Je n'ai jamais dis le contraire. Je parle bien de limiter l'accès du crawl aux bonnes pages, en plus de les bloquer via le robots.txt.
 
Olivier Duffez (admin)
Membre du personnel
ok. cela n'a aucun impact mais bon... je préfère que ce soit clair pour ceux qui nous lisent.
 
Nouveau WRInaute
Je suis assez fan de cette stratégie de suppression des pages zombies, mais j'ai 2 questions pour vous les rois de l'algo :
1. A partir de combien D’URL cette stratégie devient "efficace". Je suppose que réduire son crawl budget pour un site de 150 pages n'a pas beaucoup d'impact ?
2. Comment sélectionner les pages zombies, j'entends par la quels sont les critères pour les identifier, uniquement le trafic ?
 
Olivier Duffez (admin)
Membre du personnel
Bonjour
Désolé de le dire de façon directe, mais je crois que tu n'as pas bien compris le principe de ma méthode, au moins sur les 2 aspects les plus importants :
  1. une page zombie n'est pas une page sans trafic. Il y a pas mal d'autres critères à exploiter pour évaluer l'indice zombie d'une page. D'ailleurs, pour être plus précis, une page n'est pas "zombie" ou "non zombie", il y a plein de nuances entre les deux (mon outil calcule un indice entre 0 et 100, c'est le seul moyen sérieux d'évaluer les pages zombies)
  2. le principe n'est pas de supprimer les mauvaises pages(sans s'être trompé dans l'identification, cf. point n°1) en espérant que ça suffise. Il faut plutôt :
    • comprendre la cause du problème qui a rendu la page non performante, afin de corriger le problème à la base
    • améliorer les pages pour qu'elles passent de mauvaises à efficaces
    • créer des super bonnes pages (indice zombie 0) afin que celles-ci soient majoritaires sur le site
Dans mon explication de la stratégie de HomeToGo, j'indique qu'ils n'ont fait que des bonnes pages, même en petite quantité, pour ne pas avoir à gérer tout le reste.

J'espère que c'est plus clair pour toi. Si tu veux savoir si ton site est concerné, il est encore temps de demander un pré-audit gratuit des pages zombies.
 
Discussions similaires
Haut