Dresser un état de santé SEO d'un site + une feuille de route

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
❓ Qu'attendez-vous d'un outil SEO qui fait un audit de votre site ? (crawl)
Je suppose que ça va + loin que de savoir combien de pages ont un pb de TITLE ou de profondeur :)

Ce genre de "data" c'est la base, mais ce n'est pas assez exploitable (actionable pour nos amis anglophones). Est-ce assez grave pour devoir vous en préoccuper tout de suite, ou faut-il faire d'autres choses plus stratégiques ?

Si vous utilisez déjà un outil, une fois qu'il a fini de tourner, est-ce que vous pouvez :

⌛️ en 30s : vous faire une idée de l'état de santé SEO du site. Un peu comme les fameux TF, CF, ou DA des outils d'analyse de BL

⌛️ en 2mn : avoir une vision d'ensemble de l'optimisation technique des pages et de leur efficacité SEO (performances). Y a-t-il surtout des pages pourries ? ou excellentes ? ou combien entre les 2 ?

⌛️ en 5mn (vraiment) : savoir par quoi vous allez commencer pour améliorer votre #SEO de façon la plus EFFICACE (temps passé / résultats)

C'est exactement ce que vous pouvez faire avec la nouvelle synthèse que j'ai conçue avec Fabien Facériès, incluse dans chaque rapport d'audit RM Tech.

Regardez cette vidéo et dites-moi ce que vous en pensez !

PS : si vous voulez ce rapport pour le site de votre choix, je peux vous offrir un pré-audit RM Tech complet (sans annexes pour cette version gratuite)

 

passion

WRInaute accro
Merci pour le partage de cette vidéo mais je suis perplexe sur l'efficacité de tes points de référence.
  1. ANALYTICS : Si le site est jeune, il ne va pas avoir beaucoup de BL, de poids dans les SERPS donc ses stats seront légères. Difficile de se positionner sur un jeune site qui n'a pas un trafic régulier.
  2. CONSOLE SEARCH : nous savons que la CSG est très en retard sur l'état actuel d'un site. Nous pouvons faire des optimisations d'une page, corriger des anomalies de crawls, etc... mais que ces modifs prendront plusieurs mois avant qu'elles soient pris en compte. Donc faire des exports de ces résultats à l'instant T ne sera jamais représentatif du vrai état du site. Donc tes indices seront faussés à la base et en découlera une conclusion erronée.
Il faudrait alors stopper l'optimisation de pages pour que la CSG puisse faire ses maj et 6 mois plus tard, faire ton audit. Là, on serait plus proche de la réalité avec la CSG.
 

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
pour analytics tu as raison, mais ça concerne que certains sites.

pour search console, je ne vois pas du tout ce grand retard dont tu parles. Mais il n'a aucun impact sur mon audit puisque je ne me base pas sur les données du rapport de couverture.

et pour les autres aspects de la synthèse d'un audit, tu en penses quoi ? par exemple le graphique en forme de radard, ou l'entonnoir ?
 

mickou51

WRInaute discret
J'ai écouté/regardé les 18 minutes de la vidéo, c'est vraiment bien expliqué.

Mais moi j'ai un gros problème avec le RM Tech, là j'ai pas de crédit mais quand j'en ai j'ai les problèmes suivants :

1) j'ai jamais réussi à faire fonctionner le système "Page zombie", quand je le coche, ça ne fonctionne pas, c'est en échec, du coup parfois quand j'ai du crédit alors je ne coche jamais cette option.

2) Je scanne aussi uniquement par URL individuelle car si je scanne tout le site ça va me plomber tous les crédits et je pourrais plus recommencer. Du coup je m'arrange pour toujours prendre des crédits quand ils sont en promo pour doubler les crédits. Et ce qui est dommage c'est que depuis 2 semaines j'attendais que ça une promo qui double les crédits et là il y'en a une de promo mais cette promo est différente des anciennes puisque il faut une démarche avec linkedin

ca fait plus d'un an que j'ai pas acheté de crédit, il faudrait pour que ça m'aide à me redonner des nouvelles idées.
 

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
j'ai jamais réussi à faire fonctionner le système "Page zombie", quand je le coche, ça ne fonctionne pas
il n'y a pas à cocher quoi que ce soit pour zombies. Tu dois sans doute avoir des problèmes avec Google Analytics ou Search Console. Demande au support (en indiquant l'URL du dernier audit RM Tech), on va étudier ça.

Je scanne aussi uniquement par URL individuelle
c'est vraiment dommage, car tu n'as qu'une vue vraiment très partielle des éléments SEO. Contacte le support concernant le code promo, on va faire quelque chose ;-)
 

passion

WRInaute accro
C'est vrai
Je suis du même avis que @mickou51
Je ne doute pas de l'efficacité de ton outil. Tu te places comme expert dans ton domaine et c'est mérité donc ton outil sera aussi performant.
Malheureusement, c'est ce qui m'a toujours empêché de franchir le pas c'est qu'il manque des filtres ou c'est peut-être moi, mal regardé.
Ton outil répondrait aussi bien au besoin d'un débutant qu'un expert.

On devrait pouvoir filtrer des répertoires comme un fichier robot de façon, à analyser QUE ce qui est nécessaire.

Si je prends 5K urls, je ne veux pas que 50% de mes crédits soient utilisés à scanner des images sans intérêt pour mon audit.
Il en est de même pour des répertoires et/ou urls volontairement mis en noindex.
Je ne veux pas qu'il passe dessus. Si c'est en noindex, c'est parce que je sais déjà que ces pages sont sans intérêt. Donc encore une fois, je veux un audit QUE sur ce qui est réellement important pour moi.
On ne perdrait pas inutilement des crédits. Ton outil serait vraiment indispensable car pointu.
Il faudrait évidemment que les urls non scannées car exclues, ne soient pas comptabilisées et qu'elles n'influencent pas négativement le rapport.

C'est mon avis mais peut-être qu'il est déjà comme ça ;)
 

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
On devrait pouvoir filtrer des répertoires
c'est possible, tu peux exclure du crawl les URL d'un ou plusieurs répertoires

je ne veux pas que 50% de mes crédits soient utilisés à scanner des images
par défaut, les URL d'images ne sont pas crawlées (donc non comptées dans les crédits)

Il faudrait évidemment que les urls non scannées car exclues, ne soient pas comptabilisées et qu'elles n'influencent pas négativement le rapport.
les URL interdites de crawl (par le fichier robots.txt ou des directives imposées au lancement de l'outil) ne sont pas comptées dans les crédits
les URL crawlées mais non indexables ont très peu d'impact sur la note.

J'espère que ça répond à tes/vos questions !
 

passion

WRInaute accro
@WebRankInfo merci pour ces infos.
Je suis intéressé mais j'attendrai une offre promo sans passer par linkedin. Je ne suis pas sur ce réseau social donc peut pas en bénéficier.
Je serai intéressé par la formule "découverte" mais une partie que je ne comprends pas ?!
Chaque offre Découverte permet de faire un audit RM Tech (sans l’analyse des images) une seule fois (donc sur un seul site), dans la limite du nombre maximum d'URL de votre formule
Ex: J'ai bien compris que l'audit concerne 1 seul site. Si j'achète 500cr en définitif l'audit a été réalisé sur 250 urls, en conclusion j'ai perdu 50% des crédits ? Car c'est 1 seul audit ? Le reste des crédits n'est pas conservés même si le restant aurait servi à faire un audit sur le même site ?
 

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
oui c'est ça. On ne peut pas faire une tarification à l'URL près et l'offre découverte sert à faire un seul audit.
 

mickou51

WRInaute discret
il n'y a pas à cocher quoi que ce soit pour zombies. Tu dois sans doute avoir des problèmes avec Google Analytics ou Search Console. Demande au support (en indiquant l'URL du dernier audit RM Tech), on va étudier ça.


c'est vraiment dommage, car tu n'as qu'une vue vraiment très partielle des éléments SEO. Contacte le support concernant le code promo, on va faire quelque chose ;-)

J'utilises Matomo (anciennement Piwik). J'ai jamais installé Google Analytics sur les deux sites que j'aimerais scanner. Ils sont bien inscrits sur la GSC mais pas sur GA.

Il y a pas d'autre solution ?

Pour ne pas dépendre de Google Analytics, il faudrait inventer un code php/curl et on le met sur toutes les pages et plus besoin de Google Analytics. J'essaie d'éviter Google Analytics sur plusieurs sites et même sur les nouveaux sites car j'ai 105 sites (sous-domaines compris) et j'veux pas montrer à Google que tout appartient au même propriétaire avec le même numéro Analytics.

PS: j'ai bien fait la demande du code promo que j'ai bien reçu
 
Dernière édition:

Discussions similaires

Haut