My Ranking Metrics : redirection et pages inactives

WRInaute discret
J'ai fait un audit avec l'outil Ranking Metrics.

Le problème c'est qu'il me trouve 600 urls là où le site à que 200 articles (ça fait beaucoup de pages inutiles) et la majorité des problèmes sur les urls... sont des urls qui sont en 301.

Donc les pages inactives proposées sont des urls qui ne sont que des redirections.

Que dois-je faire selon vous ?

1. Laisser tomber et considérer comme nul le fait que cela soit une page inactive
2. Vérifier si la page d'atterrissage de la redirection est elle aussi inactive ?

Du coup ça fausse un peu le résultat non ?
 
Olivier Duffez (admin)
Membre du personnel
WRInaute discret
Alors ça tombe bien j'ai deux questions à ce sujet :

La première : j'avais fait un méchant robots.txt contenant tout un tas de restrictions pour ne pas indexer les urls "poubelles" à savoir les ?=machin, les tags, authors, etc... de wordpress. Notamment suite à cocon, je voulais qu'il respecte l'architecture imposée.

De ce type, et bien plus encore...

User-agent: Googlebot
Disallow: /cgi-bin
Disallow: /wp-login.php
Disallow: /wp-admin
Allow: /wp-admin/admin-ajax.php
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*.inc$
Disallow: /*.gz$
Disallow: /*.swf$
Disallow: /*.wmv$
Disallow: /*.cgi$
Disallow: /*.xhtml$
Disallow: /*?ver=all
Disallow: /*?term=all
Disallow: /*?page=all
Disallow: /*?s=all
Disallow: /cgv
Disallow: /cgv/
Disallow: /portfolio_category/
Disallow: /portfolio_category*
Disallow: /*portfolio*
Disallow: /tag/
Disallow: /*tag*
Disallow: /author/
Disallow: /*author*
Disallow: /2018/
Disallow: /*2018*
Disallow: /2017/
Disallow: /*2017*
Disallow: /team/
Disallow: /*team*
Disallow: /xmlrpc.php

Mais j'avais vu que mon site qui marchait le mieux, n'avais aucune de ces restrictions. Du coup j'ai enlevé sur bon nombres de projets, dont celui là. Donc question : trop de restriction dans le robots.txt nuit-il au référencement : google n'aime t-il pas ne pas être bloqué quand il indexe ? Ou apprécie t-il franchement l'élagage. J'ai vu que tous les sites premiers sur pas mal de domaine, on rien dans le robots.txt...

Autre question sur Ranking Metrics.

On paye au nombre d'url mais comment savoir à l'avance combien d'urls il va trouver dans le site ? Il faudrait pouvoir faire un test de son site pour savoir avant, non ?

Car entre ce que me dit Console Search, des Apis comme celle de Majestic, ou d'autres services... franchement on sait plus très bien, ça varie beaucoup.

Quel service s'en rapproche le plus ?

Merci d'avance pour d'éventuelles réponses.

PS: oui je me suis mal exprimé, avec l'audit gratuit j'ai été voir sur Analytics et effectivement j'ai ce problème d'avoir en page inactives des pages redirigées, du coup je ne savais pas quoi faire. Si votre logiciel fait ça... raison de plus pour le prendre, ok
 
Olivier Duffez (admin)
Membre du personnel
trop de restriction dans le robots.txt nuit-il au référencement : google n'aime t-il pas ne pas être bloqué quand il indexe ?
Google se fiche bien de savoir si on lui bloque des choses ou pas, beaucoup un peu passionnément...
ce qui compte c'est de laisser crawler ce qu'il faut, et de bloquer le reste si besoin
idem pour l'indexation

comment savoir à l'avance combien d'urls il va trouver dans le sit ? Il faudrait pouvoir faire un test de son site pour savoir avant, non ?
il suffit de faire un audit gratuit (sur 10.000 URL max, c'est largement assez pour la plupart)

avec l'audit gratuit j'ai été voir sur Analytics et effectivement j'ai ce problème d'avoir en page inactives des pages redirigées
je le répète : RM Tech regarde si les pages indexables sont actives ou pas. Il filtre toutes les autres, donc les URL qui sont en code 3xx (redirigées) ne sont pas étudiées à cet endroit.

vu toutes tes questions, il est clair qu'un audit complet avec couplage Analytics + Search console t'apporterait plein d'infos et de nouvelles idées d'optimisation SEO
 
WRInaute discret
Alors en fait, l'idée c'était d'acheter un paquet pour plusieurs site. Je crois que l'audit gratuit est réserve à un seul site... Quelle est la meilleure option ? J'ai beaucoup de petits sites avec 100/200 urls pas plus... Calculer l'ensemble des urls que ça peut faire avec Console Search et acheter les crédits qui vont avec le nombre ?

Google se fiche bien de savoir si on lui bloque des choses ou pas, beaucoup un peu passionnément...
ce qui compte c'est de laisser crawler ce qu'il faut, et de bloquer le reste si besoin
idem pour l'indexation


Ok, donc j'avais bien raison, en dépit de tout ce qu'on m'avait dit.

A t-on des infos sur les restrictions par pays ? Car j'ai fait une expérience sur mon site, j'ai tout bloqué à un moment pour la Bretagne géographiquement et pas dans le robots.txt (dans le htaccess), enfin à quatre département parce que rajouter la Loire-Atlantique uniquement, c'est de la recherche fondamentale, on a vraiment pas de bol.

L'article où je parle de cette technique avec GeoIP.

https://www.nantesweb.bzh/limitation-audience/

J'ai conservé l'Irlande et les USA (pour le crawl Google). Je me suis fait méchamment dégagé de la première page pour dégager en troisième et maintenant j'y bouge plus !

C'était en passant ;°)
 
WRInaute discret
Petit UP

((je suis payé pour vous dire) que l'outil My Ranking Metrics est vraiment épatant depuis que je l'ai essayé.

Plus sérieusement, après avoir fait 17 ans de onsite dans le code, ça reste une référence. Cependant j'ai des sites qui malgré de très bon score partout ne sont pas dans le top 1. Beaucoup d'autres facteurs jouent (hélas...)

Ca ne fait pas tout, mais ça reste le plus sérieux, honnêtement maintenant je ne me vois plus travailler sans un audit pour un client.

Grosse déception : après être passé à Matomo et les stats uniqument Console Search à cause du GRPD, je n'ai pas eu accès à l'outil page inactive qui ne bosse qu'avec Analytics... par contre sur deux gros sites, ça m'a permis de faire un vrai point (et surtout gros soulagement).
 
WRInaute discret
Alors je peut pas éditer mais on est d'accord que je n'ai pas été payé pour dire ça. C'était de l'humour, car je suis pas habitué à faire de la pub pour des produits ;°). Seulement entre ça et un logiciel dont je tais toujours le nom pour ne pas qu'il se répandent trop, ça reste en 18 ans les meilleurs outils que j'ai vu en terme de sérieux.
 
Discussions similaires
Haut