My Ranking Metrics : redirection et pages inactives

Discussion dans 'Netlinking, backlinks, liens et redirections' créé par nantesweb, 3 Juillet 2018.

  1. nantesweb
    nantesweb WRInaute discret
    Inscrit:
    18 Octobre 2016
    Messages:
    85
    J'aime reçus:
    9
    J'ai fait un audit avec l'outil Ranking Metrics.

    Le problème c'est qu'il me trouve 600 urls là où le site à que 200 articles (ça fait beaucoup de pages inutiles) et la majorité des problèmes sur les urls... sont des urls qui sont en 301.

    Donc les pages inactives proposées sont des urls qui ne sont que des redirections.

    Que dois-je faire selon vous ?

    1. Laisser tomber et considérer comme nul le fait que cela soit une page inactive
    2. Vérifier si la page d'atterrissage de la redirection est elle aussi inactive ?

    Du coup ça fausse un peu le résultat non ?
     
  2. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 820
    J'aime reçus:
    262
    le site a donc de la masse noire, il pourrait être plus efficace avec un petit nettoyage des liens internes
    non, ce n'est pas possible, les pages inactives sont calculées uniquement sur les pages indexables (donc code 200)
     
  3. nantesweb
    nantesweb WRInaute discret
    Inscrit:
    18 Octobre 2016
    Messages:
    85
    J'aime reçus:
    9
    Alors ça tombe bien j'ai deux questions à ce sujet :

    La première : j'avais fait un méchant robots.txt contenant tout un tas de restrictions pour ne pas indexer les urls "poubelles" à savoir les ?=machin, les tags, authors, etc... de wordpress. Notamment suite à cocon, je voulais qu'il respecte l'architecture imposée.

    De ce type, et bien plus encore...

    User-agent: Googlebot
    Disallow: /cgi-bin
    Disallow: /wp-login.php
    Disallow: /wp-admin
    Allow: /wp-admin/admin-ajax.php
    Disallow: */trackback
    Disallow: */feed
    Disallow: */comments
    Disallow: /*.inc$
    Disallow: /*.gz$
    Disallow: /*.swf$
    Disallow: /*.wmv$
    Disallow: /*.cgi$
    Disallow: /*.xhtml$
    Disallow: /*?ver=all
    Disallow: /*?term=all
    Disallow: /*?page=all
    Disallow: /*?s=all
    Disallow: /cgv
    Disallow: /cgv/
    Disallow: /portfolio_category/
    Disallow: /portfolio_category*
    Disallow: /*portfolio*
    Disallow: /tag/
    Disallow: /*tag*
    Disallow: /author/
    Disallow: /*author*
    Disallow: /2018/
    Disallow: /*2018*
    Disallow: /2017/
    Disallow: /*2017*
    Disallow: /team/
    Disallow: /*team*
    Disallow: /xmlrpc.php

    Mais j'avais vu que mon site qui marchait le mieux, n'avais aucune de ces restrictions. Du coup j'ai enlevé sur bon nombres de projets, dont celui là. Donc question : trop de restriction dans le robots.txt nuit-il au référencement : google n'aime t-il pas ne pas être bloqué quand il indexe ? Ou apprécie t-il franchement l'élagage. J'ai vu que tous les sites premiers sur pas mal de domaine, on rien dans le robots.txt...

    Autre question sur Ranking Metrics.

    On paye au nombre d'url mais comment savoir à l'avance combien d'urls il va trouver dans le site ? Il faudrait pouvoir faire un test de son site pour savoir avant, non ?

    Car entre ce que me dit Console Search, des Apis comme celle de Majestic, ou d'autres services... franchement on sait plus très bien, ça varie beaucoup.

    Quel service s'en rapproche le plus ?

    Merci d'avance pour d'éventuelles réponses.

    PS: oui je me suis mal exprimé, avec l'audit gratuit j'ai été voir sur Analytics et effectivement j'ai ce problème d'avoir en page inactives des pages redirigées, du coup je ne savais pas quoi faire. Si votre logiciel fait ça... raison de plus pour le prendre, ok
     
  4. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 820
    J'aime reçus:
    262
    Google se fiche bien de savoir si on lui bloque des choses ou pas, beaucoup un peu passionnément...
    ce qui compte c'est de laisser crawler ce qu'il faut, et de bloquer le reste si besoin
    idem pour l'indexation

    il suffit de faire un audit gratuit (sur 10.000 URL max, c'est largement assez pour la plupart)

    je le répète : RM Tech regarde si les pages indexables sont actives ou pas. Il filtre toutes les autres, donc les URL qui sont en code 3xx (redirigées) ne sont pas étudiées à cet endroit.

    vu toutes tes questions, il est clair qu'un audit complet avec couplage Analytics + Search console t'apporterait plein d'infos et de nouvelles idées d'optimisation SEO
     
  5. nantesweb
    nantesweb WRInaute discret
    Inscrit:
    18 Octobre 2016
    Messages:
    85
    J'aime reçus:
    9
    Alors en fait, l'idée c'était d'acheter un paquet pour plusieurs site. Je crois que l'audit gratuit est réserve à un seul site... Quelle est la meilleure option ? J'ai beaucoup de petits sites avec 100/200 urls pas plus... Calculer l'ensemble des urls que ça peut faire avec Console Search et acheter les crédits qui vont avec le nombre ?

    Google se fiche bien de savoir si on lui bloque des choses ou pas, beaucoup un peu passionnément...
    ce qui compte c'est de laisser crawler ce qu'il faut, et de bloquer le reste si besoin
    idem pour l'indexation


    Ok, donc j'avais bien raison, en dépit de tout ce qu'on m'avait dit.

    A t-on des infos sur les restrictions par pays ? Car j'ai fait une expérience sur mon site, j'ai tout bloqué à un moment pour la Bretagne géographiquement et pas dans le robots.txt (dans le htaccess), enfin à quatre département parce que rajouter la Loire-Atlantique uniquement, c'est de la recherche fondamentale, on a vraiment pas de bol.

    L'article où je parle de cette technique avec GeoIP.

    https://www.nantesweb.bzh/limitation-audience/

    J'ai conservé l'Irlande et les USA (pour le crawl Google). Je me suis fait méchamment dégagé de la première page pour dégager en troisième et maintenant j'y bouge plus !

    C'était en passant ;°)
     
  6. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 820
    J'aime reçus:
    262
    indique-nous sur https://myrankingmetrics.com/contact combien ça représente à la louche de sites et nous te dirons ce qui est le plus adapté
     
  7. nantesweb
    nantesweb WRInaute discret
    Inscrit:
    18 Octobre 2016
    Messages:
    85
    J'aime reçus:
    9
    Ok c'est fait merci, t'emballe pas ça reste modeste.
     
  8. nantesweb
    nantesweb WRInaute discret
    Inscrit:
    18 Octobre 2016
    Messages:
    85
    J'aime reçus:
    9
    Petit UP

    ((je suis payé pour vous dire) que l'outil My Ranking Metrics est vraiment épatant depuis que je l'ai essayé.

    Plus sérieusement, après avoir fait 17 ans de onsite dans le code, ça reste une référence. Cependant j'ai des sites qui malgré de très bon score partout ne sont pas dans le top 1. Beaucoup d'autres facteurs jouent (hélas...)

    Ca ne fait pas tout, mais ça reste le plus sérieux, honnêtement maintenant je ne me vois plus travailler sans un audit pour un client.

    Grosse déception : après être passé à Matomo et les stats uniqument Console Search à cause du GRPD, je n'ai pas eu accès à l'outil page inactive qui ne bosse qu'avec Analytics... par contre sur deux gros sites, ça m'a permis de faire un vrai point (et surtout gros soulagement).
     
  9. nantesweb
    nantesweb WRInaute discret
    Inscrit:
    18 Octobre 2016
    Messages:
    85
    J'aime reçus:
    9
    Alors je peut pas éditer mais on est d'accord que je n'ai pas été payé pour dire ça. C'était de l'humour, car je suis pas habitué à faire de la pub pour des produits ;°). Seulement entre ça et un logiciel dont je tais toujours le nom pour ne pas qu'il se répandent trop, ça reste en 18 ans les meilleurs outils que j'ai vu en terme de sérieux.
     
Chargement...
Similar Threads - Ranking Metrics redirection Forum Date
My Ranking Metrics. Suis je condamné à une mauvaise note ? Demandes d'avis et de conseils sur vos sites 23 Novembre 2018
Comparaison sites avec My Ranking Metrics Tests et études de cas 3 Novembre 2018
Aide pour un problème http–https sur My Ranking Metrics Problèmes de référencement spécifiques à vos sites 19 Juin 2018
Pages profondes & My Ranking Metrics Référencement Google 28 Décembre 2017
rapport my ranking metrics bizare Problèmes de référencement spécifiques à vos sites 24 Mai 2017
Réponses à 3 questions SEO par une énorme étude My Ranking Metrics Techniques avancées de référencement 20 Avril 2017
SEO : détection des pages trop profondes avec myrankingmetrics Débuter en référencement 20 Avril 2016
Page article et page catégorie de wordpress / SEO / autit technique ranking metrics Débuter en référencement 11 Avril 2016
Différence entre l'indexation Google et les rapports de MyRankingMetrics.com Problèmes de référencement spécifiques à vos sites 7 Juillet 2015
rankingcoach sur ionos? Débuter en référencement 26 Mars 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice