1. ⭐⭐⭐ Grosse PROMO en cours sur ma plateforme SEO My Ranking Metrics
    Rejeter la notice

Interprétation de l'état d'indexation de la Search console

Discussion dans 'Crawl et indexation Google, sitemaps' créé par IEDfactory, 10 Mars 2017.

  1. IEDfactory
    IEDfactory Nouveau WRInaute
    Inscrit:
    4 Janvier 2010
    Messages:
    10
    J'aime reçus:
    0
    Bonjour à tous et merci de vos contributions éventuelles.
    Je m'occupe en autre d'un site sous Prestashop ouvert en début aout 2016 qui vend des pièces détachées de machines et qui contient 25 026 produits. La catalogue a été réalisé par un prestataire extérieure dans le cadre d'une intégration de planche de vues éclatées en rapprochement avec un catalogue fournisseur et il ne contient que 10 511 produits activés, soit 14 515 inactifs. Passons sur le pourquoi de cette situation qui est normale au regard d'éléments incontrôlables, sans rapport avec l'objet du post.
    Nous avons soumis le sitemap à Google à l'ouverture du site donc en août 2016 et l'état d'indexation fait rapport de 4 crawl par mois. Voici les chiffres ci-dessous :
    21/08/16 4075
    28/08/16 4075
    04/09/16 41486
    11/09/16 39414
    18/09/16 34979
    25/09/16 32593
    02/10/16 32418
    09/10/16 32266
    16/10/16 32212
    23/10/16 32102
    30/10/16 32161
    06/11/16 32161
    13/11/16 32390
    20/11/16 32391
    27/11/16 32388
    04/12/16 32395
    11/12/16 32012
    18/12/16 31305
    25/12/16 30935
    01/01/17 24547
    08/01/17 13284
    15/01/17 11490
    22/01/17 11450
    29/01/17 11166
    05/02/17 10590
    12/02/17 10586
    19/02/17 10585
    26/02/17 10005
    05/03/17 9189
    Ne voyant pas d'amélioration dans les premiers temps et étant occupé à bien d'autre tâches, faisant aussi confiance au prestataire (la confiance n'exclut pas le contrôle, mais je fus laxiste sur ce coup là !), je découvris que les metas n'étaient pas remplies par le prestataire dans le cadre de l'injection et le rapprochement des fiches produits à activer avant ouverture du site. je fis donc une action corrective début janvier, puis en début février avec soumission de nouveau du sitemap auprès de Google. J'ai fait aussi à cette période le rajout de Bing Webmaster Tools.
    Aujourd’hui, dans la SC de Google il y’a 15 640 URL envoyé et 2 915 dans l’index et 10 642 images et 43 dans l’index, et dans Bing 15 639 URL.
    La requête site:monsite.com donne environ 9180 résultats à ce jour.
    Questions :
    On constate plus de 40 000 indexations pour un sitemap n'en comprenant en théorie que 10 500 URL active + 10 500 images, comment cela est possible lors de la premier soumission?
    Cette indexation peut-elle être la cause d'un blacklistage de la part de Google ?
     
  2. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 035
    J'aime reçus:
    316
  3. IEDfactory
    IEDfactory Nouveau WRInaute
    Inscrit:
    4 Janvier 2010
    Messages:
    10
    J'aime reçus:
    0
    Merci de votre retour. Ma présentation peut porter à confusion en effet. je brossais juste un état des lieux... Je sais parfaitement tout cela, et notamment la différence en l'état d'indexation et les stats de sitemap. J'ai aussi lu, entre autres depuis longtemps, vos articles et ceux de vos confrères. Je dois peut-être préciser que je suis webmaster depuis plus de 15 ans et que je me trouve confronté pour la premier fois à cette problématique.
    Ma question portait sur ce décalage énorme de ma première indexation (pour des raisons inconnues à ce jour) et je voudrais avoir un point de vue extérieur sur cette problématique. Ici, j'ai eu plus d'indexation que possible !!! et non le contraire...
    Donc je repose ma question :
    On constate plus de 40 000 indexations pour un sitemap n'en comprenant en théorie que 10 500 URL active + 10 500 images, comment cela est possible lors de la premier soumission?
    Cette indexation peut-elle être la cause d'un blacklistage de la part de Google ?
    Merci beaucoup de votre retour.
    Bien cordialement.
     
  4. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 873
    J'aime reçus:
    71
    Sans doute un large volume d'url indexable que tu ne maîtrises pas (ce qu'on appelle la masse noire) : url techniques, url de tri, de recherche, etc.

    Mais sans url, impossible d'être plus précis.
     
  5. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 035
    J'aime reçus:
    316
    c'est justement ce que j'appelle la masse noire : des URL qui n'auraient pas dû être indexées (et parfois même crawlées)

    je ne crois avoir jamais vu ça dans le rapport des sitemaps. Est-ce bien là qu'il a été fourni ?

    le blacklistage consiste à ne plus jamais faire apparaitre un site dans les résultats, à le désindexer totalement
    ça n'a donc rien à voir
     
  6. IEDfactory
    IEDfactory Nouveau WRInaute
    Inscrit:
    4 Janvier 2010
    Messages:
    10
    J'aime reçus:
    0
    Pardon, mais il y aplus d'indexation que d'URL ! Cela n'est pas normal ?
    Oui toutes les données viennent de la SC de Google....
     
  7. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 035
    J'aime reçus:
    316
    ce n'est pas ma question
    le rapport est-il effectivement fourni dans la partie sitemaps ?
     
  8. IEDfactory
    IEDfactory Nouveau WRInaute
    Inscrit:
    4 Janvier 2010
    Messages:
    10
    J'aime reçus:
    0
    Le rapport vient du tableau téléchargé dans la partie "Etat de l'indexation"

    pour le sitemap :
    Pages Web
    15 640 URL envoyées
    2 915 Dans l'index

    Images
    10 642 URL envoyées
    43 Dans l'index
     
  9. IEDfactory
    IEDfactory Nouveau WRInaute
    Inscrit:
    4 Janvier 2010
    Messages:
    10
    J'aime reçus:
    0
    en date du 8/03/2017 pour le sitemap...
     
  10. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 873
    J'aime reçus:
    71
    Relis les messages précédents : ce n'est pas parce que tu envoies un nombre fini d'url à indexer via le sitemap que Google n'en trouve pas d'autres. Mais il faut une url pour en dire plus...
     
  11. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 035
    J'aime reçus:
    316
    donc c'est bien ce que j'écris depuis le début : il ne faut pas mélanger les 2 rapports !
    il n'y a pas + d'URL indexées que d'URL fournies dans le sitemap
    et pour le reste, c'est la masse noire
     
  12. IEDfactory
    IEDfactory Nouveau WRInaute
    Inscrit:
    4 Janvier 2010
    Messages:
    10
    J'aime reçus:
    0
    Je me permet d'insister ou de vous demander une explication.
    Si on regarde les stats de la fin (mois de mars 2017) cela est cohérent entre le sitemap fourni et l'indexation, mais si on regarde les stats du 04/09/2016 on est dans une incohérence complète.
    La masse noire correspond à la différence des URL crawlé et celle présente dans le sitemap, non ?
    Pourtant c'est grosso modo le m^me sitemap qui a été envoyé entre les deux dates...
    Merci de votre retour...
     
  13. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 873
    J'aime reçus:
    71
    Sauf que des ajustements techniques menés sur le site ont pu déclencher l'indexation de pages que tu n'envois pas via le sitemap. Mais une fois de plus, sans url...
     
  14. IEDfactory
    IEDfactory Nouveau WRInaute
    Inscrit:
    4 Janvier 2010
    Messages:
    10
    J'aime reçus:
    0
    OK j'entends bien cela, le moteur peut référencer des pages qui ne sont pas dans le sitemap et non bloquées par le robot.txt, mais comment peut-on avoir plus de pages référencées que d'existantes ?
     
  15. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 873
    J'aime reçus:
    71
    Qu'en sais-tu ? As tu lancé un crawl de ton site (ScreamingFrog, Xenu, MyRankingMetrics) de manière à vérifier que le nombre de pages qui sont accessibles au moteur correspond stricto sensu au nombre que tu envoies dans les sitemap ? De mon expérience, il y a souvent un delta, plus ou moins important.
     
  16. IEDfactory
    IEDfactory Nouveau WRInaute
    Inscrit:
    4 Janvier 2010
    Messages:
    10
    J'aime reçus:
    0
    OK je vais écouter ton conseil, mais delà de plus du double il y a bien eu un problème et je voudrais l'identifier... Merci de ce retour.
     
  17. IEDfactory
    IEDfactory Nouveau WRInaute
    Inscrit:
    4 Janvier 2010
    Messages:
    10
    J'aime reçus:
    0
    Je remercie les deux contributeurs qui sont intervenus, mais visiblement cela ne donne pas de réponse à mon interrogation sur l'indexation "délirante de mon site sur Google SC (plus de double d'URL existantes... Si quelqu'un à un avis une piste ou autre je suis preneur...
    Merci d'avance.
     
  18. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 873
    J'aime reçus:
    71
    Tu as lancé un crawl de ton site ? Et tu trouves le même nombre d'url lors du crawl que le nombre que tu envois dans tes sitemaps ?
     
  19. IEDfactory
    IEDfactory Nouveau WRInaute
    Inscrit:
    4 Janvier 2010
    Messages:
    10
    J'aime reçus:
    0
    Merci de continuer le fil même un dimanche ! Il me semble que vous ne comprenez pas le problème, mais c'est moi qui doit mal l'expliquer. Aujourd'hui les résultats sont cohérents entre le nombre d'URL et d'images proposé dans le sitemap et l'indexation, mais au début c'était complétement délirant plus de 40 000 URL. Je n'avais pas fait de contrôle à l'époque, car j'avais la tête dans le guidon... Je suis en attente et en observation en ce moment pour l'amélioration de mon positionnement, mais je constate que quelques semaines (8) après l'indexation des deux dernières soumissions les chiffres sont cohérents. De plus Bing a référencé et positionné très vite les pages, ce qui n'est toujours pas le cas de Google. J'ai un outil de positionnement Adwancd Web Ranking que je lance toutes les semaines pour voir l'évolution, et c'est pas mieux du coté de Google et bon du côté de Bing.
    Donc ma question est bien d'essayer de comprendre ou d'avoir des pistes de ce qui a pu se passer au début ? Et si cela n'a pas pénalisé mon site ?
     
Chargement...
Similar Threads - Interprétation état indexation Forum Date
Campagne vidéo : interprétation des vues à 100 % AdWords 21 Novembre 2017
Interprétation des balises <a> sans href Débuter en référencement 31 Mars 2017
Interprétation du trust et citation flow de majestic Netlinking, backlinks, liens et redirections 12 Février 2017
Robots.txt : changement soudain d'interpretation par google Crawl et indexation Google, sitemaps 18 Février 2016
Interprétation des données Entonnoir Multi-canaux > Conversions Indirectes Google Analytics 30 Octobre 2015
Interprétation de données Débuter en référencement 31 Décembre 2013
Interprétation des stats Débuter en référencement 23 Janvier 2013
Problème Firefox 17 avec jQuery et interprétation de code JS Développement d'un site Web ou d'une appli mobile 23 Décembre 2012
Outil pour simuler l'interprétation des style CSS par Google bot Référencement Google 11 Juin 2012
Interprétation fichier htaccess (pour la redirection) URL Rewriting et .htaccess 23 Mars 2012
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice