1. ⭐⭐⭐ Grosse PROMO en cours sur ma plateforme SEO My Ranking Metrics
    Rejeter la notice

Astuce désindexer page nouvellement "noindex"

Discussion dans 'Crawl et indexation Google, sitemaps' créé par passion, 30 Janvier 2018.

  1. passion
    passion WRInaute accro
    Inscrit:
    6 Janvier 2006
    Messages:
    3 554
    J'aime reçus:
    90
    Bonjour,

    Tout est dans le titre.
    J'ai approx. 300 pages que je souhaite désindexer de google parce que ce sont des pages de faible qualité.
    Je les ai retiré du site pour qu'elles ne soient plus crawlables et elles sont renseignées en balise "noindex".
    J'ai essayé plusieurs astuces, je crois !

    La nouvelle interface m'en a dit plus. En fait, pour certaines, elles n'ont pas été crawlées depuis 26/07/17 donc je comprends bien que googlebot n'a pas pris en compte ma balise noindex.

    J'ai donc essayé différentes astuces pour stimuler googlebot à passer sur ces urls.
    - console search : Envoyer un sitemap de ces 300 urls
    - console search : bloquer/masquer "temporairement" les 300 pages de l'index

    Je ne les aies pas bloquées par robots.txt sinon logiquement googlebot ne pourrait pas faire sa mise à jour.
    je ne sais plus comment faire ?
    Je n'ai pas osé les mettre de nouveau sur le site car ok, elles seraient de nouveau crawlées donc pris en compte plus rapidement mais en suivant une certaine logique, quelle plus-value pour l'utilisateur si je lui propose des pages à faible qualité (reflexion google). J'ai actuellement approx. 10 000 de ces pages. Même si elles sont renseignées "noindex" je n'ai pas envie que google aille les indexer alors que j'essaye d'en désindexer 300 d'entres elles.

    Ces 300 urls viennent impactés mon indice qualité car j'ai en tout pour tout, 600 pages indexées dont 300 pages légitimes. En conclusion, ces 300 pages de faible qualité viennent pourrir de 50% mon indice qualité.

    Une autre astuce ?
    Merci
     
    #1 passion, 30 Janvier 2018
    Dernière édition: 30 Janvier 2018
  2. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 874
    J'aime reçus:
    71
    Si tu les as retiré du site, elles sont en 404 non ? Donc ta balise noindex ne sert à rien, vu que Google n'y accède pas ?
     
  3. passion
    passion WRInaute accro
    Inscrit:
    6 Janvier 2006
    Messages:
    3 554
    J'aime reçus:
    90
    Merci de ta réponse.
    Non elles sont existantes (status 200 OK). Je les aies rendu accessible que lorsqu'un membre est connecté.
    Je sais qu'il est préférable d'attendre qu'elles soient désindexées plutôt que de les retirer et se retrouver avec 300 urls en 404 même si j'ai une page personnalisée en 404.
    C'est surtout qu'elles n'ont pas d'intérêt à être indexées. Elles sont utiles pour un membre connecté mais pas à draguer du trafic dans les serps.

    Théoriquement, je ne risque rien à les mettre accessible au crawl non ?
    Normalement, une page noindex est crawlée mais pas indexée non ? Donc elles devraient être mise à jour rapidement puisque googlebot pourra les découvrir.
    C'est surtout que j'en ai 10 000 urls comme ça donc niveau qualité pour l'indexation, c'est pas top ?!

    Au pire, je peux les rendre accessible et surveiller que google les crawl et les retirent. Puis je les rend de nouveau accessible qu'une fois connecté.
     
  4. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 874
    J'aime reçus:
    71
    Mais vu qu'elles ne sont accessibles que pour un utilisateur connecté, quelle entête renvoient-elles lors du passage du moteur ?
     
  5. passion
    passion WRInaute accro
    Inscrit:
    6 Janvier 2006
    Messages:
    3 554
    J'aime reçus:
    90
    En fait pour être clair, c'est une page d'informations succinctes sur un membre. C'est une page de profil avec un avatar et éventuellement une description de 250 car. Au début je l'avais mise accessible car je voulais cibler un référencement local. C'est des profils pro genre coiffeur paris ainsi de suite mais vu qu'en fait, je me suis ravisé car je trouve que ces pages sont de faibles qualités alors je préfère que ces informations soient dispo qu'une fois connecté. Donc hors connexion, la page n'est pas visible mais elle est accessible status 200.
    Voilà la raison
     
    #5 passion, 31 Janvier 2018
    Dernière édition: 31 Janvier 2018
  6. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
    Si elles sont dans un répertoire à part, c'est très facile à désindexer( une demande dans search console) puis à bloquer au crawl dans le fichier robots.txt
     
  7. passion
    passion WRInaute accro
    Inscrit:
    6 Janvier 2006
    Messages:
    3 554
    J'aime reçus:
    90
    Merci de votre aide.
    Oui elles sont dans un répertoire à part.
    Quand tu parles de "...c'est très facile à désindexer( une demande dans search console)..." tu fais allusion à masquer/bloquer temporairement ?
    Car ça déjà été tenté !
    Oui, mon répertoire "profil" a été retiré dans la commande "site:" assez rapidement. J'ai laissé au moins 2 mois pour être certain qu'il en tienne compte au bout d'un moment mais ensuite, lorsque j'ai retiré ce bloquage temporaire... pfffff.... rien n'a changé !

    Extrait de console search google
    Code:
    Supprimez temporairement vos URL des résultats de recherche. Pour supprimer un contenu définitivement, vous devez supprimer ou mettre à jour la page source.
    Dans mon cas, je ne veux pas supprimer ces pages, je veux juste les désindexer donc méta "noindex", non ? Je mets à jour la page source.

    Ensuite, bloqué par robots.txt ?? Là, je ne te suis pas ?! N'était-il pas recommandé de laisser une méta "noindex" comme élément de réponse plutôt que de bloquer la source ? Comment google fait pour mettre à jour son index si je lui empêche l'accès à ces pages profil ? Comprends pas ton raisonnement. Tu peux être explicite stp ?

    J'imagine que tu veux dire:
    1- attendre la désindexation puis...
    2- bloquer par robots.txt (pour garantir qu'elles ne seront jamais indexer par la suite)

    Merci
     
    #7 passion, 31 Janvier 2018
    Dernière édition: 31 Janvier 2018
  8. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 874
    J'aime reçus:
    71
    Si tu bloques durablement via le robots.txt, tu peut demander la désindexation via GSC, et ça devrait ne pas revenir.
     
  9. passion
    passion WRInaute accro
    Inscrit:
    6 Janvier 2006
    Messages:
    3 554
    J'aime reçus:
    90
    ah t'es sûr via robots.txt ? Parce que c'est un non-sens, non ?
    Je lui dis de supprimer des pages que je lui empêche d’accéder.
     
  10. passion
    passion WRInaute accro
    Inscrit:
    6 Janvier 2006
    Messages:
    3 554
    J'aime reçus:
    90
    J'ai fait une capture de la nouvelle console search.
    Il exclut correctement certaines de mes pages qui sont d'un autre répertoire (1700 urls) par contre, issu du répertoire "profil" pff il ne veut rien savoir ?!
    Mais comment une boite comme ça peut être aussi mauvais en terme de réactivité pff comprends pas ?!
    [​IMG]
     
  11. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
  12. passion
    passion WRInaute accro
    Inscrit:
    6 Janvier 2006
    Messages:
    3 554
    J'aime reçus:
    90
    Mais j'écoutes... j'écoutes ;)

    J'ai ajouté le répertoire dans le fichier robots.txt et ajouté le répertoire dans CSG.
    mais ça reste comique comme même les directives de google. Voir la capture (encadré en rouge) pffff
    [​IMG]

    Par "autoriser", ne serait-ce pas, de ne surtout pas le renseigner dans le robots.txt. pfff Avec google, on a vraiment tout et son contraire.
     
  13. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
    avec la méthode indiquée je n'ai pas de pb pour ma part
     
  14. anemone-clown
    anemone-clown WRInaute passionné
    Inscrit:
    11 Novembre 2007
    Messages:
    1 572
    J'aime reçus:
    11
    Eventuellement, mettre aussi la balise noarchive en plus de noindex : "noindex,nofollow,noarchive", ça marche (j'ai fait comme ça aussi pour 12000 profils de membre)
     
Chargement...
Similar Threads - Astuce désindexer nouvellement Forum Date
WORDPRESS Woocommerce, vos astuces pour réduire CPU usage et serveur stress ? e-commerce 22 Juin 2018
article d'astuces citant une marque ? Droit du web (juridique, fiscalité...) 19 Décembre 2017
Astuce pour savoir si son site est en index mobile-first Google Référencement Google 16 Décembre 2017
Les meilleures méthodes, astuces et outils SEO recommandés par WebRankInfo Référencement Google 13 Octobre 2017
[astuce] pour afficher les numéros dans les résultats de Google Référencement Google 27 Juin 2017
Trafic pas important sur mon site, besoin d'astuces référencement Débuter en référencement 15 Octobre 2016
Besoin d'astuces pour le référencement de mon site Débuter en référencement 8 Octobre 2016
Avis sur astuce-forum.fr Demandes d'avis et de conseils sur vos sites 24 Septembre 2016
Tutify.net - Astuces et tutoriels informatiques Demandes d'avis et de conseils sur vos sites 25 Mars 2016
Astuces et conseils sur le fichier robots.txt Crawl et indexation Google, sitemaps 1 Juillet 2014
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice