Indexation des résultats de recherche interne

Discussion dans 'Débuter en référencement' créé par Podexpert, 22 Février 2017.

  1. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Bonjour,

    Je vois dans le webmaster tools que Google indexe les pages de résultats de mon moteur de recherche interne de mon site. J'ai une boxe de recherche multicritère et une boxe de recherche simple.

    Dois-je ne pas faire indexer ces pages qui créent du contenu dupliqué et d'autres erreurs ?

    Comment faire ? Avec le robots.txt ?

    Merci,
    Philippe de Podexpert.
     
  2. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    9 003
    J'aime reçus:
    284
    Src: https://support.google.com/webmasters/answer/35769
     
  3. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Merci Solution, c'est bien ce que je pensais.

    Dois-je passer par le robot.txt pour cela ?
    Quelle ligne dois-je rentrer ?

    Merci,
    Philippe
     
  4. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    9 003
    J'aime reçus:
    284
  5. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 658
    J'aime reçus:
    433
    en effet il ne faut pas les faire indexer, et sans doute pas non plus crawler

    si elles sont actuellement indexées, il faut d'abord les désindexer (tuto ici)
    et ensuite bloquer le crawl
    Pour ne plus confondre ces notions, lis mon dossier crawl/indexation

    je t'invite à lire mes articles sur le sujet (liens déjà fournis), ou à voir mon webinar sur robots.txt et noindex (replay gratuit)
     
  6. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Merci beaucoup pour vos réponses.

    Je m'y attelle dès aujourd'hui.

    Bonne journée,
    Philippe
     
  7. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Re,

    Il faut attendre attendre que la page soit désindexée (1 jours ou 2) avant de l'entrer dans le robots.txt si j'ai bien compris ?

    Merci,
    Philippe
     
  8. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 658
    J'aime reçus:
    433
    indique-nous le format des URL de résultats de recherche, ou un exemple
     
  9. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
  10. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 658
    J'aime reçus:
    433
    ok donc les URL des résultats de recherche ne sont pas regroupées dans un répertoire à la racine (par exemple /recherche/), ce qui complique la désindexation.

    il faut attendre que Google désindexe les pages concernées (voir mon tuto pour accélérer)
    ensuite seulement il faudra ajouter
    Disallow: /recherche-resultats.php
     
  11. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    J'ai fait la demande pour https://www.podexpert.com/recherche-resultats.php dans la search console. J'ai choisi pour tout le répertoire si j'ai bien compris.
    Quand la demande aura abouti, je rajouterai Disallow: /recherche-resultats.php dans le robots.txt

    Merci pour votre aide.

    Bonne journée,
    Philippe.
     
  12. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 658
    J'aime reçus:
    433
    ça ne marchera pas, il ne s'agit pas d'un répertoire...
     
  13. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    J'ai annulé ma demande et je l'ai remplacé par suppression de page web.
     
  14. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Voici mon robots.txt
    User-Agent: *
    Disallow: /envoyer_a_un_ami.php?
    Disallow: /*?currency=*
    Disallow: /*sortorder_az=
    Disallow: /*sortorder_id=

    Je ne comprends pas pourquoi il y a des * dans les lignes avec disallow. Le * de User-agent je le comprends mais pas les autres.
     
  15. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 885
    J'aime reçus:
    73
    Ces règles permettent de bloquer toutes les url intégrant la partie fixe des règles en question.

    Disallow: /*?currency=* se comprend par : "toute page qui contient la chaîne '?currency='".

    A la différence de Disallow: /envoyer_a_un_ami.php? : "toute page qui commence par '/envoyer_a_un_ami.php?'"
     
  16. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    J'avais lu qu'il n'y avait pas de joker pour le robots.txt.

    Donc quand la page sera désindéxé, il faudra que je rajoute /*recherche-resultats dans mon robots.txt pour qu'il n'y ait plus de crawl ?

    D'ailleurs n'aurais pas du demander la désindéxation de /*recherche-resultats au lieu de /recherche-resultats.php ?
    Car les pages que je veux enlever commencent par https://www.podexpert.com/recherche-resultats.php mais sont suivis par une chaine de caractère selon ce qui est entré dans la barre de recherche par exemple : https://www.podexpert.com/recherche-resultats.php?search_in_descriptio ... &x=10&y=22

    Moi j'ai demandé la suppression de l'URL /recherche-resultats.php, est-ce que ça va supprimer toutes les autres occurences ?

    Merci,
    Philippe
     
  17. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 658
    J'aime reçus:
    433
    en effet, dans le standard il n'y en a pas, mais Google les gère

    non, le * est inutile car il n'y a aucun caractère à remplacer entre le / et le r

    quand on demande la désindexation, c'est d'une URL ou d'un bout d'URL (répertoire), mais pas d'une règle avec des caractères jokers

    non
     
  18. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Ok donc pour désindexer l'ensemble des pages qui commence par https://www.podexpert.com/recherche-resultats.php sur la google search console comment dois-je faire ?
    En notant https://www.podexpert.com/recherche-resultats et demander la désindexation du répertoire ?
    La balise pour la désindexation sur mon site a aussi été mise sur https://www.podexpert.com/recherche-resultats.php.

    Dans la balise robots.txt, il faudra dans ce cas que je mette /recherche-resultats.php* ?

    Merci pour votre réactivité.
     
  19. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 658
    J'aime reçus:
    433
    au bout d'un moment, il faut accepter de tenir compte de ce qu'on dit...

    ce n'est pas possible de désindexer d'un seul coup toutes ces URL
    pour le reste, relire mes messages précédents
     
  20. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Ok donc je ne peux désindexer toutes les URL mais je peux éviter que Google viennent les crawler. C'est déjà ça de pris.
    Merci pour vos réponses.
     
  21. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 885
    J'aime reçus:
    73
    Si tu en bloques l'accès avant que Google ne les ait désindexé, les pages déjà dans l'index le resteront.
     
  22. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Oui ça j'avais bien compris. Quand je disais "c'est déjà ça de pris" je parlais des infos glanées sur le thread.

    Le problème c'est que j'ai des centaines de pages à faire désindexer, toute commençant par https://www.podexpert.com/recherche-resultats.php

    Si je suis le tuto pour rendre une page non-indexable :
    - soit je mets une balise no-index sur chaque page, ce qui va me prendre un temps fou (Je suis sous shop application, pas d'accès direct au code, je peux rajouter des balises mais pas en masse).
    - soit j'utilise l'outils de la search console, mais pareil, je dois le faire une par une car recherche-resultats.php n'est pas un répertoire.

    Pour qu'elles ne soient pas crawlées c'est quand même plus simple car je peux utiliser * dans mon robots.txt.

    La seule solution c'est d'utiliser le Noindex dans le robots.txt mais les avis varient sur cette méthode.

    Bonne journée,
    Philippe
     
  23. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 885
    J'aime reçus:
    73
    La balise noindex, avec Shop Application, c'est mort. Sauf à faire un ticket auprès du prestataire.

    Te reste donc, en effet, la désindexation url par url via Google Search Console (tu peux faire plus rapidement que un par un en utilisant un plugin Firefox comme iMacro, qui te permettrait de scripter l'ajout des url à désindexer) ou le robots.txt via la directive noindex.

    Edit, a priori tu as la main pour le noindex : http://www.shop-application.com/module-actualites-optimisez-lindexatio ... 5_228.html

    Tu as essayé en indiquant uniquement le nom du fichier.php dans l'interface dont il est question en début d"article ?
     
  24. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Oui j'ai la main pour la meta noindex dans Shop Application mais c'est le même problème qu'avec la search console, c'est un par un. Il ne me semble pas qu'il accepte les jokers.

    J'ai essayé avec uniquement le fichier.php et ça l'a rendu non indexable mais pas toutes ces variantes.

    J'ai fait le test avec le noindex dans le robots.txt, ça a l'air d'avoir fonctionné. Maintenant est-ce que la balise noindex dans le robots.txt va aussi empêcher que ce soit crawlé ? Certains disent oui, d'autre non. Dans le doute, je vais rajouter le Disallow en dessous.

    Merci pour vos réponses.
     
  25. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 885
    J'aime reçus:
    73
    Si tu mets un noindex, ça ne désindexera pas ce qui l'est déjà.
     
  26. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
  27. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 885
    J'aime reçus:
    73
  28. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Oui mais comme je vous l'ai dit plus haut, j'ai mis la directive noindex dans mon robots.txt qui accepte les jokers.
    Or comme je l'avais lu dans le tuto de WRI que vous m'avez lié : "Mon test a montré que cette commande noindex dans le robots.txt bloque même le crawl. J'ai voulu faire le test inverse pour compléter l'analyse : j'enlève la directive Noindex, je laisse indexer la page, et seulement ensuite j'ajoute la directive Noindex. Il a fallu attendre plusieurs jours, mais la page a fini par être désindexée, sans que Google revienne crawler la page."
     
  29. Furtif
    Furtif WRInaute accro
    Inscrit:
    9 Août 2005
    Messages:
    2 720
    J'aime reçus:
    212
    Tu peux aussi utiliser le 410 en .htaccess pour supprimer un contenu, le code 410 indique a gogole une page retirée de façon permanente, il finira par en supprimer le contenu de son index :

    redirect 410 /sous-dossier/titre_de_la_page.html
     
  30. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 885
    J'aime reçus:
    73
    Oublie, Furtif. C'est du Shop Application, un CMS en mode Saas.
     
  31. Podexpert
    Podexpert WRInaute discret
    Inscrit:
    26 Février 2015
    Messages:
    65
    J'aime reçus:
    3
    Bon je fais le test avec le robots.txt et la directive Noindex et je vous tiens au courant si mes pages sont désindexées.
     
Chargement...
Similar Threads - Indexation résultats recherche Forum Date
Indexation OK mais site absent des résultats Crawl et indexation Google, sitemaps 10 Février 2010
Indexation étrange et disparition des résultats Problèmes de référencement spécifiques à vos sites 5 Août 2009
Search Console Google n'explore pas les liens du sitemap (de desindexation) Crawl et indexation Google, sitemaps Hier à 13:50
WordPress Désindexation en masse de mes pages Problèmes de référencement spécifiques à vos sites Mercredi à 18:07
Empêcher l'indexation d'images dont le nom contient une chaîne donnée Crawl et indexation Google, sitemaps 27 Juin 2020
Search Console Problème indexation très faible Crawl et indexation Google, sitemaps 19 Mai 2020
Problème indexation page d'accueil incompatible mobile Crawl et indexation Google, sitemaps 19 Avril 2020
Peut-on demander l'indexation de plusieurs pages dans la search console ? Problèmes de référencement spécifiques à vos sites 18 Avril 2020
Rupture d'indexation Débuter en référencement 31 Mars 2020
Redirection 301 et indexation Crawl et indexation Google, sitemaps 24 Février 2020
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice