Indexation des résultats de recherche interne

Discussion dans 'Débuter en référencement' créé par Podexpert, 22 Février 2017.

  1. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Bonjour,

    Je vois dans le webmaster tools que Google indexe les pages de résultats de mon moteur de recherche interne de mon site. J'ai une boxe de recherche multicritère et une boxe de recherche simple.

    Dois-je ne pas faire indexer ces pages qui créent du contenu dupliqué et d'autres erreurs ?

    Comment faire ? Avec le robots.txt ?

    Merci,
    Philippe de Podexpert.
     
  2. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    8 746
    J'aime reçus:
    18
    Src: https://support.google.com/webmasters/answer/35769
     
  3. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Merci Solution, c'est bien ce que je pensais.

    Dois-je passer par le robot.txt pour cela ?
    Quelle ligne dois-je rentrer ?

    Merci,
    Philippe
     
  4. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    8 746
    J'aime reçus:
    18
  5. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    22 904
    J'aime reçus:
    28
    en effet il ne faut pas les faire indexer, et sans doute pas non plus crawler

    si elles sont actuellement indexées, il faut d'abord les désindexer (tuto ici)
    et ensuite bloquer le crawl
    Pour ne plus confondre ces notions, lis mon dossier crawl/indexation

    je t'invite à lire mes articles sur le sujet (liens déjà fournis), ou à voir mon webinar sur robots.txt et noindex (replay gratuit)
     
  6. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Merci beaucoup pour vos réponses.

    Je m'y attelle dès aujourd'hui.

    Bonne journée,
    Philippe
     
  7. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Re,

    Il faut attendre attendre que la page soit désindexée (1 jours ou 2) avant de l'entrer dans le robots.txt si j'ai bien compris ?

    Merci,
    Philippe
     
  8. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    22 904
    J'aime reçus:
    28
    indique-nous le format des URL de résultats de recherche, ou un exemple
     
  9. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
  10. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    22 904
    J'aime reçus:
    28
    ok donc les URL des résultats de recherche ne sont pas regroupées dans un répertoire à la racine (par exemple /recherche/), ce qui complique la désindexation.

    il faut attendre que Google désindexe les pages concernées (voir mon tuto pour accélérer)
    ensuite seulement il faudra ajouter
    Disallow: /recherche-resultats.php
     
  11. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    J'ai fait la demande pour https://www.podexpert.com/recherche-resultats.php dans la search console. J'ai choisi pour tout le répertoire si j'ai bien compris.
    Quand la demande aura abouti, je rajouterai Disallow: /recherche-resultats.php dans le robots.txt

    Merci pour votre aide.

    Bonne journée,
    Philippe.
     
  12. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    22 904
    J'aime reçus:
    28
    ça ne marchera pas, il ne s'agit pas d'un répertoire...
     
  13. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    J'ai annulé ma demande et je l'ai remplacé par suppression de page web.
     
  14. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Voici mon robots.txt
    User-Agent: *
    Disallow: /envoyer_a_un_ami.php?
    Disallow: /*?currency=*
    Disallow: /*sortorder_az=
    Disallow: /*sortorder_id=

    Je ne comprends pas pourquoi il y a des * dans les lignes avec disallow. Le * de User-agent je le comprends mais pas les autres.
     
  15. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    12 419
    J'aime reçus:
    9
    Ces règles permettent de bloquer toutes les url intégrant la partie fixe des règles en question.

    Disallow: /*?currency=* se comprend par : "toute page qui contient la chaîne '?currency='".

    A la différence de Disallow: /envoyer_a_un_ami.php? : "toute page qui commence par '/envoyer_a_un_ami.php?'"
     
  16. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    J'avais lu qu'il n'y avait pas de joker pour le robots.txt.

    Donc quand la page sera désindéxé, il faudra que je rajoute /*recherche-resultats dans mon robots.txt pour qu'il n'y ait plus de crawl ?

    D'ailleurs n'aurais pas du demander la désindéxation de /*recherche-resultats au lieu de /recherche-resultats.php ?
    Car les pages que je veux enlever commencent par https://www.podexpert.com/recherche-resultats.php mais sont suivis par une chaine de caractère selon ce qui est entré dans la barre de recherche par exemple : https://www.podexpert.com/recherche-resultats.php?search_in_descriptio ... &x=10&y=22

    Moi j'ai demandé la suppression de l'URL /recherche-resultats.php, est-ce que ça va supprimer toutes les autres occurences ?

    Merci,
    Philippe
     
  17. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    22 904
    J'aime reçus:
    28
    en effet, dans le standard il n'y en a pas, mais Google les gère

    non, le * est inutile car il n'y a aucun caractère à remplacer entre le / et le r

    quand on demande la désindexation, c'est d'une URL ou d'un bout d'URL (répertoire), mais pas d'une règle avec des caractères jokers

    non
     
  18. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Ok donc pour désindexer l'ensemble des pages qui commence par https://www.podexpert.com/recherche-resultats.php sur la google search console comment dois-je faire ?
    En notant https://www.podexpert.com/recherche-resultats et demander la désindexation du répertoire ?
    La balise pour la désindexation sur mon site a aussi été mise sur https://www.podexpert.com/recherche-resultats.php.

    Dans la balise robots.txt, il faudra dans ce cas que je mette /recherche-resultats.php* ?

    Merci pour votre réactivité.
     
  19. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    22 904
    J'aime reçus:
    28
    au bout d'un moment, il faut accepter de tenir compte de ce qu'on dit...

    ce n'est pas possible de désindexer d'un seul coup toutes ces URL
    pour le reste, relire mes messages précédents
     
  20. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Ok donc je ne peux désindexer toutes les URL mais je peux éviter que Google viennent les crawler. C'est déjà ça de pris.
    Merci pour vos réponses.
     
  21. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    12 419
    J'aime reçus:
    9
    Si tu en bloques l'accès avant que Google ne les ait désindexé, les pages déjà dans l'index le resteront.
     
  22. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Oui ça j'avais bien compris. Quand je disais "c'est déjà ça de pris" je parlais des infos glanées sur le thread.

    Le problème c'est que j'ai des centaines de pages à faire désindexer, toute commençant par https://www.podexpert.com/recherche-resultats.php

    Si je suis le tuto pour rendre une page non-indexable :
    - soit je mets une balise no-index sur chaque page, ce qui va me prendre un temps fou (Je suis sous shop application, pas d'accès direct au code, je peux rajouter des balises mais pas en masse).
    - soit j'utilise l'outils de la search console, mais pareil, je dois le faire une par une car recherche-resultats.php n'est pas un répertoire.

    Pour qu'elles ne soient pas crawlées c'est quand même plus simple car je peux utiliser * dans mon robots.txt.

    La seule solution c'est d'utiliser le Noindex dans le robots.txt mais les avis varient sur cette méthode.

    Bonne journée,
    Philippe
     
  23. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    12 419
    J'aime reçus:
    9
    La balise noindex, avec Shop Application, c'est mort. Sauf à faire un ticket auprès du prestataire.

    Te reste donc, en effet, la désindexation url par url via Google Search Console (tu peux faire plus rapidement que un par un en utilisant un plugin Firefox comme iMacro, qui te permettrait de scripter l'ajout des url à désindexer) ou le robots.txt via la directive noindex.

    Edit, a priori tu as la main pour le noindex : http://www.shop-application.com/module-actualites-optimisez-lindexatio ... 5_228.html

    Tu as essayé en indiquant uniquement le nom du fichier.php dans l'interface dont il est question en début d"article ?
     
  24. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Oui j'ai la main pour la meta noindex dans Shop Application mais c'est le même problème qu'avec la search console, c'est un par un. Il ne me semble pas qu'il accepte les jokers.

    J'ai essayé avec uniquement le fichier.php et ça l'a rendu non indexable mais pas toutes ces variantes.

    J'ai fait le test avec le noindex dans le robots.txt, ça a l'air d'avoir fonctionné. Maintenant est-ce que la balise noindex dans le robots.txt va aussi empêcher que ce soit crawlé ? Certains disent oui, d'autre non. Dans le doute, je vais rajouter le Disallow en dessous.

    Merci pour vos réponses.
     
  25. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    12 419
    J'aime reçus:
    9
    Si tu mets un noindex, ça ne désindexera pas ce qui l'est déjà.
     
  26. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
  27. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    12 419
    J'aime reçus:
    9
  28. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Oui mais comme je vous l'ai dit plus haut, j'ai mis la directive noindex dans mon robots.txt qui accepte les jokers.
    Or comme je l'avais lu dans le tuto de WRI que vous m'avez lié : "Mon test a montré que cette commande noindex dans le robots.txt bloque même le crawl. J'ai voulu faire le test inverse pour compléter l'analyse : j'enlève la directive Noindex, je laisse indexer la page, et seulement ensuite j'ajoute la directive Noindex. Il a fallu attendre plusieurs jours, mais la page a fini par être désindexée, sans que Google revienne crawler la page."
     
  29. Furtif
    Furtif WRInaute passionné
    Inscrit:
    9 Août 2005
    Messages:
    2 077
    J'aime reçus:
    1
    Tu peux aussi utiliser le 410 en .htaccess pour supprimer un contenu, le code 410 indique a gogole une page retirée de façon permanente, il finira par en supprimer le contenu de son index :

    redirect 410 /sous-dossier/titre_de_la_page.html
     
  30. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    12 419
    J'aime reçus:
    9
    Oublie, Furtif. C'est du Shop Application, un CMS en mode Saas.
     
  31. Podexpert
    Podexpert Nouveau WRInaute
    Inscrit:
    26 Février 2015
    Messages:
    19
    J'aime reçus:
    0
    Bon je fais le test avec le robots.txt et la directive Noindex et je vous tiens au courant si mes pages sont désindexées.