Indexation des résultats de recherche interne

WRInaute discret
Bonjour,

Je vois dans le webmaster tools que Google indexe les pages de résultats de mon moteur de recherche interne de mon site. J'ai une boxe de recherche multicritère et une boxe de recherche simple.

Dois-je ne pas faire indexer ces pages qui créent du contenu dupliqué et d'autres erreurs ?

Comment faire ? Avec le robots.txt ?

Merci,
Philippe de Podexpert.
 
WRInaute discret
Merci Solution, c'est bien ce que je pensais.

Dois-je passer par le robot.txt pour cela ?
Quelle ligne dois-je rentrer ?

Merci,
Philippe
 
WRInaute discret
Re,

Il faut attendre attendre que la page soit désindexée (1 jours ou 2) avant de l'entrer dans le robots.txt si j'ai bien compris ?

Merci,
Philippe
 
Olivier Duffez (admin)
Membre du personnel
ok donc les URL des résultats de recherche ne sont pas regroupées dans un répertoire à la racine (par exemple /recherche/), ce qui complique la désindexation.

il faut attendre que Google désindexe les pages concernées (voir mon tuto pour accélérer)
ensuite seulement il faudra ajouter
Disallow: /recherche-resultats.php
 
WRInaute discret
Voici mon robots.txt
User-Agent: *
Disallow: /envoyer_a_un_ami.php?
Disallow: /*?currency=*
Disallow: /*sortorder_az=
Disallow: /*sortorder_id=

Je ne comprends pas pourquoi il y a des * dans les lignes avec disallow. Le * de User-agent je le comprends mais pas les autres.
 
WRInaute accro
Ces règles permettent de bloquer toutes les url intégrant la partie fixe des règles en question.

Disallow: /*?currency=* se comprend par : "toute page qui contient la chaîne '?currency='".

A la différence de Disallow: /envoyer_a_un_ami.php? : "toute page qui commence par '/envoyer_a_un_ami.php?'"
 
WRInaute discret
J'avais lu qu'il n'y avait pas de joker pour le robots.txt.

Donc quand la page sera désindéxé, il faudra que je rajoute /*recherche-resultats dans mon robots.txt pour qu'il n'y ait plus de crawl ?

D'ailleurs n'aurais pas du demander la désindéxation de /*recherche-resultats au lieu de /recherche-resultats.php ?
Car les pages que je veux enlever commencent par https://www.podexpert.com/recherche-resultats.php mais sont suivis par une chaine de caractère selon ce qui est entré dans la barre de recherche par exemple : https://www.podexpert.com/recherche-resultats.php?search_in_descriptio ... &x=10&y=22

Moi j'ai demandé la suppression de l'URL /recherche-resultats.php, est-ce que ça va supprimer toutes les autres occurences ?

Merci,
Philippe
 
Olivier Duffez (admin)
Membre du personnel
Podexpert a dit:
J'avais lu qu'il n'y avait pas de joker pour le robots.txt.
en effet, dans le standard il n'y en a pas, mais Google les gère

Podexpert a dit:
Donc quand la page sera désindéxé, il faudra que je rajoute /*recherche-resultats dans mon robots.txt pour qu'il n'y ait plus de crawl ?
non, le * est inutile car il n'y a aucun caractère à remplacer entre le / et le r

Podexpert a dit:
D'ailleurs n'aurais pas du demander la désindéxation de /*recherche-resultats au lieu de /recherche-resultats.php ?
quand on demande la désindexation, c'est d'une URL ou d'un bout d'URL (répertoire), mais pas d'une règle avec des caractères jokers

Podexpert a dit:
Moi j'ai demandé la suppression de l'URL /recherche-resultats.php, est-ce que ça va supprimer toutes les autres occurences ?
non
 
WRInaute discret
Ok donc pour désindexer l'ensemble des pages qui commence par https://www.podexpert.com/recherche-resultats.php sur la google search console comment dois-je faire ?
En notant https://www.podexpert.com/recherche-resultats et demander la désindexation du répertoire ?
La balise pour la désindexation sur mon site a aussi été mise sur https://www.podexpert.com/recherche-resultats.php.

Dans la balise robots.txt, il faudra dans ce cas que je mette /recherche-resultats.php* ?

Merci pour votre réactivité.
 
Olivier Duffez (admin)
Membre du personnel
au bout d'un moment, il faut accepter de tenir compte de ce qu'on dit...

ce n'est pas possible de désindexer d'un seul coup toutes ces URL
pour le reste, relire mes messages précédents
 
WRInaute discret
Ok donc je ne peux désindexer toutes les URL mais je peux éviter que Google viennent les crawler. C'est déjà ça de pris.
Merci pour vos réponses.
 
WRInaute discret
Oui ça j'avais bien compris. Quand je disais "c'est déjà ça de pris" je parlais des infos glanées sur le thread.

Le problème c'est que j'ai des centaines de pages à faire désindexer, toute commençant par https://www.podexpert.com/recherche-resultats.php

Si je suis le tuto pour rendre une page non-indexable :
- soit je mets une balise no-index sur chaque page, ce qui va me prendre un temps fou (Je suis sous shop application, pas d'accès direct au code, je peux rajouter des balises mais pas en masse).
- soit j'utilise l'outils de la search console, mais pareil, je dois le faire une par une car recherche-resultats.php n'est pas un répertoire.

Pour qu'elles ne soient pas crawlées c'est quand même plus simple car je peux utiliser * dans mon robots.txt.

La seule solution c'est d'utiliser le Noindex dans le robots.txt mais les avis varient sur cette méthode.

Bonne journée,
Philippe
 
WRInaute accro
La balise noindex, avec Shop Application, c'est mort. Sauf à faire un ticket auprès du prestataire.

Te reste donc, en effet, la désindexation url par url via Google Search Console (tu peux faire plus rapidement que un par un en utilisant un plugin Firefox comme iMacro, qui te permettrait de scripter l'ajout des url à désindexer) ou le robots.txt via la directive noindex.

Edit, a priori tu as la main pour le noindex : http://www.shop-application.com/module-actualites-optimisez-lindexatio ... 5_228.html

Tu as essayé en indiquant uniquement le nom du fichier.php dans l'interface dont il est question en début d"article ?
 
WRInaute discret
Oui j'ai la main pour la meta noindex dans Shop Application mais c'est le même problème qu'avec la search console, c'est un par un. Il ne me semble pas qu'il accepte les jokers.

J'ai essayé avec uniquement le fichier.php et ça l'a rendu non indexable mais pas toutes ces variantes.

J'ai fait le test avec le noindex dans le robots.txt, ça a l'air d'avoir fonctionné. Maintenant est-ce que la balise noindex dans le robots.txt va aussi empêcher que ce soit crawlé ? Certains disent oui, d'autre non. Dans le doute, je vais rajouter le Disallow en dessous.

Merci pour vos réponses.
 
WRInaute discret
WRInaute discret
Oui mais comme je vous l'ai dit plus haut, j'ai mis la directive noindex dans mon robots.txt qui accepte les jokers.
Or comme je l'avais lu dans le tuto de WRI que vous m'avez lié : "Mon test a montré que cette commande noindex dans le robots.txt bloque même le crawl. J'ai voulu faire le test inverse pour compléter l'analyse : j'enlève la directive Noindex, je laisse indexer la page, et seulement ensuite j'ajoute la directive Noindex. Il a fallu attendre plusieurs jours, mais la page a fini par être désindexée, sans que Google revienne crawler la page."
 
WRInaute accro
mais la page a fini par être désindexée

Tu peux aussi utiliser le 410 en .htaccess pour supprimer un contenu, le code 410 indique a gogole une page retirée de façon permanente, il finira par en supprimer le contenu de son index :

redirect 410 /sous-dossier/titre_de_la_page.html
 
WRInaute discret
Bon je fais le test avec le robots.txt et la directive Noindex et je vous tiens au courant si mes pages sont désindexées.
 
Discussions similaires
Haut