Pages Avis clients : à désindexer ou pas ?

WRInaute discret
Salut à tous,

sur Oxatis (je sais), pour chaque article, une seconde url est créée pour les avis clients.
On clique sur un avis, et on accède à cette page qui regroupe tous les avis de l'article.

En passant un audit RM Tech pour l'un de mes sites,
je me suis rendu compte que le site comportait presque autant de pages articles (700) que de pages avis,
et que chaque page avis avait un indice de qualité très mauvais.

La question est :
Est-il recommandé de désindexer cette masse de pages d'avis, qui représente quand même la moitié des urls du site, pour redresser l'indice qualité global du site ?

En vous remerciant pour votre aide,

sincères salutations,

Lucas.
 
Nouveau WRInaute
Salut.

Difficile de te donner un avis sans avoir un exemple de page, mais si elles sont toutes de mauvaises qualités, que tu ne peux rien faire pour les améliorer et si elles intéressent tout de même tes visiteurs, je pense que tu devrais les passer en noindex oui.

Bon courage, c'est toujours un peu stressant quand il faut toucher un grand nombre de pages, mais de mon point de vue, je pense que cela devrait t'être bénéfique.
 
Nouveau WRInaute
Salut.

Je pense que pour voir un effet (positif ou négatif), il faut probablement attendre un prochain core update.

Au vu de ta page et si cela t'était possible, pourquoi ne pas fusionner la page de l'avis vers la page des articles ? Tu intègres dans un premier temps le contenu de la page des avis vers la page d'article et tu rediriges ensuite le tout en 301 (avis vers article).

Sinon, désindexe l'ensemble de ces pages oui.

Bon courage
 
WRInaute occasionnel
Ces pages n'ont pas lieu d'exister surtout que les avis sont aussi présents sur la page de l'article.

Il n'y a pas moyen de les désactiver tout en garder les avis sur les pages produits respectives ?
 
WRInaute discret
Merci pour tous vos retours,
pas de possibilités de désactiver ces pages avec Oxatis,
je pensais qu'en utilisant le fichier robots.txt, ça allait les bloquer et les désindexer,
mais d'après Olivier le fichier ne sert pas à ça mais à limiter le crawl, j'ai du mal à saisir la nuance.

Existe-il un moyen efficace pour désindexer ces pages ?

NicolasH, sur le site test, l'insertion des pages avis dans le robots.txt n'a pas exclu les avis des pages articles, c'est déjà pas mal.

Lucas.
 
WRInaute occasionnel
Le robots.txt empêchera le crawl des pages "avis" alors que toi du toi les désindexer.

Le top serait de mettre ses pages en 410 (n'existe plus) mais ca tu ne peux pas d'après ce que tu me dis ? ou ajouter un meta tag "noindex" sur les pages si c'est possible ?

Dans ce cas il faut absolument ne pas empêcher le crawl afin que Google voit les modifications et désindexe les pages.
 
WRInaute discret
Toujours un truc que je pige pas, pardon, si le fichier robots.txt empêche le crawl par les robots, comme les pages peuvent-elles se retrouver indexées ?

Bien compris le reste, je vais voir si on peut ajouter une balise "noindex".

Si je te suis NicolasH, sur le site test, il faudrait dans un 1er temps retirer les pages avis du fichier robots.txt, attendre qu'elles soient bien recrawlées, puis ajouter la balise "noindex", et enfin attendre que Google voit les modifications c'est bien ça ?
 
Nouveau WRInaute
Toujours un truc que je pige pas, pardon, si le fichier robots.txt empêche le crawl par les robots, comme les pages peuvent-elles se retrouver indexées ?

Bien compris le reste, je vais voir si on peut ajouter une balise "noindex".

Si je te suis NicolasH, sur le site test, il faudrait dans un 1er temps retirer les pages avis du fichier robots.txt, attendre qu'elles soient bien recrawlées, puis ajouter la balise "noindex", et enfin attendre que Google voit les modifications c'est bien ça ?

tu peux (DOIS) les retirer du robots.txt ET mettre les noindex aussitot, comme ça dès le prochain crawl de ces pages, Google lira le noindex et les désindexera
 
WRInaute discret
Bien compris Johann, bien compris Olivier :

"Bloquez les URL concernées avant leur publication, sinon elles pourraient être indexées. Si elles sont indexées, il faut d’abord les désindexer puis les bloquer au crawl."

Effectivement tout est plus clair, merci pour tous vos conseils.

Maintenant faut voir si avec la solution que j'utilise il est possible de les désindexer avec "Noindex" (mais pas à partir du fichier robots.txt).

Merci encore,

Lucas.
 
WRInaute discret
Salut à tous,

pas possible d'insérer une balise "Noindex" dans les avis clients avec la solution e-commerce que j'utilise.
On me recommande d'utiliser l'outil de suppression d'urls disponible dans l'ancienne version de la Search Console, toutefois d'après ce que j'ai compris, cet outil ne permet qu'une suppression temporaire, bref, c'est pas la bonne solution.

Sur mon site test, le fichier robots.txt est configuré pour limiter le crawl des pages avis, mais maintenant que je sais qu'il ne sera pas possible de supprimer ces pages à l'aide de la balise "Noindex", est-ce que vous me conseiller de laisser mon fichier tel quel ou de le modifier de façon à ne plus limiter le crawl des pages avis ?

En vous remerciant,

Lucas.
 
Olivier Duffez (admin)
Membre du personnel
d'après ce que j'ai compris, cet outil ne permet qu'une suppression temporaire
pas tout à fait. Si tu n'utilises que cet outil alors les URL désindexées pourraient à nouveau être indexées dans le futur. Mais si en parallèle tu te débrouilles pour qu'elles ne puissent plus être indexées, alors elles resteront désindexées.

donc si tu veux les désindexer, tu peux le faire manuellement dans l'ancienne search console puis bloquer le crawl dans le robots.txt.
 
WRInaute discret
Quand tu dis "Mais si en parallèle tu te débrouilles pour qu'elles ne puissent plus être indexées",
est-ce que tu inclus dans la débrouille l'outil de suppression d'url de l'ancienne Search Console ou parles-tu d'une autre technique ?


SI j'utilise l'outil de suppression d'url, est-ce que je dois préalablement débloquer le crawl dans le robots.txt ?
 
WRInaute discret
Merci pour ton aide, à voir maintenant si les avis sont classés dans un répertoire, histoire que je n'ai pas 700 pages avis à rentrer dans l'outil search console...
Bonne journée,
Lucas.
 
WRInaute discret
J'ai trouvé ça dans le dossier concernant l'indexation, pardon pour le copier-coller :

"Si par contre vous avez de nombreuses URL, il sera peut-être fastidieux voire impossible en pratique de passer par des demandes individuelles dans la Search Console.

Rassurez-vous, j’ai une astuce :)

Elle n’est pas très connue et je vous l’offre ici : listez toutes les URL à désindexer dans un fichier sitemap ! Un simple fichier texte avec une URL par ligne suffit largement (encodage UTF-8), avec le nom de votre choix. Déclarez ce fichier dans Search Console (rubrique Exploration > Sitemaps) et patientez.

L’idée est qu’un sitemap ne sert pas à faire indexer des pages, mais à inciter Google à crawler des URL.

Grâce à ce sitemap :

  • Google viendra assez rapidement crawler toutes ces URL
  • il constatera qu’elles doivent être désindexées
  • au fur et à mesure qu’il viendra les crawler, il les désindexera
  • en plus, à chaque fois que vous irez consulter Search Console, vous saurez combien d’URL de ce sitemap sont encore présentes dans l’index.
Dès que toutes les URL sont désindexées, vous pouvez supprimer ce sitemap."

Je ne comprends pas comment Google fait pour constater que ce sitemaps contient uniquement des pages à désindexer ?

Merci,

Lucas.
 
WRInaute occasionnel
@pro-sifflets >> Google va crawler plus facilement (plus rapidement) les pages grâce au sitemap. Les urls des pages spécifiées dans le fichier sitemap doivent être en code 410 (ou meta no index ?) afin qu'elles soient désindexées.

Sans ça il va falloir attendre que Google ait envie de crawler ses pages. Ca arrivera puisqu'il les connait mais vu qu'elles sont censées ne plus avoir de liens internes ca peut prendre du temps avant qu'il les crawlent.
 
WRInaute discret
Bonjour à tous, une dernière question et j'arrête de vous embêter avec ça,

pour le site test, j'avais inséré un disallow dans le fichier robots.txt pour limiter le crawl des pages avis,
je reçois désormais un avertissement dans la Seach Console : "Indexée malgré le blocage par le fichier robots.txt" 64 pages sont concernées pour l'instant, mais le chiffre risque d'augmenter.

Dans la mesure où je n'ai pas de solution pour désindexer ces pages, (à part taper une par une les urls dans l'outils de suppression de l'ancienne search console, ce que je n'aurai pas le temps de faire),
pensez-vous qu'il vaut mieux retirer le disallow dans le robots.txt pour ne pas avoir les avertissements dans la seach console ?
 
WRInaute occasionnel
Bonjour,

Tu peux laisser comme ça c'est juste un avertissement pour te prévenir que malgré tout tes pages resteront indexées.

700 à désindexer manuellement c'est jouable si tu en fait un peu tous les jours.
N'oublie pas que tu peux faire un export csv de tes urls indexées, ensuite tu retires de ton fichier csv les urls valides afin d'avoir un ficher d'url à supprimer.

Chaque jour tu en traites un certain nombre chaque jour (C/C du csv vers l'outils de suppression de la GSC) et tu les élimines du csv afin de savoir ou tu en es.
J'ai fait un article la dessus il y a pas longtemps :
https://www.nicolas-henry.fr/blog/article-supprimer-pages-google

N'hésite pas si tu as besoin d'infos.
Nicolas
 
Discussions similaires
Haut