page réapparaiseent dans SERP malgré robots.txt

WRInaute passionné
Bonjour,

Il y a 4 jours j'ai désindéxé des pages (que j'avais mi en noindex) en utilisant l'outil "URL à supprimer", quelques heures après elles n'apparaissaient plus avec la commande "site:......."
hier j'ai donc rajouté un masque Disallow dans mon robots.txt pour que Google ne crawle plus ces pages

Mais ce matin je constate que les pages qui avaient disparu il y a 4 jours réapparaissent avec la commande 'site:......'

j'ai pourtant respecté la procédure de désindexation de Webrankinfo

qu'en pensez-vous ?
 
Membre Honoré
Bonjour,

Laisser le noindex et serveur peut être différent.

Temps de réponse : 1 minute.
Cordialement.
 
Membre Honoré
Bonjour,

- Laisser uniquement le noindex avec les pages à ne pas indexer
- Le serveur de Google n'était peut-être pas à jour

Si vous avez besoin d'une traduction des réponses, vous pouvez utiliser Google Translator. :D

Bon week-end. :)

Temps de réponse : 5 minutes.
Cordialement.
 
Membre Honoré
Bonjour,

Je suis de Mars, entre la Terre et Jupiter. :D
(Je suis Français).

Temps de réponse : 5 minutes.
Cordialement.
 
Olivier Duffez (admin)
Membre du personnel
est-ce que ces URL ont des impressions dans search console ?
la commande site: n'est pas prévue pour être utilisée seule
 
Membre Honoré
Bonjour,

Vous avez aussi des pages en 410 gone qui traînent avec les résultats de Google.
A vérifier si ce n'est pas un problème d'indexation du site plus important à corriger.

Concernant les pages du sujet, vous pouvez indiquer des exemples.
Ce qui permettra de vérifier l'indexation des pages et si c'est normal.
S'il y a des problèmes, des solutions seront proposées par la communauté.

Temps de réponse : 5 minutes.
Cordialement.
 
WRInaute passionné
4 jours, c'est très court. Il faut être certain que Google est repassé sur ces pages. Maintenant que tu les as bloqué dans le robots.txt, les pages non revisitées ne le seront plus puisque l'accès est bloqué. Donc, Google ne verra pas le noindex. Certes, elles ont été supprimées dans la Search Console, mais à ta place, je ne ferai pas confiance à 100 % à cette procédure. J'ai déjà vu des pages "ressurgir" malgré le blocage dans le robots.txt. Les supprimer après le noindex aurait été suffisant, voire un sitemap pour inciter Google à repasser dessus.
 
Membre Honoré
Bonjour,
ce n'est pas ma question de départ [...] qu'en pensez-vous ?
- 4 jours c'est peu pour une désindexation correcte, même avec l'outil de Search Console.
- Le disallow avec le robots.txt n'a pas à être ajouté pour éviter des erreurs.
- C'est normal qu'il y ait des retours de pages certaines fois (indexation).
- C'est bien si vous avez suivi la procédure, mais il faut du temps.
-- Même avis que @WebRankInfo concernant la commande site: .
-- @lecouti a fait une bonne réponse aussi (même avis noindex).
- Vous pourrez corriger les autres bugs en même temps.

Temps de réponse : 10 minutes.
Cordialement.
 
Membre Honoré
Bonjour,
Les réponses claires sont faites en prestations :p
:eek::cool::D.
et que devient le principe de base d'un Forum ?
Le principe de la communauté d'entraide est toujours là, mais c'est vrai que le commerce équitable est devenu plus rare de nos jours. On remarque ce manque d'entraide de nombreux intervenants du forum (nouveaux ou anciens) qui posent tout le temps des questions, mais ne s'intéressent pas à répondre aux autres (ou aider la communauté d'entraide). Un phénomène qui s'accélère depuis un moment. J'en parle d'ailleurs sur cet article avec une baisse de motivation à l'entraide depuis un moment : "lien article externe" .

Temps de réponse : 2 minutes.
Cordialement.
 
Discussions similaires
Haut