Outil suppression GSC

Olivier Duffez (admin)
Membre du personnel
tu trouves ces URL certes, mais dans quelle partie ? valides ? exclues ?
note que le rapport de couverture n'est peut-être pas encore à jour
 
WRInaute discret
J'ai bien attendu que la mise à jour de la couverture.
Je retrouve toutes ces URL dans les valides. Elles sont encore indéxées.
 
WRInaute discret
Salut à tous,

ça m'intéresse aussi de savoir si l'outil "Supprimer toutes les URL avec ce préfixe" fonctionne.

J'ai déjà remarqué qu'il faut pas mal de temps pour que les pages disparaissent progressivement de la couverture.

Google indique bien que la suspension de l'url est temporaire, elles peuvent donc être indexées à nouveau au bout de 90 jours ou 6 mois j'ai pas tout compris, j'ai donc ajouté un disallow pour éviter que les pages ne réapparaissent, je ne sais pas trop si ça va marcher, mais j'ai de moins en moins de pages supprimées qui apparaissent dans la couverture.

Comme la demande de suppression de mes urls date aujourd'hui de plus de 3 mois, plus aucune de mes pages supprimées n'apparaissent dans l'outil de suppression, mais il m'en reste encore 1 sur 2 environ dans la couverture avec avertissement "Indexées malgré le blocage du robots.txt".

J'ai l'impression que toi aussi tu veux désindexer tes pages avis c'est ça ?
Elles sont remontées comme pages zombies et inactives après audit RMTECH...

Lucas.
 
Olivier Duffez (admin)
Membre du personnel
Les URL sont généralement supprimées en moins d'un jour.
Ensuite, il faut un peu de temps pour que les rapports (couverture) soient à jour.

Si ces URL ont été supprimées du site, elles ne reviendront (évidemment) pas dans l'index.
Sinon, il faut qu'elles aient une balise meta robots noindex. Dans ce cas, elles ne reviendront pas, ce sera bien définitif. Un blocage par le robots.txt est souvent suffisant mais pas garanti à 100%.

Ces pages ne peuvent pas être remontées comme zombies par RM Tech, car seules les pages indexables sont ainsi analysées. Si elles sont indiquées comme zombies, c'est que tu as mal fait le boulot de les rendre non indexables (ou interdites au crawl).
 
WRInaute discret
De mon côté les pages sont remontées comme zombies par RM Tech avant le blocage par le robots.txt, après le blocage elles ne remontent effectivement plus.
Avec le CMS que j'utilise, pour ses pages avis je n'ai pas la solution d'utiliser une balise meta robots noindex,
uniquement le robots.txt...

Bonne journée à tous.
 
WRInaute discret
Je reviens parce que je ne comprends pas pourquoi cela ne fonctionne pas.

Un exemple : je veux désindexer les pages commençant par "nouveautes".
J'ai donc fait une demande de suppression des pages commençant par ce préfixe. Cette demande date du 4 mai 2020 et est prise en compte en moins d'une heure.
Capture01.jpg

J'attends donc la mise à jour de la couverture de la Search Console pour voir que ces URL ont bien été supprimé.
Capture02.jpg

Or après la mise à jour du 9 mai me montre que les pages sont encore dans les pages indexées.
La pagination a été réglé depuis avec un défilement continu.
Ces pages ont une balise Noindex pour éviter qu'elles soient réindéxées après la suppression temporaire.
Capture03.jpg

Que se passe-t-il ?

Merci,
Philippe
 
Discussions similaires
Haut