Nettoyage 404 search console créés après piratage avec code 410

Nouveau WRInaute
Hello tout le monde, petite question pour les personnes qui ont déjà eu un site piraté et qui ont dû faire un nettoyage sur Search Console.

J’ai eu un site piraté pour lequel j’ai eu quelques pages générées en cadeau, 1272 pour être précis.

Pour le nettoyer, j’ai récupéré une partie des urls via la SC 999 sur 1272. J’ai indiqué une code 410 via mon .htaccess car même pattern sur mes URLs.

J’ai mis le tout dans un sitemap que j’ai indiqué sur la Search Console. (Sitemap fait via screaming frog) J’ai ensuite demandé une correction, mais le nombre d’urls en 404 n’a quasiment pas bougé depuis décembre.(Échec de la correction)

Je n'ai pas réussi à trouver plus d'informations sur la cause.

J'ai depuis retiré le sitemap de la SC. Je me suis dit que ça pouvait peut-être indiquer des directives opposées, à savoir l'indexation avec le sitemap mais sur des URL qui renvoient un code 410.

Est-ce que quelqu'un a déjà eu le cas où il voulait supprimer des URL avec un code 410 et comment s'y est-il pris ? Merci d'avance pour votre retour.

Pour infos, les urls ne sont pas indexées.
 
WRInaute occasionnel
Bonjour,

Si les URL ne sont pas indexées, est-ce vraiment un problème ?
A mon sens, il suffit de taguer en 410 les pages concernées et le temps fera le reste non ?
 
Nouveau WRInaute
Bonjour @pomination, j'ai effectué la manipulation au niveau du fichier .htaccess en décembre. Les URL redirigent bien vers une page 410, mais le nombre d'URL en 404 indiqué dans la Search Console n'a pas bougé. Je trouve cela étrange. Alors, certes, elles ne sont pas indexées, mais il n'y a pas de raison que le nombre d'URL en 404 dans ma Search Console soit encore identique. J'ai posé la question sur Discord et dans d'autres forums, mais j'ai l'impression que personne ne sait réellement comment gérer cela.Capture d’écran 2024-03-12 à 00.14.35.png
 
WRInaute occasionnel
Il faut regarder dans l'inspection d'URL à quand remonte la dernière visite du bot sur les pages en 404. Tant qu'elles ne sont pas visitées, le statut 410 ne sera pas pris en compte. Ce qui implique que leur crawl ne doit pas être interdit dans le robots.txt
 
Olivier Duffez (admin)
Membre du personnel
vu que ces pages ont toujours été en erreur, jamais indexées, je ne vois pas bien pourquoi s'embêter à envoyer un 410 au lieu d'un 404 (surtout que Google affirme traiter les 2 de la même façon)
 
Nouveau WRInaute
Au niveau du fichier robots.txt, il n'y a aucun blocage.

Certaines URL ont été explorées il y a quelques jours et pour d'autres, cela remonte à plus longtemps.

Je vais tester de mettre les URL sur une page et de la placer dans le footer pour voir si cela change quelque chose, je ferai un retour.

@WebRankInfo, tout simplement, je ne veux plus avoir d'URL qui remontent dans ma Search Console et qu'elle soit propre, entre guillemets.

À partir du moment où la suppression définitive est indiquée via une 410, est-ce que cela ne devrait pas être corrigé au niveau de la Search Console ?

Peut-être passer par l'outil de suppression temporaire. J'avais fait une demande sur 1000 URL en auto avec une extension sur Chrome, mais les demandes avaient expiré.
 
Discussions similaires
Haut