Suite à une attaque, plein d'URL à faire désindexer

WRInaute discret
Bonjour,

Suite à une attaque de type malware au mois de décembre dernier, j'ai eu une quantité de lien qui se sont généré via mon site web avec une extension de type .pdf. Des liens avec redirection vers un site de pilules.

Le problème c'est que ces liens se sont indexés dans la serp. Depuis, j'essaie en vain de les supprimer sans réel succès.

Je voulais savoir si quelqu'un avait une solution pour identifier l'ensemble des liens générés, et les supprimés définitivement de la serp.

Pour info, j'ai tenté de les supprimer via le fichier robots.txt et en les supprimant via le search console (Supprimer le contenu obsolète) mais cela ne semble pas fonctionner. J'ai tenté également le 301, mais ne voyant aucun résultat j'ai laissé en 404.

Merci beaucoup pour vos réponses.

Julien
 
Nouveau WRInaute
tout dépend de "l'amour" :) que tu as pour ce site
Imagine ta maison dévastée par un intrus qui a tout saccagé tout chez toi et laisse en plus, bien cachés, des parasites et autres saletés..
Je préfère quand à moi ( j'ai eu cela avec un client récemment) tout reprendre à zéro SUR UN AUTRE HOSTING!
et surtout de façon manuelle, réviser chaque nouvelle page que je remets dans la nouvelle structure..
Après je peux comprendre que tu ne veuilles pas utiliser ma méthode radicale.. mais quand un ouragan ( si tel est le cas..) passe et dévaste tout, il vaut mieux reconstruire proprement.
Cela mettra du temps pour revenir ( environ 6 mois) mais à mon humble avis, il vaut mieux que laisser traîner des choses dont on ne maîtrise pas ce qui a été placé et voir le phénomène revenir dans quelques semaines quand tu auras apparemment tout nettoyé...
Bon courage !
 
WRInaute discret
Hello Chopoalc,

Le malware a été supprimé, mon site est maintenant et depuis un moment clean, le vrai problème ce sont ces liens restés dans la serp. Je pense effectivement que changer de nom de domaine me semble un peu radical...
Si quelqu'un a une solus moins radical...
 
WRInaute discret
Personnellement je vois pas trop l'intérêt de changer d'hébergement, quand le site est clean. Peux tu m'expliquer ?
 
Nouveau WRInaute
le point 4 de google rejoint ce que je disais

4. Commencer le nettoyage de votre/vos serveur(s)
Il est maintenant temps de commencer à nettoyer votre site à l'aide des notes que vous avez prises au cours des étapes Évaluer les dommages et Identifier la faille. La procédure suivante que vous allez effectuer au cours de cette étape dépend du type de sauvegarde à votre disposition.

  • Sauvegarde non infectée et actualisée
  • Sauvegarde non infectée, mais obsolète
  • Pas de sauvegarde disponible

je disais :

Je préfère quand à moi ( j'ai eu cela avec un client récemment) tout reprendre à zéro SUR UN AUTRE HOSTING!


cela veut dire reprendre les pages UNE PAR UNE , les vérifier et les REINSTALLER sur un nouveau espace serveur.

Quand tout a été sali et qu'on ne sait pas ou ça cloche, reprendre à zéro est une solution.
Une fois réinstallé, installer un HTACCESS sur l'ancien serveur en étant sur cette fois que l'on va rediriger vers des pages et un contenu propre et maîtrisé

Après libre à vous de laisser tout sur l'ancien et nettoyer ce que bon vous semble. L'attaquant a les clés de votre site.. il reviendra !!!
 
WRInaute accro
Mais tu peux tout à fait cleaner sur le serveur en cours ! Vouloir migrer pour faire son ménage n'a aucun sens : tu peux corriger les failles sur une instances de dev et répercuter ensuite sur ta prod.

Tout en changeant en parallèle les différents accès.
 
Nouveau WRInaute
"Vouloir migrer pour faire son ménage n'a aucun sens :"

a ton sens.

J'ai voulu répondre à une demande d'aide. J'ai expliqué ce que je fais.. Libre à chacun et à djudju de suivre les conseils de chacun..
et je rèpète ce que j'ai dit :" L'attaquant a les clés de votre site.. il reviendra !!!"
et je dis parce que même en vérifiant et en nettoyant, j'ai vécu cela. Après chacun est libre encore une fois de faire ce qu'il veut et de prendre ici ce qu'il a envie ou pas...

Je ne critique ni valide ce que tu proposes en ce qui me concerne.
J'ai exposé ma situation et toi UsagiYojimbo considère qu'elle n'a pas de sens...
 
WRInaute accro
En général, ce n'est pas un problème de serveur, la plupart du temps c'est un script qui permet à la personne malveillante de passer par derrière, souvent sur un script php et bien plus souvent sur un CMS comme sur Wordpress non sécurisés pour ne pas le citer.

Bref, rien ne sert de changer de serveur, cela déplace juste le problème sur le nouveau serveur dans ce cas :)
 
Olivier Duffez (admin)
Membre du personnel
Le malware a été supprimé, mon site est maintenant et depuis un moment clean, le vrai problème ce sont ces liens restés dans la serp
et si vous relisiez cette réponse ?
la question n'est pas comment nettoyer le serveur, mais comment désindexer les URL
 
WRInaute discret
Effectivement Mister Webrank semble comprendre la problématique, ainsi peut-être pourriez-vous m'indiquer comment connaitre l'ensemble des liens qui ont été indexé ?
site:monsite.com ne donne pas toutes les urls malheureusement.

Et enfin j'ai bien lu le lien donné par ister Webrank (olivier je suppose ;) ) qui m'indique de supprimer les liens via le searchconsole, ok ok mais quand il y a plus de 500 liens ? on fait ça à la main ? 0_o

Merci
 
Olivier Duffez (admin)
Membre du personnel
site:monsite.com ne donne pas toutes les urls malheureusement.
comment tu le sais ?

si les URL concernées sont toutes dans un même répertoire, qui ne contient que des URL à désindexer, c'est très simple : il suffit de demander la désindexation de ce répertoire
sinon, vu que ces URL répondent en 404 désormais (je suppose), tu peux simplement attendre que Google s'en rende compte. Ou alors faire un sitemap de ces URL (si tu en as la liste...) pour accélérer le crawl et donc la découverte des 404 par Google.
 
WRInaute discret
J'aurais bien aimé effectivement que cela soit dans un répertoire... Du coup l'idée de mettre les url dans un sitemap me semble interessant ! merci :)
 
Nouveau WRInaute
Bonjour,

j'ai le même cas avec mon site, je pense effectuer le sitemap avec des urls à supprimer, on est d'accord qu'il ne faut pas disallow les urls depuis le robots.txt ? Pour laisser les bots parcourir le sitemap et donc les url qui répondent en 404

Faut-il disallow l'ensemble des urls dans un second temps (une fois la disparition des Urls dans la SERP) pour éviter quelles réapparaissent dans X mois ?

Merci d'avance
 
Olivier Duffez (admin)
Membre du personnel
tu peux utiliser iMacro pour automatiser la suppression des url via un csv
tu n'es pas bloqué au bout d'un moment avec le CAPTCHA ?

on est d'accord qu'il ne faut pas disallow les urls depuis le robots.txt ?
bloquer des URL déclarées dans un sitemap, ça serait un peu contradictoire non ?
effectivement il ne faut pas les bloquer. Et quand Google a désindexé les pages, il faut supprimer le sitemap concerné.

Faut-il disallow l'ensemble des urls dans un second temps
inutile
 
Discussions similaires
Haut