Enorme chute de référencement suite à attaque DDos

Nouveau WRInaute
Bonjour à tous,

Mon site https://www.pieces-detachees-occasion-ducati.com/ est en ligne depuis 10 ans et bon nombre de nos articles ressortaient en 1ère page entre la 1ère et la 3 ou 4ème position. L'activité commerciale était bonne.
Le 22 décembre j'ai subi une attaque DDos qui a paralysé le site jusqu'au 13 janvier, date à laquelle Cloudflare a été installé.
Le sitemap avait "sauté" et il a été à nouveau détecté par Google le 24 janvier.

Aujourd'hui le site fonctionne à nouveau bien, mais nous n'avons que 252 pages indexées pour 1255 non indexées ( 1507 au total ).
La quasi totalité des 40/50 articles qui constituent notre fond de commerce n'apparait plus sur internet.
A noter que ce matin, Google a découvert 1810 pages dans notre sitemap.

Le 22 janvier j'avais demandé l'indexation "en manuel" de quelques pages essentielles pour nous, mais ces pages ne sont toujours pas indexées.

Je suppose que le site était plein de petits défauts auparavant, qu'il faudrait certes rectifier, mais puisqu'il était bien référencé avant cette attaque je ne comprends pas pourquoi maintenant ça bloque chez Google.
Y-a-t-il un moyen d'intervenir auprès d'eux pour qu'ils reconsidèrent le positionnement du site ?
Au final je suis "puni" pour 20 jours d'absence sur 10 ans de présence.

Je continue de créer de nouvelles pages sur le site pour être le plus attrayant possible, mais que puis-je faire de plus ?

D'avance merci pour vos conseils.
 
WRInaute occasionnel
Le truc, c'est que des sites à visiter/indexer, il y en a des milliards, alors je suppose que lorsqu'un site ne répond pas pendant une durée aussi longue, Google le met de côté et n'y reviendra pas immédiatement à son retour en ligne (sauf pour un site "important").

C'était un DDoS ou un piratage ? Parce qu'une attaque de 20 jours pour un site "comme les nôtres", ça semble beaucoup.

Est-ce que Googlebot visite toujours des pages ?
 
Nouveau WRInaute
Je sais bien qu'on n'est pas les seuls.
C'était bien une attaque DDos et je pense que si nous n'avions pas installé Cloudlfare, nous y serions encore.
Dès l'installation de ce logiciel, le site est redevenu accessible.
Oui 20 jours c'est très long. Le webmaster et l'hébergeur étaient eux aussi très surpris.

Pour le passage de Googlebot, je suppose que je dois regarder les statistiques sur l'exploration ?
Au 27 janvier il y avait 657 demandes d'exploration.
Et la connectivité au serveur au 27 janvier est à 0 erreurs.
 

Fichiers joints

  • 27 janv - Taux d'échec connectivité.jpg
    27 janv - Taux d'échec connectivité.jpg
    31.9 KB · Affichages: 2
Nouveau WRInaute
Merci anemone-clown.

En revanche ce qui me surprend beaucoup, c'est la persistance des attaques.
J'ai installé CloudFlare et j'ai restreint l'accès à 6 pays seulement, et malgré ça je suis obligé de suivre les flux de requêtes 3 fois par jour.
Depuis samedi, j'ai dû déclencher le mode "under attack" à 2 reprises.

Pourquoi ces attaques continue-t-elles ? Suis-je le seul ?
 
WRInaute occasionnel
À quoi ressemblent ces requêtes de DDoS ?

Tu es sûr que ce n'est pas un bug sur le site ?
Par exemple, des redirections infinies, ou un script JS qui fait des requêtes en boucle ? Ça pourrait démultiplier les requêtes pour chaque visite.
 
WRInaute passionné
Je vais rejoindre @kartyr : des attaques DDoS qui durent si longtemps, ce n'est pas habituel (sauf si tu es un gros site institutionnel). Ces attaques durent quelques heures, éventuellement une paire de jours, mais ça s'arrête rapidement. Sans vouloir être parano, il est toujours possible d'envisager une action de la concurrence (ça s'est déjà vu!) si ça ne coûte pas cher

Sans connaître plus de détails techniques, difficile d'aider. Mais il faudrait enregistrer les IP avec les paramètres connus (langue, pays d'origine, et surtout le referer...) par un bout de code.
 
Nouveau WRInaute
@kartyr Mon site fonctionnait très bien avant le 23 décembre et nous n'avions pas fait de modifications depuis plusieurs mois.
Comment un bug pourrait-il survenir du jour au lendemain ?

@ anemone-clown mon site est un simple site marchand, certes très connu dans le monde moto pour la marque Ducati mais ça s'arrête là.
Un concurrent oui, j'y ai pensé, mais que d'énergie pour couler une petite boite qui emploie 2 personnes !

Je vais enregistrer un max d'info sur les IP et revenir donner plus d'infos.
Avec CloudFlare on n'a autorisé l'accès à la France, Belgique, Suisse, Canada et Etats-Unis.

Que veux-dire "le referer" ?
 
Nouveau WRInaute
Voici 2 exemples de requêtes avec des url douteuses.
La n°1 possède une url /49-ssie? revient très très souvent avec des géolocalisations très variées.
La n°2 possède une IP anormale et une géolocalisation française.

Que faudrait-il d'autre ?
 

Fichiers joints

  • URL DOUTEUSE _ 1.jpg
    URL DOUTEUSE _ 1.jpg
    69.4 KB · Affichages: 1
  • URL DOUTEUSE _ 2.jpg
    URL DOUTEUSE _ 2.jpg
    63 KB · Affichages: 1
WRInaute discret
Je me permets d’ajouter un point d’expérience complémentaire.


Dans ce type de situation (site ancien, interruption longue, reprise progressive), ce qui peut aider à accélérer la reprise du crawl, c’est de réintroduire rapidement du trafic humain réel sur le site.


Concrètement, forcer l’indexation dans la Search Console reste parfois lent après une indisponibilité prolongée. En revanche, lorsqu’on génère volontairement un flux de visiteurs réels (par exemple via une petite campagne Instagram ou Meta bien ciblée, sans volume excessif), on observe souvent une reprise plus active du crawl par Googlebot dans les jours qui suivent.


Google reste très sensible aux signaux d’usage réels : pages réellement consultées, navigation cohérente, temps passé, retour utilisateur. Ce n’est pas une solution miracle ni gratuite, mais dans certains cas cela permet clairement de réamorcer plus vite la phase de réexploration, surtout après un incident technique long (DDOS, site down, protection Cloudflare).


Bien sûr, cela ne remplace pas les vérifications techniques (logs, erreurs serveur, sitemap, accès Googlebot), mais ça peut être un levier complémentaire pour accélérer le retour à la normale.
 
Nouveau WRInaute
Je me permets d’ajouter un point d’expérience complémentaire.


Dans ce type de situation (site ancien, interruption longue, reprise progressive), ce qui peut aider à accélérer la reprise du crawl, c’est de réintroduire rapidement du trafic humain réel sur le site.


Concrètement, forcer l’indexation dans la Search Console reste parfois lent après une indisponibilité prolongée. En revanche, lorsqu’on génère volontairement un flux de visiteurs réels (par exemple via une petite campagne Instagram ou Meta bien ciblée, sans volume excessif), on observe souvent une reprise plus active du crawl par Googlebot dans les jours qui suivent.


Google reste très sensible aux signaux d’usage réels : pages réellement consultées, navigation cohérente, temps passé, retour utilisateur. Ce n’est pas une solution miracle ni gratuite, mais dans certains cas cela permet clairement de réamorcer plus vite la phase de réexploration, surtout après un incident technique long (DDOS, site down, protection Cloudflare).


Bien sûr, cela ne remplace pas les vérifications techniques (logs, erreurs serveur, sitemap, accès Googlebot), mais ça peut être un levier complémentaire pour accélérer le retour à la normale.
Merci du conseil
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut