1. ⭐⭐⭐ Grosse PROMO en cours sur ma plateforme SEO My Ranking Metrics
    Rejeter la notice

Nettoyer les liens "pirates" de Google

Discussion dans 'Débuter en référencement' créé par Calimero68, 21 Juin 2019.

  1. Calimero68
    Calimero68 Nouveau WRInaute
    Inscrit:
    21 Juin 2019
    Messages:
    8
    J'aime reçus:
    0
    Bonjour,

    Il y a quelques semaines ma copine s'est fait pirater son vieux site wordpress.

    On a tout nettoyé au niveau du code et tout sécurisé.

    Le problème c'est que des milliers de faux liens dus à ce piratage sont toujours référencés actuellement sur Google : https://www.google.com/search?client=safari&rls=en&q=site:philosophine.fr&ie=UTF-8&oe=UTF-8

    Je sais qu'il est possible de demander à déréférencer des liens, mais comment faire lorsque l'on a des milliers de liens dans ce cas ?

    Ces "faux" liens sont du type "wp-content/wp-mbrxsmrs.php?oCcGIWd=pivx-coinmarketcap" (avec le dernier paramètre qui change à chaque fois)

    Merci pour vos lumières.
     
  2. Calimero68
    Calimero68 Nouveau WRInaute
    Inscrit:
    21 Juin 2019
    Messages:
    8
    J'aime reçus:
    0
    Bon j'ai fait une redirection 301 en utilisant l'expression régulière : ^/wp-content/wp-mbrxsmrs.php(.*)$

    ... en redirigeant vers la page d'accueil.

    Du coup je suppose que ça devrait le désindexer automatiquement non ?
     
  3. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 862
    J'aime reçus:
    269
  4. Calimero68
    Calimero68 Nouveau WRInaute
    Inscrit:
    21 Juin 2019
    Messages:
    8
    J'aime reçus:
    0
    Merci ! Très intéressant tous ces liens, ça répond à pas mal de mes questions.

    Pour la première partie de la solution (envoyer un entête noindex), je devrais donc pouvoir y parvenir sans problème je pense en plaçant le code suivant dans le .htaccess du site :

    Code:
    <Files ~ "^/wp-content/wp-mbrxsmrs.php(.*)$">
      Header set X-Robots-Tag "noindex,"
    </Files>
    Pour la deuxième partie en revanche, je ne vois pas trop comment je pourrais extraire toutes mes URL piratées, il y en aurait environ 15 000 apparemment.

    Sur Google, je peux taper ceci :

    Code:
    site:philosophine.fr/wp-content/wp-mbrxsmrs.php
    ... ce qui m'affiche à priori l'ensemble des url hackées (qui ont toutes cette même base), mais ensuite je ne vois pas comment les extraire en vu de les placer dans un sitemap.

    Une idée peut-être ?
     
    #4 Calimero68, 23 Juin 2019
    Dernière édition: 23 Juin 2019
  5. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 862
    J'aime reçus:
    269
    ça va être difficile de lister les 15 000 en effet
    2 pistes :
     
  6. Calimero68
    Calimero68 Nouveau WRInaute
    Inscrit:
    21 Juin 2019
    Messages:
    8
    J'aime reçus:
    0
    Merci, je vais étudier ça tout à l'heure.

    J'ai un peu buté sur l'étape précédente (X-Robots-Tag : noindex), car visiblement lorsque l'on utilise la directive Files ou FilesMatch (dans un .htaccess) il faut que le fichier soit existant sur le FTP, ce qui n'était plus le cas pour moi.

    J'ai donc opté pour une solution plus simple. J'ai recréé le fichier wp-mbrxsmrs.php dans mon répertoire wp-content, et j'y ai inclus le code suivant :

    Code:
    <?php
    
    header( "HTTP/1.1 410 Gone" );
    exit();

    Toutes mes URL hackées renvoient maintenant un code 410, ce qui (d'après ce que j'ai lu) devrait accélérer la désindexation.
     
  7. NicolasH
    NicolasH WRInaute occasionnel
    Inscrit:
    4 Mai 2016
    Messages:
    294
    J'aime reçus:
    21
    Bonjour Calimero68,

    C'est une bonne idée mais cela prend du temps. Sur mon site cela 1 mois que Google Crawl les pages 410. Après plus d'un mois j'en ai encore 200 / 2000.

    J'en ai aussi désindexé via la GSC (ancienne version).

    Peut être que faire une page valide (200) avec un meta noindex serait plus efficace (j'ai pas testé).
     
  8. DomTo
    DomTo WRInaute discret
    Inscrit:
    30 Août 2016
    Messages:
    137
    J'aime reçus:
    9
    Salut Caliméro,

    C'est vraiment trop injuste ce qu'ils ont fait au site de Pricillia !
     
  9. Fred
    Fred WRInaute discret
    Inscrit:
    4 Avril 2019
    Messages:
    80
    J'aime reçus:
    8
    J'ai un problème dans le même style mais ce sont des .css et .js minimifié qui n'existent plus et que google s'obstine à vouloir crawler.
    1. J'ai l'extension "redirection" bien pratique pour filtrer les 404.
    2. Je copie le lien
    3. Je le fait désindexer avec la fonction de l'ancienne Search Console (une journée de boulot pour les 700 url que j'ai pu trouver dans le journal de l'extension).
    4. J'ai mis en place une règle dans cette extension qui renvoie un 410 pour les demandes qui continuent d'arriver malgré tout (mais nettement moins d'après les logs serveur)
    5. J'ai mis en place en plus une règle dissalow sur le robots.txt car la plupart des css et js concernée appartenaient à des extensions qui n'existent plus. Mais cela ne concerne pas ton cas de figure. En plus je trouve la méthode de l'exclusion par robots.txt assez "sale".
    6. D'après le journal de l'extension je n'ai quasi plus de demande qui arrive. Seule les caches .ccs & .js expirés de la journée ou de la veille apparaissent en 410.
    L'avantage de cette extension c'est qu'elle ne renvoie le 410 que sur les .css &. js expiré. D'après ce que j'ai constaté :
    1. Google demande son fichier .ccs ou .js
    2. Si le fichier existe le serveur le lui renvoi
    3. Si le fichier n'existe pas le serveur le demande a wordpress
    4. Wordpress ne le trouve pas et demande quoi faire à l'extension "redirection"
    5. L'extension redirection renvoie un code 410.
    C'est super pratique car on peut alors mettre la règle dans l'extension redirection : ^/wp-content/cache/$ => 410.
     
Chargement...
Similar Threads - Nettoyer liens pirates Forum Date
Nettoyer les liens sortant de mon site Débuter en référencement 16 Avril 2013
Nettoyer les 404s de bots près migration URL Rewriting et .htaccess 19 Mai 2018
Actions pour "nettoyer" un site...votre avis ? Problèmes de référencement spécifiques à vos sites 2 Janvier 2018
Nettoyer un fichier .htacces qui est trop gros URL Rewriting et .htaccess 18 Avril 2017
Nettoyer une base données MySQL Développement d'un site Web ou d'une appli mobile 13 Novembre 2014
Nettoyer un très grand nombre d'URL sortantes Développement d'un site Web ou d'une appli mobile 22 Mai 2014
nettoyer les différents avis Problèmes de référencement spécifiques à vos sites 2 Avril 2014
Nettoyer un numéro de téléphone avant INSERT Développement d'un site Web ou d'une appli mobile 17 Février 2012
Cherche à nettoyer ma BDD mysql Administration d'un site Web 2 Décembre 2011
Nettoyer les pages des résultats de Google Référencement Google 9 Juin 2011
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice