Supprimer 200 pages inexistantes avec un robots.txt et redirection dans un htaccess

WRInaute discret
Bonjour a tous :)
voila je me suis fait piraté il y a deux semaines
j'ai donc refait tous mon site entièrement

Mais j'ai des centaines urls bidons indexées dans google
j'en ai déjà supprimé 180 dans GW

MAIS quand je tape dans google
site:http://www.strategie-web.com/
il y a encore 200 url bidons du genre
http://www.strategie-web.com/index2.php?option=com_content&do_pdf=1&id ... processing

et quelques une de mes urls réels apparaissent dispersées entre la 5 eme page et la 20eme

Toutes ces urls sont du même type
ils commencent tous par

http://www.strategie-web.com/index2.php?option=com_content&do_pdf=1&id ... ...........
et cela change a partir du id=

je voudrai pouvoir bloquer ces url dans mon robots.txt en évitent de toutes les écrire afin de les supprimer dans GW
par exemple puis je mettre ce genre de code
Disallow: /http://www.strategie-web.com/index2.php?option=com_content&do_pdf=1&id=*

pouvez vous SVP me donner le code exacte à mettre
je voudrai aussi faire une redirection dans mon htaccess de toutes les adresse commençant par
http://www.strategie-web.com/index2.php?option=com_content&do_pdf=1&id
vers
http://www.strategie-web.com

sans vouloir exagérer pouvez vous me donner aussi le code à mettre

Sinon est ce normale après ce genre d'attaque de ne plus apparaître sur mes mots clés principaux dans google
des que j'ai eu cette attaque, j'ai disparu instantanément de google

j'ai toujours étais premier sur mes mots clés
que puis je faire pour remédier a ça
je suis persuadé que cela viens d'un concurrent
Comment pourrais je savoir qui il est

je vous remercie pour votre aide
joe
 
WRInaute impliqué
Je réponds par rapport à la fin de ton message :

Si tes pirates ont installé des scripts malveillants sur des pages : Google le voit et peut "mettre en quarantaine" ton site pour protéger les internautes.
Si ton contenu a été modifié par les pirates, dans ce cas, il est logique que les pages ne répondent plus aux mêmes requêtes.

Va faire un tour dans ton Google Webmaster Tools, tu as peut-être reçu une alerte si un script malveillant a été détecté sur ton site.

Bon courage
 
WRInaute discret
Bonjour nza2k
merci pour ta réponse
quand ce piratage est arrivé
j'ai supprimé mon site entièrement pour le refaire au propre
sinon même avant que je le refasse Google Webmaster n'a détecté aucun script malveillant

je vais supprimer toutes ces urls une a une chez GW
mais je voudrai pouvoir interdire toutes les url du genre
http://www.strategie-web.com/index2.php?option=com_content&do_pdf=1&id ... processing
dans mon robots.txt
Toutes ces urls sont du même type
ils commencent tous par

http://www.strategie-web.com/index2.php?option=com_content&do_pdf=1&id= ... ...........
et cela change a partir du id=

que mettre
Disallow: /http://www.strategie-web.com/index2.php?option=com_content&do_pdf=1&id=
Disallow: /http://www.strategie-web.com/index2.php?option=com_content&do_pdf
Disallow: /http://www.strategie-web.com/index2.php?option=com_content/
Disallow: /http://www.strategie-web.com/index2.php/

si quelqu'un du forum peut m'aider pour me donner le code à mettre
un grand merci
joe
 
WRInaute impliqué
Normalement, cela devrait suffire :

Disallow: /http://www.strategie-web.com/index2.php?option=com_content&do_pdf=1&id


A confirmer par des experts es robots.txt
 
WRInaute discret
Merci nza2k :)
je vais le faire tous de suite
on verra bien

quand c'est pour bloquer une page ou un répertoire il y a pas de problème
mais la, avec ce genre url
je suis bloqué
manque de connaissance
encore merci
joe
 
WRInaute passionné
Je ne sais pas si ce que je dis est la meilleure méthode, cela n'engage que moi, d'autres avis seraient bienvenus de la part de quelques pros.

Je ne mettrais pas un fichier robots txt. Je mettrais plutôt une redirection 301 dans un .htaccess
Tu peux regarder sur ces pages d'erreur si tu as eut des visiteurs venant de Google et a partir de quel mots clé.

400 Urls, ce n'est pas la fin du monde. Avec un tableau excel, tu peux te faire une redirection par page, meme si ca te prend 2 jours. Tu peux toujours réindexer les pages que tu as supprimé dans webmastertools et faire ta redirection 301.

le code se trouve facilement sur WRI https://www.webrankinfo.com/dossiers/strategies-de-liens/tutoriel-redirections et sur nombreux sites.

Laisse un peu de temps a Google, normalement, dans 3 a 4 semaines, habituellement ca rentre dans l'ordre.
 
WRInaute discret
bonsoir longo600 :)
je te remercie pour tes conseils
Pour le moment toutes ces fausses url sont redirigées vers une page 404 que j'ai faite
Demain je vais m'occuper du fichier .htaccess en suivant tes conseils

merci encore pour ton aide
joe
 
WRInaute passionné
joewebe a dit:
Pour le moment toutes ces fausses url sont redirigées vers une page 404 que j'ai faite

Ce que je dis, c'est que je crois que Google préférera une redirection 301, car il n'aime pas dutout les pages 404 et moyennement le fichier robots.txt.
 
WRInaute discret
bonjour longo600 :)
oui je pense aussi que tu as raison
je vais rectifier tous ça et faire des redirections 301
merci bien
joe
 
Discussions similaires
Haut