Problème : google et liens vers des dossiers fantomes

Nouveau WRInaute
Bonjour à vous,
Alors voila j'explique un peu mon soucis. En tapant "Chosen survivors" dans google en limitant la recherche aux pages francophones on obtient 2 résultats qui m'intéressent et qui pointent vers les pages suivantes :

-http://www.animalattack.info/
il s'agit de la page d'accueil de mon site sur laquelle est bien contenu le terme référencé.

et

-http://www.animalattack.info/galerie/oeuvre.php?id_img=790&id_auteur=1
qui est le résultat qui me pose un gros problème (fonctionne en cache seulement, et heureusement)

En effet, la structure même du lien correspond à un ancien cms (artiphp) que j'utilisais durant la précédente version de mon site (il y a un an). J'avais par la suite décidé de tout basculer sous PmWiki, et pour cela j'avais pris un nouvel hébergement ainsi que'un nouveau nom de domaine (en .info alors qu'avant j'étais en .biz chez l'ancien hébergeur). L'hébergement en .biz touchant à sa fin, j'en avais profité pour mettre des liens vers la nouvelle version du site (ça à duré un mois environ).

Seulement google n'a jamais cessé de garder les anciennes url qui apparaissaient lors des recherches, ce qui m'avais conduit alors à reprendre également le nom de domaine en .biz et de faire une redirection sur mon .info ainsi qu'une page d'erreur 404 assez parlante.

mais malgré tous mes efforts je n'arrive pas à me débarasser de ces liens parasites, qui vont d'ailleurs chercher des pages dans des répertoires qui n'existent même pas sur mon ftp, et dont j'ai tout de même restreins l'accès via un fichier robots.txt

bref je suis complètement dépassé, j'ai eu beau lire des sujets ici ou ailleurs pour tenter de me dépatouiller de cette situation sans succès.

si jamais quelqu'un avait une idée là dessus ça me rendrait vraiment service car je galère depuis plusieurs mois...
une recherche avec site:www.animalattack.info dans google vous fera apparaître tous ces fameux liens pointants vers des répertoires n'existant pas (dossiers, galeries, xdossiers etc)

voici au cas ou le contenu de mon htaccess et de mon robots.txt, il est possible que j'ai commis des erreurs (surement même
:oops: )
Merci par avance pour l'aide que vous pourrez m'apporter ! Je suis bien entendu disponible pour répondre à toute question.

Code:
RewriteEngine On

RewriteBase /
RewriteRule ^([A-Z].*) /pmwiki.php?pagename=$1 [L,qsappend]

RewriteCond %{HTTP_HOST} !^www.animalattack.info$
RewriteRule ^(.*) http://www.animalattack.info/$1 [L,R=301]

RewriteCond %{REQUEST_FILENAME} !-f

RewriteCond %{REQUEST_FILENAME} !-d

ErrorDocument 404 /404.htm


Code:
User-agent: *
Disallow: /dossiers/
Disallow: /Xdossiers/
Disallow: /phpBB2/
Disallow: /galerie/
Disallow: /annuaire/
Disallow: /plan/
Disallow: /download/
 
WRInaute discret
Par expérience, je te dirais que ça ne set a rien le Disalow.
Enfin, si ça sert mais pas pour effacer des pages.

Voilà comment GG pense, il va dans un site, il lit la page et il la garde en cache. Il est très content de l'avoir dans sa petite bibliothèque de contenu! Il revient de temps en temps pour actualiser la page, car il ne veux pas passer pour quelqu'un qui n'est pas au courant de l'actualité ...

Soudain, Le site en question met un disalow vers cette page, GG va comme d'habitude l'actualiser, et se heurte à un mur : Interdiction de lire!
A bon !, se dit-il, et comme il est bon eleve il respecte les regles et ne lit pas la page, mais il garde soigneuseument la page qu'il possédait (car celle là était autorisée), et il va garder ce petit trésor de contenu qui rend sa bibliothèque virtuelle intéressante pendant des années. Qu'on ne dise pas qu'il n'a pas de contenu. Non mais ...

Idem pour les erreurs 404, il met des lustres à les enlever, car il aime bien garder du contenu dans sa grande bibliothèque, tanpis s'il est plus sur le site, le contenu est sur GG, l'internaute n'a qu'a surfer que sur GG cache pour lire. Peut-être un jour l'internaute compredra qu'il peut tout lire sur GG sans aller sur les sites. (c'est une blague :wink: )

Voilà pour l'histoire romancée ...


J'y connais rien au aux codes rewriting. Va voir :
https://www.webrankinfo.com/referencemen ... ctions.php
Moi je fais des rédirections 301 par RedirectPermanent, lien par lien, dans htcess (c'est plus long). Et surtout sans Disalow !!

En principe GG les prend en compe et efface les anciens liens. Mais, la durée de prise en compte est variable. C'est assez capricieux comme machine, parfois il fait vite, parfois il est lent ...

Au bout de six mois il faut s'en inquieter et la seule façon d'effacer les vieilles URL quand GG n'y arrive pas, c'est de le faire manuellement
https://www.google.fr/support/webmasters ... topic=8459

PS: Je ne vois pas l'interêt de mettre des disallow sur des fichiers qui ne sont pas dans ton ftp et puis ça me paraît un peu contradictoire de faire une 301 d'un lien qui est en disallow, donc auquel GG ne devrait pas avoir accès. Disallow= il ne devrait pas pouvoir suivre ce lien, et donc peut-être qu'il ne peut pas non plus la rédiriger ta page ???

A mon avis il faut enlever les disalow, à moins que tu ais quelque chose dedans que tu ne veilles pas faire lire aux moteurs.
Puis vérifier to Rewriting si tu veux pas le faire par RedirectPermanent.
 
WRInaute discret
Apparement, en plus, ton rewritting ne marche pas puisqu'on tombe tout le temps sur des pages d'erreur. On est rédirigé nulle part. C'est pas ce que j'appelle une rédirection 301 :wink:
 
Discussions similaires
Haut