Impossible de dexindexer un site sur Google

WRInaute discret
Bonjour,

Voila mon ancien site était hebergé chez ifrance et indexé par GG.
La nouvelle version du site avec un nom de domaine aussi. Donc double content sur GG.

Fatiguée de voir indexé mon ancien site avec les anciennes pages cache de GG (le site ifrance était en noindex et sans contenu depuis un an), j'ai décidé finalement d'effacer toutes les pages du serveur ifrance et j'ai dexindexé manuellement toutes les pages de ifrance sur GG.

Pour info: les pages sont introuvables actuellement sur ifrance. Et pour les dexindexer je l'avais fait à travers du meta tag "noindex" qui existait déjà depuis plus d'un an sur les pages.

GG a bien dexindexé toutes les pages, mais voila qu'un mois plus tard il me les ressort (avec leur cache de 2005). Et il faut que je recommence la dexindexation tous les mois ???

Le travail est titanesque, car sur ifrance je ne peut pas mettre de fichier .htcess ni mettre de fichier robot text. Je dois donc faire la dexindexation manuellement. Via les meta tag "no index" de chaque page ou via le "not found" page par page. Entre 400 à 2000 pages à dexindexer tous les mois chez GG, je ne suis pas sorti de l'hauberge ....

Comment arriver à que GG vire définitivement mon ancien site ifrance de son cache ???

Pour ce mois, quelle est la meilleure méthode à votre avis. Est-ce que je remets les fichiers et pages effacées sur le serveur ifance et je dexindexe à travers "no index", c'est plus rapide. Ou je le fais à travers le "not found" cette fois, un peu plus long mais peut-être plus efficace.

Merci de votre aide
 
WRInaute discret
Après verification, les pages ifrance qui sont reindexées sur GG, ne sont pas celles que j'avais dexindexé il y a un mois. Mais des nouvelles qui n'apparaissaient pas dans GG le mois dernier et qui sont tout d'un coup apparus maintenant.

A ce rytme là, il va falloir que je verifie tous les mois si il n'y a pas de nouvelles pages reindexéés ....

Au total s'il me ressort toutes les pages en cache de l'ancien site, j'en ai pour 5.000 dexindexations manuelles ....
 
WRInaute discret
Merci Hawkeye; Mais faudrait lire le post et pas seulement le titre.

J'ai fait tout ce qui est indiqué sur le lien que tu as donné.

C'est encore pire que j'avais imaginé. 8O
GG ressort maintenant des pages en cache de 2004. Qui n'existaient plus sur GG depuis 2004.
En 2004, ifrance a changé l'écriture de son URL. Et Google en avait tenu compte. Mais aujourd'hui; deux ans et demi plus tard il ressort les pages sous les deux écritures ... ifrance.com/site et site.ifrance.com. Ce n'est plus du double content mais carrement du triple content virtuel. Et je dis vistuel car ce triple content n'existe que sur GG car dans la vie réélle il n'y a qu'un seul contenu.

Pourquoi GG ne fait pas le ménage et nous ressort des caches datant de plus de 2 ou 3 ans pour de pages qui sont en 404 Not Found ?
 
WRInaute accro
il fait le ménage quand il veut .. et comme il veut :mrgreen:
... les débutants qui liront ce thread comprendront la nécessité d'avoir dès le départ un bon ndd et bon hébergement pour éviter tout ce schmilblick !
 
WRInaute accro
kasperle, >>> °http://cinepress.ifrance.com/robots.txt ?

On peut mettre un fichier robots.txt sur ifrance.com... Mais son contenu devrait être

Code:
User-agent: *
Disallow: /

... et non

Code:
User-agent: *

;)
 
WRInaute discret
Oui Hawkeye, mais ...

le robots.txt que tu lis sur °http://cinepress.ifrance.com/robots.txt ce n'est pas moi qui l'ai écrit c'est ifrance.

HawkEye a dit:
On peut mettre un fichier robots.txt sur ifrance.com... Mais son contenu devrait être
Code:
User-agent: *
Disallow: /
Non ça ne marche pas !
J'ai déjà essayé d'envoyer sans succès un robots.txt sur ifrance ave le code que tu dis mais ifrance ne me laisse pas faire, il n'en tient pas compte ou il réecrit le robots.txt sur son serveur à lui et affiche le code suivant, et ce même si je mets Disallow: /
Code:
User-agent: *

En tout cas merci, ta remarque était fort pertinente, mais ça ne marche pas avec ifrance.

Je rejoins mahefarivony sur le faite qu'il faut vraiment éviter certains hebergeurs gratuits.

Mais notre site a débuté en 2000 et c'était une page privée on ne pensait pas que ça deviendrait un site, et puis on connaissait rien à cette époque ... Avis aux nouveaux ... Evitez ifrance comme de la peste ...

Mais je pense que GG pourrait quand même faire un effort et pas nous ballancer des millions de pages qui datent de l'époque des dinosaures et qui en plus sont en Erreur 404.
 
WRInaute accro
J'ai un site chez eux depuis 2000, je viens de tester l'envoi d'un fichier robots.txt, aucun souci.

La seule différence est que mon site a son propre nom de domaine.

NB: Un petit coup de bigophone à iFrance pourrait résoudre le problème, non ?
 
Discussions similaires
Haut