Désindexer puis réindexer tous le site !

WRInaute discret
Bonsoir,

je viens de définir une nouvelle régle de rewriting sur mon forum, et pas de solution pour une réorientation des anciens url vers les nouveaux.

Donc j'aimerais savoir si c'est possible de désindexer puis réindexer tous les pages du site ? ou bien serais t'il plus sage de laisser google se démerder tous seul ?
 
WRInaute discret
Oui, effectivement, utiliser robots.txt si possible (si les débuts d'URL anciennes se distinguent par une chaîne qu'on ne retrouve pas dans les nouvelles... en gros).

De toute façon, les anciennes URLs seront en erreur 404 normalement, donc il finira par les oublier et tout réindexer à partir de la page d'accueil (en perdant provisoirement un peu l'effet des liens entre les pages et vers l'accueil sur le PR et le classement - une solution pour réorienter les anciennes URLs eût peut-être été mieux mais bon si c'est trop difficile tampis). Prévois de faire la redirection sur erreur 404 par contre (vers l'accueil par exemple).
 
WRInaute accro
dreamer2007 a dit:
Bonsoir,

je viens de définir une nouvelle régle de rewriting sur mon forum, et pas de solution pour une réorientation des anciens url vers les nouveaux.

Donc j'aimerais savoir si c'est possible de désindexer puis réindexer tous les pages du site ? ou bien serais t'il plus sage de laisser google se démerder tous seul ?

Pas de probleme et pas besoin du fichier robots.txt (la page n'est pas morte mais seulement deplacée) Google verra les nouveaux liens donc les nouvelles urls et reindexera le tout en quelque jours.

Par contre il existe toujours une solution dynamique (php, asp...) pour répondre au probleme de redirection d'urls. Cela garantie une reindexation rapide et cela permet aux visiteurs d'etre rediriger si ils font la demande des anciennes urls (favoris...)
 
WRInaute passionné
KOogar a dit:
... et pas besoin du fichier robots.txt (la page n'est pas morte mais seulement deplacée)
Erreur, il a rewrité, mais il ne peux rediriger les anciennes, donc 2 URL pour une même page.
Le robots.txt est plus qu'indispensable s'il veut que GG indexe les nouvelles URL.
 
WRInaute impliqué
Juste un conseil...

Juste un conseil : ne passe pas par l'outils de desindexation de Google : j'ai eu le malheur de le faire une fois pour la mêem raison que toi, il a fallu que j'attente plus de 6 mois après pour apparaître de nouveau dans Google.
 
WRInaute accro
Koxin-L a dit:
KOogar a dit:
... et pas besoin du fichier robots.txt (la page n'est pas morte mais seulement deplacée)
Erreur, il a rewrité, mais il ne peux rediriger les anciennes, donc 2 URL pour une même page.
Le robots.txt est plus qu'indispensable s'il veut que GG indexe les nouvelles URL.

Non pas comme ca. J'ai fais de nombreuses fois l'experience et crois moi, le fichier robots.txt n'est d'aucune utilité. Un ancien lien est mort et GG va le crawler, il va crawler aussi le nouveau lien et pouf, celui ci pointe sur la meme page que le lien mort precedement, donc il va reindexer tous ca sans soucis et sans duplicate contents. Google a un algo plus puissant que tu ne le pense...
Si tu veux ne pas trop descendre dans les pages de resultats de Google pendant cette mise a jour, il est conseillé de rediriger les urls soit en php, soit par .htaccess.
Ne va pas faire croire a Google que (par exemple) /goldenbook.php est mort avec ton fichier robots.txt, Google crawle tres rarement ce fichier robots.txt, ca peut porter a confusion. Par contre il peut booter 10 fois dans la meme journée sur ta nouvelle url, ca suffira largement.
 
Discussions similaires
Haut