Robots.txt : Pour accélérer l'indexation des urls rewriting

WRInaute discret
Salut,

Je viens de passer à l'url rewriting, cependant vu la lenteur du référencement j'aimerais utiliser le fichier robots.txt pour accelerer l'indexation des nouveaux liens et retirer les anciens des moteurs.

D'une part, pensez-vous que c'est une bonne solution ?

D'autre part j'aimerais faciliter cette adaption. Pour cela voici un exemple de code :
Code:
# robots.txt pour le site http://www.xelopolis.com
User-agent: *
Disallow: /Xdossiers/dossiers.php?id_dossier=172
Disallow: /dossiers/dossiers.php?id_dossier=4
Disallow: /Xdossiers/dossiers.php?val=592_renault+altica+concept+future+laguna+3+

Comme vous pouvez le constater je suis passer de l'url à variables à l'url friendly puis maintenant je suis à l'url rewriting. J'aimerais que google efface les urls friendly et egalement les plus anciens et les remplace par les nouveaux (tout beaux), cependant, comme j'ai des centaines de liens, je ne me vois pas les recopier tous dans ce fichier. Est-ce dangereux et est-ce possible de faire ça automatiquement ?

Pour information, mes urls rewriting sont de cette forme : h**p://www.xelopolis.com/Xdossiers/dossier_732_nouvelle+audi+tt+coupe+2+photos+officielles+video.html

Merci d'avance
 
WRInaute accro
>> j'aimerais utiliser le fichier robots.txt pour accelerer l'indexation

tu as pensé à soumettre un sitemap à google ?
 
WRInaute discret
Oui c'est fait, le problème c'est qu'il n'indexe que les nouveaux et ne remplace pas les anciens.
 
WRInaute discret
En fait si je supprime mon repertoire Xdossier, ca va me supprimer tous mes urls réecris donc ça ne va pas aller.

Quelqu'un aurait des réponses à mes questions ?
 
WRInaute impliqué
Une piste peut-être
Sur les anciennes URL tu te debrouilles à pointer en redirect permanent vers l'adresse friendly
Pour cela tu ajoutes au debut de dossier.php un truc du genre
Si ancienne adresse alors redirect 302 vers nouvelle adresse
Sinon je sert la page

Tu eviteras du duplicate content et à terme tout devrait rentrer dans l'ordre.

Je sais c'est facile a dire mais pas facile à faire cela dépend de ton nombre de script

A+
 
WRInaute discret
Oui c'est une très bonne idée (merci d'ailleurs) mais je ne vois pas quel code insérer dans ce fichier...
 
WRInaute impliqué
Attention c'est une piste il faut bien sur adapter voir decortiquer l'adresse
complete pour faire le bon aiguillage eventuellement utiliser switch plutôt que if pour info les variables -http://www.phpdebutant.org/article60.php tu peux travailler directement avec $_SERVER['QUERY_STRING']

Code:
<?php
if ($_SERVER["HTTP_HOST"]=="www.xelopolis.com/Xdossiers/dossiers.php?id_dossier=172"){
	header("HTTP/1.1 301 Moved Permanently");
	header("Location: http://www.xelopolis.com/Xdossiers/dossiers.php?val=592_renault+altica+concept+future");
	exit(); 
}
?>

A+
 
WRInaute impliqué
il existe une adresse de GG ou l'on peut supprimer les lien indexer mais je l'ai oublier
tu y aller deindexer les liens souhaiter mais le probleme c'est que il te faut un delai de 6 mois pour le reinscrit
 
Discussions similaires
Haut