Nouveau WRInaute
J'ai des milliers de pages php en ligne que je suis en train de rewriter, selon vous quelle est la meilleure méthode à utiliser (sachant que je ne peux pas rediriger chaque ancienne page vers la nouvelle) pour éviter un effet duplicate content dans Google et lui faire rapidement comprendre qu'il doit supprimer les anciennes pages ?

Est-il préférable de carrément supprimer les anciennes pages, ce qui donnerait une 404, ou bien mettre un header redirigeant vers l'index afin qu'elles soient en 301 ?

Merci pour vos réponses :p
 
WRInaute occasionnel
Bonjour,

scooty a dit:
(sachant que je ne peux pas rediriger chaque ancienne page vers la nouvelle)
Si tu peux faire de la ré-écriture d'URL, je ne vois pas pourquoi tu ne peux pas rediriger chaque ancienne page vers la nouvelle, avec en prime un 301.
Tu ne peux vraiment pas, tu ne veux pas, ou tu ne sais pas ? Car ce serait quand même l'idéal.

Sinon au pire des cas un 301 vers la home serait "l'idéal", afiin de ne pas perdre les utilisateurs arrivant sur le site à partir de ces pages.
 
Nouveau WRInaute
CaYuS a dit:
Si tu peux faire de la ré-écriture d'URL, je ne vois pas pourquoi tu ne peux pas rediriger chaque ancienne page vers la nouvelle, avec en prime un 301.
Tu ne peux vraiment pas, tu ne veux pas, ou tu ne sais pas ?

Je ne peux pas car les urls des anciennes pages n'ont pas les mêmes paramètres, et les mêmes séparateurs (anciennement des +, et récemment des -), un header 301 générique ne mènerait donc pas forcément sur la bonne adresse.

Voilà la solution que j'ai mis en place : j'ai rewriter les nouvelles pages en les faisant pointer vers un nouveau fichier .php, et j'ai mis un header 301 redirigeant vers l'index sur les anciennes pages .php .

Qu'en pensez-vous ? Est-ce qu'il serait bon que j'ajoute un fichier robots.txt indiquant à Google de ne pas indexer les anciennes pages, ou est-ce inutile ?

Merci :p
 
WRInaute occasionnel
scooty a dit:
Je ne peux pas car les urls des anciennes pages n'ont pas les mêmes paramètres, et les mêmes séparateurs
Je maintiens que ce n'est pas un problème...
Quitte à créer un petit script qui va aller checker dans une base SQL les nouveaux paramètres pour effectuer la bonne redirection en fonction de la page demandée... enfin bon :)

Sinon, le robots.txt n'est pas utile dans le cas précis, vu qu'il y a déjà un 301 sur les anciennes pages indiquant qu'elles ont été déplacées définitivement. Elles vont donc petit à petit être désindexées.
 
Nouveau WRInaute
Bon finalement j'ai fait un petit script php qui me permet de recupérer l'id des anciennes variables, puis de recréer l'url des nouvelles adresses.

Donc maintenant si je comprend bien Google devrait passer sur les pages contenant le code 301, puis les retirer au profit des nouvelles pages. C'est bien ça ?
Mais mettons qu'il passe d'abord pas les liens de mon site et indexe les nouvelles pages, va t'il considérer ces pages comme du duplicate content ou bien va t'il tout d'abord vérifier le contenu des pages similaires (contenant maintenant le code 301) ?

Merci pour votre aide, et merci Cayus pour les réponses que tu m'as déjà apportées :wink:
 
Discussions similaires
Haut