Rewriting et éviter le duplicate sans script

WRInaute occasionnel
J'ai une question bien précise et la réponse n'a jamais été donnée dans cette section.

J'ai fait un rewrite d'un vieux répertoire pourri en un tout propre.

Désormais j'ai le répertoire pourri et le propre qui répondent aux requêtes. Donc j'ai un duplicate. Je connais la façon de faire avec un script (vérifier l'URI) mais dans mon cas je n'ai pas accès à un language dynamique ? y a t il un autre moyen ? au niveau d'Apache ?
 
WRInaute occasionnel
C'est juste un exemple (à adapter) :

3. Evitez le "Duplicate content" ou "Pages similaires"

Indispensable pour un URL rewriting avancé : Le fichier robots.txt est à prendre en compte très sérieusement pour faire copain-copain avec les bons moteurs de recherche

Exemple, je souhaite interdire l'accès de ces URL aux moteurs parce que :
http://www.example.com/modules/newbb/vi ... ESC-363-29

et inutile car c'est un doublon de la page :
http://www.example.com/modules/newbb/pa ... lat-DESC-0

qui est inutile aussi car c'est un doublon de la page :
http://www.example.com/modules/newbb/co ... -flat-0-29

Pareil pour cette page :
http://www.example.com/modules/newbb/vi ... 3&forum=29

qui est inutile car c'est un doublon de :
http://www.example.com/modules/newbb/viewf-flat-363-29

Etc.... Ça vous fait rire hein ? Ben pas les moteurs. C'est le meilleur moyen de les énerver car trop de pages identiques.

Alors la seule et unique version de page à faire manger aux moteurs c'est : http://www.example.com/modules/newbb/topic-363-forum-29 / Bien sûr, on peut très bien supprimer ces liens doublons, mais il faut penser aux utilisateurs aussi. Certaines de ces URL sont très pratiques, notamment : viewf-flat-ASC-719-58 et viewf-flat-DESC-719-58 qui permettent à l'utilisateur de choisir l'ordre des messages en un clique (Plus récent, moins récent). Il faut alors faire deux types de tri : pour les moteurs et utilisateurs et pour les utilisateurs uniquement. Remarquez que je place des préfixes différents à ces URL pour mieux gérer le tri. Je souhaite interdire les liens de sélection uniquement et non les liens officiels. Le début du nom doit être différent d'où le préfixe viewf pour ne pas exclure topic. Si leur nom commençait de la même façon, le tri serait impossible.

Je vais donc ajouter des interdictions dans mon fichier robots.txt. Les 5 dernières lignes signalent aux moteurs que toutes les pages qui commencent par viewf, contribution, page, viewforum, viewtopic doivent être ignorées !

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /cache/
Disallow: /class/
Disallow: /images/
Disallow: /include/
Disallow: /install/
Disallow: /kernel/
Disallow: /language/
Disallow: /templates_c/
Disallow: /themes/
Disallow: /uploads/
Disallow: /modules/newbb/viewf
Disallow: /modules/newbb/contribution
Disallow: /modules/newbb/viewforum.php
Disallow: /modules/newbb/page
Disallow: /modules/newbb/viewtopic.php

http://www.frxoops.org
 
WRInaute occasionnel
Bonne idée j'avais pensé au robots.txt aussi je vais le mettre en place, mais aucune autre astuce ?
 
Discussions similaires
Haut