Liens différents pour une même page, bien ou mal ?

Nouveau WRInaute
Salut,

Je n'ai pas trouvé de réponse à ma question donc je suis désolé si ça a déjà été traité...

Utilisant l'url rewriting, mais remarquant que j'avais oublié de rewriter certains liens j'aimerais savoir si c'est mauvais, ou pas grave, d'avoir deux liens différents qui pointent vers la même page, exemple pour un forum :

viewtopic.php?id=3
et
mon-sujet-dans-monforum-id3.php

qui pointent vers la même page du forum.

Je ne sais pas si c'est vu comme duplicate content, ou si la page perd en pertinence pour chacun des liens, ou autre chose...

Merci !
 
WRInaute passionné
la solution, n'est -elle pas un fichier robot txt restreignant l'accès aux URL's dynamiques et éviter le duplicate content ?
 
Nouveau WRInaute
la solution, n'est -elle pas un fichier robot txt restreignant l'accès aux URL's dynamiques et éviter le duplicate content ?
Il faut travailler ton site pour que seule les urls rewrités soient visibles par les moteurs.

Et comment on fait pour les 2 "astuces" ci-dessus ?

Au fait, est-ce qu'un rel="nofollow" peut-être une solution ?

Encore merci ?
 
WRInaute accro
ce sera plus propre si tu reprends tes pages en modifiant tes urls que de mettre des rustines genre robots.txt, nofollow ou je ne sais trop quoi!!

Tu gagneras en visibilité sur la maintenance
 
WRInaute accro
Oui mais parfois le nofollow est indispensable. (cf. mon forum)
Parfois pour des raisons fonctionnelles ont peut avoir besoin de plusieurs urls.
Le nofollow est là pour ça.
 
Nouveau WRInaute
Oui mais parfois le nofollow est indispensable. (cf. mon forum)
Parfois pour des raisons fonctionnelles ont peut avoir besoin de plusieurs urls.
Le nofollow est là pour ça.

Exactement, d'ailleurs mon plus gros problème est là, dans un forum, le "viewtopic" peut être appelé avec les paramètres différents donc le rewriting va donner des urls différentes...

Sinon je suis d'accord que le but est de travailler au mieux sur le rewriting de toutes les urls du sites, mais on n'est jamais à l'abris d'un oubli, donc des réponses à ces questions sont toujours les bienvenues : :wink:

la solution, n'est -elle pas un fichier robot txt restreignant l'accès aux URL's dynamiques et éviter le duplicate content ?
Il faut travailler ton site pour que seule les urls rewrités soient visibles par les moteurs.

Merci !
 
WRInaute accro
Fait gaffe aussi à la pagination, on l'oublie souvent.
Je crois que Olivier à fait un article sur les cas les plus fréquent de duplicate, fouine sur le site.
Un truc aussi, tu peux très bien avoir des urls avec les paramètres dans la partie loguée.
Concentres-toi d'abord sur la partie invité (Google bot est un invité).
 
Discussions similaires
Haut