Meilleure solution pour éviter le dupplicate content

Nouveau WRInaute
Bonjour,

J'ai un site qui regroupe des profils d'utilisateurs. Chaque profil d'utilisateur est constitué de 4 pages:

a) main.php
b) photos.php
c) portrait.php
d) contact.php

Chacune de ces pages peut se voir attribuer deux paramètres:

1) ID de l'utilisateur
2) Langue

J'ai enfin réussi à faire un url rewriting correct!


Les nouvelles URL sont donc:

a) main.php?id=00034&langue=fr >>> NOM_UTILISATEUR-fr.html
b) photos.php?id=00034&langue=fr >>> photos-NOM_UTILISATEUR-fr.html
b) portrait.php?id=00034&langue=fr >>> portrait-NOM_UTILISATEUR-fr.html
b) contact.php?id=00034&langue=fr >>> contact-NOM_UTILISATEUR-fr.html

---

Voilà :)


Ma question:

Qu'est-ce qu'il faut faire maintenant pour éviter le dupplicate content?

Est-ce suffisant de mettre ceci dans mon fichier robot.txt

Code:
User-agent:  *
Disallow: /main.php
Disallow: /portrait.php
Disallow: /pictures.php
Disallow: /contact.php


Est-ce que cela signifie que les moteurs ne vont pas referencer

-http://monsite.com/pictures.php?id=00034&langue=fr ?


Merci pour votre aide[/b]
 
WRInaute occasionnel
Dans le doute j'ajouterai ça aussi

Code:
User-agent:  *
Disallow: /main.php
Disallow: /portrait.php
Disallow: /pictures.php
Disallow: /contact.php
Disallow: /main.php?
Disallow: /portrait.php?
Disallow: /pictures.php?
Disallow: /contact.php?
 
Nouveau WRInaute
Ah tu crois?

En fait j'ai regardé le fichier robot.txt de WRI... et apparemment ce n'est pas nécessaire, mais je n'en sais rien à vrai dire.
 
WRInaute discret
D'après GG, pour ne pas indexer les pages générées dynamiquement, y'a l'entrée robots.txt suivante :
Disallow: /*?
 
Discussions similaires
Haut