Mon Rewriting crée du duplicate ?

WRInaute discret
Bonjour tout le monde,

Exemple

Mon site est réecrit et crée des pages de ce type .com/viewlasttopic-211296.html . Ainsi une page peut se retrouver avec 5 URL de ce site. Certes Google les cache et n'en affiche qu'une dans les resultats mais je me demande si je pourrais être pénalisé, si je peux les enlever ? Comment enlever ces pages dans le robots.txt ? Si je mets une ligne:

/viewlasttopic-

Est ce que ca suffira ?
J'ai été penalisé dans mon pagerank par Google la semaine dernière, je cherche donc des explications et peut être que celle là en ferait parti (j'ai soumis un premier sitemap qui m'a fait passer de 10000 pages à 60000 sur Google).


Merci d'avance !
 
WRInaute accro
Si tu bloques les pages /viewlasttopic- tu vas nous casser puisque tu vas bloquer tes nouvelles pages :s

tu dois justement mettre le début des vieilles urls dans ton robots.txt
 
WRInaute discret
Comment je fais puisqu'il doit y en avoir 30 000 ?
Je souhaite aussi bloqué les nouvelles qui s'écriront comme ca au passage
 
WRInaute discret
YoyoS a dit:
Si tu bloques les pages /viewlasttopic- tu vas nous casser puisque tu vas bloquer tes nouvelles pages :s

tu dois justement mettre le début des vieilles urls dans ton robots.txt

J'aimerais juste savoir si je mets

/viewlasttopic-

Dans le robots, toutes les pages qui commencent par cette écriture vont être desindexé au fur et à mesure ?

Ou je dois mettre
/viewlasttopic-*.html ? Est ce que ca peut passer ?
 
Discussions similaires
Haut