WRInaute discret
Bonjour,
J'ai un forum et j'utilise cette méthode d' URL REWRITING qui est un classique mais qui cause plusieurs duplicate.
Voila, avec un bon fichier robots.txt, j'ai presque réussi à tous les enrayer mais il en reste des plus difficiles à enlever.
Google indexe des url comme ceci:
www.informatruc.com/forum/ftopic6615-0-asc-15.php
au lieu de simplement indexer seulement ceci:
www.informatruc.com/forum/ftopic6615
Voila, comme le forum de WRI est bien très bien référencé, je l'ai examiné plus en détail et je me suis rendu compte par exemple que dans un forum spécifique que les liens [ Aller à la page: 1, 2, 3 ] était de la forme https://www.webrankinfo.com/forum/t/mots-cles-tapes-dans-google-combien-de-fois-par-jour.8591/ et que les liens Aller à la page 1, 2, 3 Suivante dans le post lui même était de la forme https://www.webrankinfo.com/forum/viewt ... c&start=15 ce qui simplifie beaucoup la façon d'éviter les duplicate dans le fichier robots.txt.
Il serait intéressant que Monsieur WRI nous livre sont secret ou encore qu'une âme charitable nous fasse part de la façon pour y arriver, ça serait très sympa parce que je sui vraiment nul en PHP.
Heu, si cette méthode est dans le livre, je l'achète!
Merci. :wink:
PS Merci de ne pas me proposer cette méthode que je trouve usine à gaz.
J'ai un forum et j'utilise cette méthode d' URL REWRITING qui est un classique mais qui cause plusieurs duplicate.
Voila, avec un bon fichier robots.txt, j'ai presque réussi à tous les enrayer mais il en reste des plus difficiles à enlever.
Google indexe des url comme ceci:
www.informatruc.com/forum/ftopic6615-0-asc-15.php
au lieu de simplement indexer seulement ceci:
www.informatruc.com/forum/ftopic6615
Voila, comme le forum de WRI est bien très bien référencé, je l'ai examiné plus en détail et je me suis rendu compte par exemple que dans un forum spécifique que les liens [ Aller à la page: 1, 2, 3 ] était de la forme https://www.webrankinfo.com/forum/t/mots-cles-tapes-dans-google-combien-de-fois-par-jour.8591/ et que les liens Aller à la page 1, 2, 3 Suivante dans le post lui même était de la forme https://www.webrankinfo.com/forum/viewt ... c&start=15 ce qui simplifie beaucoup la façon d'éviter les duplicate dans le fichier robots.txt.
Il serait intéressant que Monsieur WRI nous livre sont secret ou encore qu'une âme charitable nous fasse part de la façon pour y arriver, ça serait très sympa parce que je sui vraiment nul en PHP.
Heu, si cette méthode est dans le livre, je l'achète!
Merci. :wink:
PS Merci de ne pas me proposer cette méthode que je trouve usine à gaz.