Duplicat content VS Url_rewriting ?

WRInaute discret
Bonjour,

depuis qqs mois, nous avons entreprit de réécrir les urls de notre portail grace à l'url rewriting, news, annonces, forum etc ... ce dernier n'est d'ailleurs pas completement réécrit.

voyant les bots (merci Robotstats) continuer a scanner les anciennes et les nouvelles urls (réécrites) je voudrais savoir si il existe un moyen d'éviter cela, j'ai cru comprendre que le duplicate content étaient mal perçus ?

merci
 
WRInaute passionné
il faut rediriger toutes les anciennes pages vers les nouvelles par une redirection 301 "moved permanently"
 
WRInaute discret
Mumuri a dit:
il faut rediriger toutes les anciennes pages vers les nouvelles par une redirection 301 "moved permanently"

oui mais lorsqu'il s'agit de plusiers miliers de pages (le forum par exemple) comment faire.
sachant que par exemple les urls de notre forum sont désormais réécrites de cette manière

/topic-topicid-forumid.html

et comme cela au préalable:

/viewtopic.php?topic_id=topicid&forum=forumid

merci
 
WRInaute impliqué
bah la ..

cecileB2K a dit:
Mumuri a dit:
il faut rediriger toutes les anciennes pages vers les nouvelles par une redirection 301 "moved permanently"

oui mais lorsqu'il s'agit de plusiers miliers de pages (le forum par exemple) comment faire.
sachant que par exemple les urls de notre forum sont désormais réécrites de cette manière

/topic-topicid-forumid.html

et comme cela au préalable:

/viewtopic.php?topic_id=topicid&forum=forumid

merci

Bah tu commences par mettre un bon ti robots.txt, et bon, j'ai pas ton url mais je pressent ( ;) ) que tu as un forum phpbb, alors le robots.txt minimum pour les ancienne url c'est :
Code:
Disallow: /dossierphpbb/viewtopic.php?
Disallow: /dossierphpbb/viewforum.php?
Disallow: /dossierphpbb/index.php?


ce à quoi tu peut ajouter :

Code:
Disallow: /dossierphpbb/posting.php?
Disallow: /dossierphpbb/groupcp.php
Disallow: /dossierphpbb/profile.php?
Disallow: /dossierphpbb/memberlist.php
Disallow: /dossierphpbb/search.php
Disallow: /dossierphpbb/login.php
Disallow: /dossierphpbb/faq.php

Ces pages sont d'une utilité relative au recherches, à toi de voir..

Et enfin, si ton rewriting génère des duplicates, car vu ton url il me semble que c'est celui qui se base sur le mod de DLP et qui ajoute les titres, il se peut que cela aussi soit à interdire (car duplicates) :

Code:
Disallow: /dossierphpbb/ptopic
Disallow: /dossierphpbb/ntopic
Disallow: /dossierphpbb/sutra
Disallow: /dossierphpbb/setopic
Disallow: /dossierphpbb/mforum

et enfin, pour tes prochains rewriting de phpbb, pense à jetter un oeil là : https://www.webrankinfo.com/forum/t/url-rewriting-titres-pour-phpbb-v2-solution-globale.31831/

Ce mod fait beaucoup plus que seuleument réécrire les url (en rewritant aussi les resultats de recherche il génère encore moins de duplicates..) en s'entourant d'autre mod compatible à sont stadard d'url..
Lis le post, il t'expliquera aussi comment virer des pages de l'index google ..
voili
++
 
WRInaute discret
Non ce n'est pas du phpBB ... mais ça y ressemble (comme la plupart des forums d'ailleurs) le portail toune sur la première version de xoops, l'url rewriting pratiqué c'es tdu home made ;-)
mais je vais tacher de m'inspirer de cela, merci à toi.
 
WRInaute discret
Curieux je viens de lire dans ce topic => https://www.webrankinfo.com/forum/highl ... .htm#60367 que cela navait finalement pas d'importance ?

je cite Kmacleod
Ces pages là sont dans le cache de google, c'est à lui de faire le ménage dans son index.
Etant donné que ces pages là ne sont plus en lien sur le site et sont orphelines, google va les desindexer d'ici quelques semaines.
Il n'y a donc pas de soucis a avoir avec les pages en php

alors qui croire ?
 
WRInaute impliqué
ouarf

A mon avis c'est une solution a double tranchant, parce qu'avec un Rewriting "double", tu risque de ne pas insiter les moteurs de recherche à trouver tes nouvelles urls, et donc à ne jamais te donner un PR prenant en compte tes belles url..

Quand j'ai changé les miennes, j'ai attendu un peu, deux trois semaines, et pis je suis allé sur Google pour les virer avec leur systeme de supressions auto basé lsur les règles du robots.txt.

Au moins, une fois cela fait, en 5 jour, toutes les mauvaises urls ont disparu de l'index.
Ca, plus la chasse au vieux liens, et en une semaine, c'était réglé, il doit bien rester un ou deux mail qui trainent avec les vielles, mais bon ...
De plus j'ai personalisé mes 404, du coup si on tombe sur une 404 on trouv quand même des liens vers le site :)
Je trouve ça moins foireux que du .htaccess "double" et plus stable à long terme...

++
 
Discussions similaires
Haut