Comment eviter le Duplicate Content ?

WRInaute discret
mon site est gerer par spip et il est completement rewrité (enfin que les url fourins par spip :lol: )
avec des urls du genre
c-bien-webrankinfo.html ou ou-est-le-dj-qui-résous-generalement-mes-problemes.html

le probleme c que je veux proposer le site a google actualité (une nouvelle version de mon WWW qui est en cous de préparation)

et j'aurais alors des urls du genre article0001.html

le probleme qui ce pose du moment que les anciens url ne serons plus dispo esque je risque un duplicate content ??

normalement oui alors d'apres vous robots.txt gere combien d'url (esque ca taille compte?)

merci
 
WRInaute discret
Je pense que sa taille ne compte pas, ce sont des machines et même une grosse liste ne leur fait pas peur ;)
 
WRInaute discret
merci doeurf pour ta réponce c feusable donc

autre question je vien de faire une redirection 404 sur les liens morts vers ma page d'acceuil alors ca posera un probleme??
 
WRInaute impliqué
netsba a dit:
merci doeurf pour ta réponce c feusable donc

autre question je vien de faire une redirection 404 sur les liens morts vers ma page d'acceuil alors ca posera un probleme??

Salut Netsba
C'est vrais que tu avait pres de 300 page en érreur 404, je ne sais pas si les moteurs apprécis cela!!

a confimer
 
WRInaute discret
je vien de mettre sur mon robots.txt tout les liens present sur google j'attend de vois ce que ca va donner
 
Discussions similaires
Haut