Interdiction de référencement

Nouveau WRInaute
Bonjour,

Pour des raison d'eviter le duplicate content, j'aimerais limiter l'intégration de certaines pages dans la base de donnée de google.

Je connais deux manières :
- Fichier robots.txt
- Balise meta "robots"

Les deux sont performantes ?
Est-il conseillé de mettre les deux ou une seule ?

Merci
Philippe
 
WRInaute discret
Les deux sont performantes car google tient compte des deux.

Pas la peine de mettre les deux. Choisi celle qui te semble la plus intéressante pour toi au niveau gestion...
Robot.txt : liste des pages et répertoires interdits (centralisé)
Meta : gestion page par page (plus lours en théorie, sauf si tu gére les droits d'accés directement dans la base de données).

Banji
 
WRInaute occasionnel
J'ai tendance à penser que Google ne tient pas tellement compte de la balise meta "robots", car mes pages ont toujours étaient indexé quand je le lui ai interdit :lol:

robots.txt me semble plus efficace, quoi que j'ai déjà eu des pages indexés quand même ...
 
Nouveau WRInaute
Oki.

De fait, robots.txt serais plus simple (Une modif de fichier et je fais mes changements)

Qu'il indexe une page ... c'est pas hyper grave, mais par exemple c'est con qu'il indexe une meme page juste avec un changement minime fait pour faciliter le surf du visiteur.

C'est dans cette optique, donc je vais opter pour un robots.txt

Merci de vos avis.

Philippe
 
Discussions similaires
Haut