Bonjour,
Pour améliorer le référencement de mon site, j’ai entrepris d’appliquer les bonnes pratiques : renseignement des titres, des meta, alt ; chasse au contenu dupliqué ; réécriture d’URL …
Cependant, tout ce cela prend du temps et n’est pas toujours possible (simplement) sur les parties « techniques » du site.
J’ai commencé le chantier par les pages de haut niveau (40 pages, soit 10%) et je me pose maintenant la question de savoir si les pages non optimisées ne tirent pas le PR de mon site vers le bas et s’il ne vaudrait tout simplement pas mieux les exclure de l’indexation avec un robots.txt en attendant qu’elles soient à un niveau de qualité suffisant?
Question complémentaire : le Netlinking vers des pages exclus est-il ignoré ?
Merci pour vos retours
Pour améliorer le référencement de mon site, j’ai entrepris d’appliquer les bonnes pratiques : renseignement des titres, des meta, alt ; chasse au contenu dupliqué ; réécriture d’URL …
Cependant, tout ce cela prend du temps et n’est pas toujours possible (simplement) sur les parties « techniques » du site.
J’ai commencé le chantier par les pages de haut niveau (40 pages, soit 10%) et je me pose maintenant la question de savoir si les pages non optimisées ne tirent pas le PR de mon site vers le bas et s’il ne vaudrait tout simplement pas mieux les exclure de l’indexation avec un robots.txt en attendant qu’elles soient à un niveau de qualité suffisant?
Question complémentaire : le Netlinking vers des pages exclus est-il ignoré ?
Merci pour vos retours