Distribution du PR et robots.txt

Nouveau WRInaute
Bonjour,

J'ai cru comprendre en recherchant sur le web, que la distribution du PR se faisait sur tous les liens internes, même ceux que google ne pouvait pas suivre (erreur 404 ou interdiction par robots.txt).

Pouvez-vous me confirmer cela ?
Si c'est bien le cas, celà veut dire que l'on ne peut pas utiliser le fichier robots.txt pour empêcher "proprement" le gaspillage de PR sur des pages n'ayant pas à se trouver dans les moteurs de recherche ?

Il n'existe pas de moyen plus simple (et propre) de faire celà sans passer par du code javascript (qui commence à devenir de moins en moins efficace au fur et à mesure que google apprent à lire le javascript) ?

Merci pour vos réponses
 
Discussions similaires
Haut