Lien javascript

Nouveau WRInaute
Bonjour,

J'ai des pages inutiles qui ont un gros PageRank grace à des liens internes.
donc je voudrais faire des liens en javascript pour que les robots ne prenants pas en compte ces liens.

soit :
<a href="JavaScript:location('page.html')">lien page</a>.

Mais ce qui m'inquiète ce que je ne trouve aucune trace cette utilisation. comme je travaille pour un site très important, je besoin vraiment d'être sur que c'est bien comme cela que ça marche.

Merci de vos réponses.
 
WRInaute discret
Gros PR ?...
Veux bien un lien vers mon site sur ces pages :D

Pour ta question, désolé, je n'ai jamais essayé ça.
 
WRInaute occasionnel
Je ne comprends pas l'interêt de cette méthode.
mellow.gif

Dites moi si je me trompe, mais normalement la quasi totalité des webmasters, souhaite augmenter le pr de leurs pages, et non le diminuer, n'est-ce pas ?
mellow.gif
 
WRInaute occasionnel
Ce n'est pas "diminuer le PR" mais son but est de "répartir son capital PR".

Moi aussi je voudrais bien savoir si cette méthode de lien en javascript marche.

Merci,
Fred
 
WRInaute occasionnel
Le lien marche mais est-ce que quelqu'un peu confirmer qu'il n'est pas suivi par les robots ?

Merci,
Fred
 
Nouveau WRInaute
C'est sur qu'un lien javascript est inopérant pour Google et autres.
Durant plusieurs moi tous mes liens étaient en : javascript:go(n)
n de 1..n et pas une seule page référencée (hormis la home naturellement). C'est donc un bon moyen d'empêcher un moteur d'y aller. (tu peux normalement préciser dans robots.txt un emplacement interdisant aux moteurs d'aller y indexer les pages).

Dés que j'ai eu remplacé les javascripts par des liens en dur, en 3 jours ça a été l'envolée.

En revanche, si tes pages en html étaient déjà indexées par Google, elles le resteront un certain temps, puisqu'elles existeront toujours : le temps qu'il s'aperçoive qu'elles ne sont plus liées à ton site (ça peut prendre plusieurs semaines (de par mon expérience)).
 
WRInaute impliqué
mais si tu fais des liens en javascript on peut presque etre sur que se sont des personnes vivantes et non des robots qui vont sur la page.

Moi par exemple je l'utilise pour que google n'indexe pas plein de fois les mêmes pages avec juste qq petis changements sur les pages..!!!
 
Nouveau WRInaute
ouep moi aussi j'ai gros site en cours et je ne voudrais pas que GG prenne en compte les pages qui ne servent à rien pour le referencement.

Je pense que ça m'évitera même de disperser l'impact des autres pages. Je me dis que ça plante un peu les positions.

Par ailleurs les pages avec les prix triés et autre sont trés proches et il y a peut être un risque de duplicate content. Non ?

Enfin bref je crois avoir trouver le moyen de repousser GG et autres spiders : <a href="JavaScript:location('page.html')">lien page</a>.

Tete qu'un robot.txt garantira la non indexation.
Merci
 
Discussions similaires
Haut