Lien dofollow ou nofollow vers pages noindex ?

Maxence_V

Nouveau WRInaute
Bonjour !

J'ai une petite hésitation : si j'ai un site (une marketplace avec de nombreuses pages annonces qui sont en noindex), vaut-il mieux mettre les liens vers ces annonces en nofollow afin que Google y porte moins d'intérêt, ou les laisser en dofollow ?

Merci d'avance :)
 

emualliug

WRInaute impliqué
Dans le fond, on s'en fout : du moment que la page est noindex, elle ne sera pas indexée. C'est le meilleur des signaux pour que Google ignore une page.

D'un point de vue rigoureux, les liens devraient plutôt être nofollow, puisque si tu ne souhaites pas indexer la page, je suppose que tu ne souhaites pas que Google suive un lien vers cette page. D'autant plus que, pour savoir qu'elle est noindex, le robot est obligé de consulter la page. Théoriquement, cela pourrait entamer le budget de crawl, mais ce n'est supposé être une problématique que pour les très gros sites (de l'ordre du million de pages).
 

Maxence_V

Nouveau WRInaute
Merci beaucoup pour la réponse !

C'est bien ce que je pensais, le principal est que la page ne soit pas indexable. Nous hésitions juste à passer ces liens en Nofollow et je préférai être sûr que ça ne nous pénaliserai pas.

En conclusion, je me dis qu'on peut même laisser tel quel en follow.

Encore merci, bonne journée !
 

UsagiYojimbo

WRInaute accro
ou interdire l'exploration dans le robots.txt

Sur un gros volume, si il reste des liens, Google va outrepasser le disallow, et ça va faire croitre les erreurs de type "Indexé malgré le blocage du robots dans la search console). C'est clairement le genre de cas où je préfère obfusquer.
 

Maxence_V

Nouveau WRInaute
Sur un gros volume, si il reste des liens, Google va outrepasser le disallow, et ça va faire croitre les erreurs de type "Indexé malgré le blocage du robots dans la search console). C'est clairement le genre de cas où je préfère obfusquer.

En effet, nous avons beaucoup d'erreurs "Indexée malgré le blocage par le fichier robots.txt". Tu recommandes vraiment l'obfuscation sur autant de liens ? plutôt que juste un nofollow ?

Merci pour ta réponse en tout cas
 
Dernière édition:

Marie-Aude

WRInaute accro
Ton erreur est liée semble t il au fait que tu n'aies pas mis le nofollow. Ce n'était peut être pas clair dans ma réponse, mais il faut absolument mettre de façon cohérente le noindex, le nofollow et le blocage robots.txt

Si c'est le cas et que ces erreurs subsistent, alors oui obfusquer. Quel serait le problème à obfusquer de nombreux liens ou juste deux ou trois ?
 

Maxence_V

Nouveau WRInaute
Oui en effet je n'ai pas mis les liens entrants en nofollow. Mais je ne sais pas si tu parles du nofollow sur les liens entrant ou celui dans la balise "<meta name="robots" content="noindex, nofollow" />" ?

Je pensais qu'un simple noindex sur une page suffisait. Cependant il vaut mieux faire noindex, nofollow sur la page + nofollow sur les liens entrants + disallow robots.txt selon toi ?

Pour l'obfuscatiuon c'est juste mon manque d'expérience qui fait que je ne suis pas 100% serein à obfusquer autant de lien car je me dis que si Google le découvre un jour, il risque peut-être de nous pénaliser.
Mais sinon oui c'est la solution la + efficace selon moi :)
 

emualliug

WRInaute impliqué
Mais je ne sais pas si tu parles du nofollow sur les liens entrant ou celui dans la balise "<meta name="robots" content="noindex, nofollow" />"

Je parle du nofollow sur l'attribut "rel" d'une balise <a> (donc des liens entrants).

nofollow pour la méta robots a une autre signification : il indique de ne pas suivre les liens de cette page. On pourrait très bien demander à ce qu'une page ne figure pas dans les résultats (noindex), mais néanmoins que ses liens soient suivis.

Je ne vois pas d'intérêt particulier à mettre la méta robots à nofollow au seul motif que la page soit noindex. Par ailleurs, mis à part éviter des orphelines, je ne suis pas certain qu'autoriser l'exploration des liens d'une page noindex ait un apport en SEO.

Je pensais qu'un simple noindex sur une page suffisait.

Une fois encore, si l'objectif est que la page ne soit pas indexée, "un simple noindex" suffit.

Cependant il vaut mieux faire noindex, nofollow sur la page + nofollow sur les liens entrants + disallow robots.txt selon toi ?

Quand j'indique que, par rigueur, on devrait marquer les liens entrants en nofollow, ce n'est pas pour assurer une non-indexation plus sûre : c'est plus dans l'objectif de l'optimisation du crawl. Et au risque de me répéter, le budget de crawl n'est que très rarement un problème pour un site.

Le disallow dans robots.txt a plus ou moins la même vertu : économiser le crawl. Mais c'est toujours un peu dangereux, notamment parce que la directive disallow n'empêche pas l'indexation (mais uniquement l'exploration), et qu'ainsi, à l'inverse, en interdisant à Google d'explorer la page, il ne prendra pas connaissance de l'attribut noindex.

Autrement dit, le disallow cumulé avec le noindex peut paradoxalement amener une page à être indexée.
 

Maxence_V

Nouveau WRInaute
Merci beaucoup pour ces précisions, ça m'aura été d'une grande aide. Super gentil de ta part d'avoir donné ces conseils ;)
 

Discussions similaires

Haut