Noindex et follow : que faire pour des vieilles actualités (archives) ?

Nouveau WRInaute
Bonjour à tous,
J'ai toujours entendu que page sans trafic est une page à désindéxer. Surtout si notre site contient des milliers de pages afin d'optimiser le budget crawl.
Je travaille sur un site d'actu qui compte des milliers de pages, mais j'ai une question dont je ne trouve pas de réponse. Est-ce qu'une fois la page mis en noindex, les liens de cette page transmettent le jus de liens? J'ai lu des déclarations de Muller il y a quelques années pour qui à force les liens finissent en nofollow. Ce qui serait logique.

Du coup au niveau du netlinking et maillage interne, j'ai peur de perdre du jus.
Qu'en pensez-vous?
Faut-il isoler les pages desindexer des pages et donc les supprimer du maillage interne?

Merci à vous
 
Nouveau WRInaute
Bonjour, pourquoi supprimer vos anciens contenus ? Je ne vois pas pourquoi Google pénaliserait la présence d'anciens contenus éditoriaux sur un site de presse...
 
WRInaute occasionnel
L'important, c'est que les articles d'actualité ne soient présents que sur un sitemap news qui ne prend que les derniers articles plutôt qu'un sitemap normal.

Après cela dépend des articles, pour ma part, je désindexe les vieilles actualités qui n'ont plus d'interets et gardent celle qui sont toujours interessantes.

Après, oui, on perd les liens des articles des-indexés, mais je ne pense pas qu'ils aient une grande valeur quand la page elle même n'interesse déjà plus google.
 
Nouveau WRInaute
Bonjour, pourquoi supprimer vos anciens contenus ? Je ne vois pas pourquoi Google pénaliserait la présence d'anciens contenus éditoriaux sur un site de presse...

Il ne pénalise pas, mais quand le robot vient explorer le site, si il commence à aller dans les articles qui date, le temps de crawl qu'il utilise pour ces derniers est perdue.

De plus il y a des articles qui font moins de 250 mots, beaucoup. Je me demande si il ne l'assimile pas à du contenue faible (coucou panda) alors que ce sont des contenus qui font 0 visites.
 
Nouveau WRInaute
c'est une très bonne question. Il me semble avoir vu que Neil Patel notamment met à jour ses anciens contenus qui peuvent accueillir une maj. Par contre si c'est une info qui a une temporalité (remplacée par une autre info) il supprime l'indexation.
 
Dernière édition par un modérateur:
Nouveau WRInaute
J'ai le même problème.
J'avais dans un premier temps tenté de mettre mon ancien contenu en nodindex follow : ce n'était pas une bonne idée.
Dans le même temps j'ai des centaines de pages avec une pagination de plus de 300 pages qui me fait gaspiller du budget crawl.
Un vrai casse tête ...
 
Nouveau WRInaute
Et si on veut chercher des vieilleries dans google ou une tre vieille version d'un site web. Toutes les merdouilles composent le web. De toute façon, chaque fois qu on presse sur une touche d'un clavier, c'est enregistre quelque part a tout jamais dans la machine.
google machin, il est quand meme un peu programme pour repasser dans les pages qui ont change, sur les forum qui bougent et vraiment moins souvent les contenus qui bougent pas. sinon, il serait deja mort. Donc les vielleriies, a moins qu 'on ait vraiment plus de place, faut les laisser vivre dans leur coin. ca donne du volume
 
Nouveau WRInaute
aussi : attention au fichier robots.txt qui peut annuler les balises meta.
enfin il faut etre clair entre la signification de noindex et nofollow c'est différent, regarder les articles sur le web a ce sujet.
le sitemap, c'est une des solutions, mais il faut verifier les priorites dans la dexindexation
exemple un lien interne dans le site peut conduire a tout annuler pour google et le bot...
 
Discussions similaires
Haut