Bonjour, J'ai un site de programme TV. J'ai mis les fiches de programme TV en "noindex" car c'est du contenu récupéré et sans intérêt donc en SEO (duplicate content avec les autres sites de programme TV). J'ai également mis en place une tache qui supprime les anciennes fiches de programme TV car sans intérêt de les conserver. Seulement, dans le search console je reçoit un erreur Augmentation des pages "404" sur ces fiches de programmes TV car elles sont supprimées. Je vois aussi la désindexation de pages "index" de mon site avec déclassement dans les serps ! Je comprendrai cette erreur si les fiches de programmes TV étaient en "index" puis supprimées par la suite mais ici je demande à Google de ne pas les prendre en compte. Qu'en pensez vous ?
Bonjour, Arrivez-vous à identifier les pages désindexées qui "devraient" rester indexées ? De quelles natures sont-elles ?
Merci de votre réponse, il m'est pas possible de savoir quelles pages sont désindexées. Ce sont en tout cas des pages classiques comme les autres. Le site est récent, l'indexation était correcte jusqu'à ces erreurs. Comme régler ce problème d'erreur 404 car il me semble que ce soit négatif pour le SEO ?
Non, les 404 ne sont pas négatives. C'est la vie normale du site. Il faut juste s'assurer qu'il n'y ait aucun liens internes qui pointent vers ces pages. Ceci serait négatif. Vous devez faire en sorte de pouvoir identifier les pages désindexées en utilisant s'il le faut plusieurs sitemaps. Sinon vous ne voyez pas ce que Google fait avec votre site...
Ok les liens internes du site pointant vers ces pages noindex doivent être en nofollow de ce fait j'imagine.
si les fiches programmes sont tout le temps en noindex, ça ne sert à rien de laisser Google aller dessus. Il faudrait idéalement qu'elles soient regroupées dans un répertoire et qu'il soit bloqué au crawl (robots.txt)
Merci pour la réponse. J'y avais pensé mais le site se compose comme suit : domaine.com/programme-tv/ domaine.com/programme-tv/tf1 domaine.com/programme-tv/fiche-programme-tv-noindex Il faudrait une règle pour bloquer les fiches domaine.com/programme-tv/* mais cela bloquerait les autres pages qui doivent être indexées.
n'est-ce pas possible de modifier l'URL de ces fiches (pour les regrouper dans un sous-répertoire) ? l'impact SEO ne peut pas être négatif puisqu'elles sont déjà censées être désindexées cela dit, ce n'est pas vraiment un pb. Google crawle des URL pour rien, constate à chaque fois qu'il y a un noindex. ça serait mieux de l'empêcher de les crawler, mais ça ne pénalise pas.
On dit souvent que ça plombe le budget de crawl alloué au site par GG. Mais si ça se trouve le fait de les bloquer au niveau du robots.txt consomme autant de budget ?
En effet, je vais mettre en place un sous répertoire pour les fiches afin de les bloquer via robots txt Code: Disallow: /programme-tv/fiche/fiche-programme-tv-noindex/ Cela je ne sais pas
en effet, ces pages sont crawlées bien que non indexables, elles consomment du budget alloué au crawl. s'il y en a beaucoup, ça peut finir par jouer