GSC : problème de Couverture

WRInaute passionné
BOnjour,
J’ai un site « indexable » de mois de 50 pages. Mais mes utilisateurs génèrent des dizaines de milliers de pages (voir plus), que, bien entendu, je disallow dans le fichier robots.txt et je double avec un noindex dans la page elle même à sa création. Ces pages ne sont pas accessibles (pas de liens internes) depuis mon site.

Dans la Search console onglet « Couverture » tout était correct jusqu’à présent : moins de 10 pages dans « Indexée malgré le blocage par le fichier robots.txt »

Depuis 2 semaines j’observe, une remontée à chaque mise à jour : j’en suis à plus de 300 pages.

Egalement, on m'indique des pages exclues alors qu'elles sont bien indexées (sur première page des SERP)
ET enfin on m'indique des pages "indexées mais pas dans sitemap" alors qu'elles y sont

Est ce que quelqu’un remarque aussi ce phénomène ?
 
WRInaute accro
Work in progress....

boule-de-voyance-477x250.jpg
 
Discussions similaires
Haut