[désindexation] Les nouvelles pages chassent les anciennes

WRInaute discret
Salut à tous,
Les pages de mon site (en www) sont, pour beaucoup d'entre elles, désindexées de google depuis un mois. Par "désindexées", j'entends qu’elles perdent leur description et leur version en cache. Pourtant, je pense que ce site est - comme bc d'autre - réglo.

Mais j'ai observé quelques choses d'intéressantes. Les rares pages indexées sont, soit des pages très anciennes, soit des pages visitées récemment par googlebot. En effet, googlebot passe une fois par semaine environ, visite une dizaine de pages. Ces pages apparaissent quelques jours plus tard dans l'index avec la description... mais, en même temps, les pages indexées 10 jours plus tôt perdent leur description !

Avez-vous déjà remarqué ça ?
Est-ce une insuffisance du PR (ou une sanction ?) qui fait que google n'effectue que des crawl partiels et ne retient pas les pages du crawl précédant ?
Bref, avez-vous une théorie ? même fumeuse ? :D

Ps : si ce sujet a déjà été rabattu mille fois, veuilliez m'excuser et me donner le lien vers le bon topic. :eek:
 
WRInaute occasionnel
Bonjour,

Je n'ai jamais été confronté à ce genre de cas.
Petite suggestion néanmoins : Un meta description par page, ça te dirait pas d'essayer pour voir ce que ça donne ?
Désolé je ne vois rien d'autre ...
 
WRInaute discret
Merci pour l'idée, mais beaucoup de page ont déjà leur propre meta description.
Par exemple dans la rubrique sur les palmiers (-http://7px.net/Nature/Plantes/Palmiers/), toutes les espèces l'ont, mais aucune n'est dans l'index. :s
 
WRInaute discret
thk ;)

Peut-être un problème de profondeur de crawl, car mon site se base sur des répertoires ?
Mais pourquoi le problème ne se manifesterait-il que maintenant ?
 
WRInaute discret
Je sais qu'il y a beaucoup de pages servants à la navigation, elle sont donc sémantiquement assez similaires. J'ai donc mis un "noindex, follow" sur toutes les pages sans réel contenu.
Normalement, puisque ces pages ne sont pas dans l'index, ça ne devrait pas me pénaliser ?
 
WRInaute occasionnel
As tu proposé un fichier sitemap à google ? (j'ai l'impression qu'il remet un peu à 0 quand on lui fournit un map mais c'est peut-être juste une impression :D )
 
WRInaute discret
Non, j'ai pas fait de sitemap.

En parlant de sitemap, vous pensez qu'à long terme ça serait bénéfique d'en avoir un pour un site comme ça ? Les m-à-j sont très aléatoires...
 
Nouveau WRInaute
no follow is fellow

Peut etre que le "no follow" n'est pas une super bonne idée....
pourquoi ne pas laisser le robot suivre sont petit chemin tranquille... et le laisser suivre et naviguer sur le site comme il en as envie... il ne faut pas trop contrarier les robots parait-il... :roll:
 
WRInaute discret
C'est un "noindex, follow", mais tu as peut-être raison.
Par contre, si je le vire, ça ne va pas arranger les choses pour la similarité des pages. J'ai peur de troquer un problème pour un autre...
 
WRInaute discret
De toute façon, avec 14% de page indexée (et pas les meilleures), j'ai rien à perdre. Quoique changer de gros trucs en ce moment serait peut-être mal vu ?
 
WRInaute discret
Pour revenir sur l'avis de rolriam, depuis que j'ai mi moi même un site map, mon nombre de page est revenu à 0 :roll:
 
WRInaute occasionnel
Ce nombre va augmenter en théorie... As tu vérifié que le map était correct (url des pages etc) ?
 
WRInaute discret
C'est de pire en pire, aucune visite depuis 2 jours venant de google ! Alors qu'avant le début du mois d'août, j'en avais une centaine par jour. :?

Googlebot est venu prendre une seule page (interne) cette nuit, avec un peu de chance, ça sera la seule indexée dans 24 heures...
 
WRInaute discret
Ca y est j'ai retrouvé mes 230 pages dans l'index. !

Je devrais me réjouir... MAIS, je crois bien être tombé dans un truc genre sandbox, car je n'ai toujours aucun visiteur venant de google ! J'ai à peu près 180 pages qui ressortent avec "site:7px.net /****************************", c'est bien le signe de la sandbox ça ?
 
Discussions similaires
Haut