Baisse subite des pages indexées

Nouveau WRInaute
Bonjour,

Un de mes sites sur lequel a été effectué pas mal d'interventions pour booster le référencement est en train de réduire dangereusement le nombre de ces pages indexées dans google. Pour l'historique, voici un petit historique des interventions :

- lorsque j'ai repris le site : 4000 pages indexées sur 16 000+ pages potentielles issues de la base de donnée
- en faisant en sorte de rendre visible bon nombre d'url et en mettant en place de l'url rewriting + réécriture des metas (titre adaptés, redirection 301 url avec des parametres -> url réécrite), le site est passé de 4000 à 10 000, puis plus de 50 000 (!) pages indexées dans google.

Cette situation a fonctionné pendant environ un an, sans aucun soucis, en continuant d'optimiser le site sur les contenus etc donc tout allait bien.

Le soucis c 'est que maintenant, le site a chuté au niveau de ses pages indexées et tourne actuellement autour de 1500 ...
Cela fait donc un an maintenant que le site était bien indexé, puis sans modification de la visibilité des urls et de changements de fond en terme technique, il commence à baisser.

Je pourrais expliquer cela par les éléments suivants, mais j'aimerai bien avoir le point de vu de personnes à qui cela est arrivé histoire de me faire un idée plus précise :
- le site est fait en tableau
- il existe un listing de toutes les pages visibles sur le site (accessible via un lien mais plus destiné au moteur), une sorte de gros plan du site segmenté sans réelle charte graphique
- cela pourrait génerer du duplicate content à l'interieur du site, selon moi ce n'est pas grave mais ...
- certaines urls ne sont pas réécrites
- il n'a pas de sitemap (oui je sais mais cela fonctionnait bien sans)
- la pagination des résultats est faite avec des post (!), d'ou le listing des pages ailleurs sur le site

L'idée n'est pas de me dire refonte ! mais plus de m'orienter vers un éventuel pourquoi du comment en sachant que rien n'a changé sur le site. D'ailleurs les GWT me disent que tout va bien, le site est rapide etc, les termes de recherche vont bien .. j'ai demandé un rééxamen mais bon j'aimerai quand même savoir pourquoi google à réagi comme ça ...

Merci de vos réponses :wink:
 
WRInaute accro
Bonjour,

suis tu les pages indexées avec la commande site: sous Google ?
as tu constaté la moindre baisse de trafic ?
 
WRInaute impliqué
Le duplicate content peut faire diminuer le nombre de page indexées (google élimine les doublons de son index).

Après c'est dure de faire des conclusions sans savoir quel est le site :)
 
Nouveau WRInaute
@e-kiwi : le nombre que je donne est le résultat de la commande site:domaine.tld, en baisse donc ...
Il y a effectivement une énorme baisse de traffic, c'est d'ailleurs cela qui m'a mis la puce à l'oreille

@haroeris : justement, je me pose la question pour le duplicate content, puisque le nombre de pages indexées avait monté grace à cette méthode, pourquoi redescendrait il au bout d'un an ?
 
WRInaute accro
Ok, car la commande site: de google est bridée, elle peut t'afficher d'un coup une perte de 90% des pages indexées ou une hausse de 1000% des pages indexées sans que cela soit juste ...

par contre, le fait que le trafic moteurs baisse est bien plus inquiétant. est-ce sur des mots clés précis ou sur "la longue traine" ?
 
WRInaute impliqué
@haroeris : justement, je me pose la question pour le duplicate content, puisque le nombre de pages indexées avait monté grace à cette méthode, pourquoi redescendrait il au bout d'un an ?

Peut être parce que que Google durcit le ton :D

Je trouve pas de document sur la main pour te prouver , mais google fait vraiment de plus en plus attention à ca, et certains ont eu de gros problèmes :wink:
 
Nouveau WRInaute
Les 4 mots clés "phares" du site sont toujours biens positionnés, c'est donc sur la longue traine que le probleme se passe, et même si la commande site: est bridée, il y a effectivement un rapport entre la supposée baisse du nombre de page indexée et la chute de traffic sur les mots clés de la longue traine. La question reste pourquoi ?

Pour le duplicate content, ok pour dire que google supprime les pages en doublon de son index, mais il doit normalement en conserver une sur les deux, donc on devrait avoir à tout casse une basse de 50% des pages indéxées. La je suis passé de 50 000 à 1500 !
 
WRInaute impliqué
Même constats de mon côté, même si ça remonte depuis quelques jours (doublement entre lundi et aujourd'hui)
Connaissez-vous un outil de suivi (graphique) pour le nombre de pages indexées sur google ?
 
WRInaute occasionnel
Bonjour,

Mon site ne peut rivaliser avec le vôtre, il comporte seulement 28 pages, mais j'ai le même problème, Google joue au yoyo , en ce moment, il indexe mes 28 pages, puis seulement 24, puis 26 , puis à nouveau 28 etc... et la commande site affiche toujours 29 page (y compris le sitemap)... Allez comprendre !

Je crois qu'il ne faut pas se prendre la tête avec ça, bien sûr vu le nombre de vos pages le yoyo permanent entraîne des variations importantes mais je ne pense pas que ce soit une catastrophe.

De toute manière, avons-nous le choix ? Non, alors autant s'y faire !

Cordialement,

Pierre
 
Nouveau WRInaute
Bonjour,

zeplopz est ce que le problème continu chez toi ?

Je viens au nouvelles parce que de nombreux sites on l'air d'être touchés par ce problème
 
WRInaute occasionnel
Je confirme le problème sur deux des sites que je gère.

Sur le premier je suis passé de plus de 16000 pages (réelles et existantes sans DC) indexées à 3500 ???
Du coup, je me retrouve avec plus de 4800 images, soit plus que le nombre de mes pages ???

Je note une baisse de la fréquentation, passant de 1200 à 500 ces derniers jours. Je ne suis pas intervenu sur le site sauf pour y ajouter du contenu.

Sur le second site, un site de vente, aucune baisse de trafic constaté, mais le nombre de pages indexées est passé de 4000 à 350 ???

Etonnant non ?
 
Discussions similaires
Haut