Fiabilité de la commande site: sur Google

Nouveau WRInaute
Bonjour à tous,

Depuis quelques temps j'observe des comportements étranges de la part de google que je n'arrive pas à expliquer :
Passage des googlebots : environ 70 000 pages par jour. On pourrait s'attendre à ce que le nombre de pages indexées par google augmente mais au contraire, lorsque je fais un "site:" je constate depuis quelques semaines des pertes quasi quotidiennes de plusieurs milliers/dizaines de milliers de pages.
En gros en début d'année, j'avais environ 2 000 000 de pages indexées, en septembre il m'en restait 600 000, aujourd'hui il y en a moins de 300 000.

Parallèlement à cela, le onmbre de visites issues de google ne semble pas être réellement affecté par la baisse de ce mois dernier (mais on a par contre perdu énormément de visiteurs provenant du référencement naturel par rapport au début de l'année)

Avez vous également constaté un comportement étrange des résultats obtenus via un "site:" ?

Merci à tous pour vous retours d'expérience,

Julien
 
WRInaute passionné
bonjour,

déjà 2 millions de pages indexées, c'est forcément du contenu généré à la volée et donc peu pertinent, je me trompe?

sinon, avez-vous par hasard soumis un sitemap en cours d'année? j'ai l'impression de voir beaucoup de soumissions de sitemap suivies de désindexation, ces temps-ci, sur le forum.
 
Olivier Duffez (admin)
Membre du personnel
pour t'aider il faudrait déjà que l'on sache combien tu as de pages sur ton site ! Cela dit en effet cette commande n'est pas très fiable / précise
 
Nouveau WRInaute
Bonsoir et merci pour ces premières réponses.

Pour le site, il y a en gros 6 millions de pages pertinentes, c'est un site BtoB.

Pour les sitemap, en fait fin 2007 nous avons soumis un sitemap reprenant l'essentiel des pages pertinentes du site.
Cet été, face à nos problèmes, nous avons essayé de ne soumettre qu'un petit sitemap (130 000 urls). google ne semble pas en tenir compte puisque seulement 30 000 urls de ce sitemap sont à présent indexées.
 
WRInaute passionné
julien20vt a dit:
Cet été, face à nos problèmes, nous avons essayé de ne soumettre qu'un petit sitemap (130 000 urls). google ne semble pas en tenir compte puisque seulement 30 000 urls de ce sitemap sont à présent indexées.
mhh, pas une bonne idée cette histoire de mini-sitemap, cette idée "sort d'où" au fait?
(par contre je veux bien l'url, éventuellement en MP?)

d'une manière générale il convient de ne pas compter sur un sitemap pour booster l'indexation.
 
Nouveau WRInaute
madrileño, pas de souci, je ne l'ai pas précisé mais nous avons fait des sitemaps de moins de 50 000 urls et un sitemap index qui les répertorie, on a bien respecté les règles.
 
Membre Honoré
julien20vt a dit:
madrileño, pas de souci, je ne l'ai pas précisé mais nous avons fait des sitemaps de moins de 50 000 urls et un sitemap index qui les répertorie, on a bien respecté les règles.
C'était en voyant :
julien20vt a dit:
Cet été, face à nos problèmes, nous avons essayé de ne soumettre qu'un petit sitemap (130 000 urls). google ne semble pas en tenir compte puisque seulement 30 000 urls de ce sitemap sont à présent indexées.
En fait le sitemap permet d'aider Google pour connaître les urls.
Mais les pages ne se référencent pas naturellement.
Il peut s'agir d'un problème d'architecture ou d'un manque de liens.

N'hésitez pas aussi à participer sur le forum pour en savoir plus sur le référencement en réalisant des échanges avec la communauté.
 
Nouveau WRInaute
J'avais effectivement pris un raccourci en parlant du sitemap qui rendait mon explication confuse, désolé.

Initialement je pensais que le sitemap incitait google à explorer les urls que nous lui présentions, mais effectivement c'est une erreur.
 
WRInaute passionné
Bonjour,

Je n'utilise le sitemap que tres rarement, autant dire que je ne crois pas que ce soit necessaire...

J'ai egalement remarqué une baisse des pages indexées sur certains de mes sites en ce moment mais en general cela revient cycliquement.
 
WRInaute accro
julien20vt a dit:
Pour le site, il y a en gros 6 millions de pages pertinentes, c'est un site BtoB.

Comment qualifierais-tu leur "originalité" ?
Penses-tu qu'elles pourraient être trop similaires entre elles ?
 
Nouveau WRInaute
Hawkeye >> Je pense effectivement que cela doit etre une partie du problème.
En effet, même si les données intéressantes sont toutes différentes, le gros du poids de la page est constitué par des éléments communs (menus, tableaux,...)
Ce qui je pense doit faire perdre de l'intéret pour google.
 
Discussions similaires
Haut