Baisse des visites des googlebot

Nouveau WRInaute
Bonjour,

Via les outils d'admin pour webmasters, je constate que depuis environ 2 mois le nombre de visites des googlebot ne fait que diminuer et a été divisé par 3 par rapport à ce qu'on avait avant. On est passé d'environ 60 000 pages scannées par jour en juin à environ 20 000 aujourd'hui.
Ce que je ne comprends pas c'est que j'ai justement demandé à google d'augmenter la fréquence d'indexation car nous avons des machines qui encaissent mieux la charge.
Plus ou moins à la meme période nous avons changé les adresses IPs de nos noms de domaines, changé la liaison Internet et le firewall de nos serveurs (ce qui a eu pour effet de diviser par 2 le temps de réponse de nos serveurs). Ces améliorations peuvent elles avoir un lien quelquconque avec mon problème ? (mais je ne comprendrais pas pourquoi)
Merci à tous,

Julien
 
WRInaute occasionnel
"60 000 pages scannées par jour"
Pose toi la question, "as tu 60 000 pages qui changent tous les jours ?" si c'est non tu as toi même la réponse.
 
Nouveau WRInaute
carrel >> Dans les outils pour webmasters de google, on peut définir la vitesse d'exploration.

Roi >> J'ai environ 6 millions de pages à faire indexer. (Il ne s'agit pas d'un annuaire de sites) Nous en avions eu 2 millions d'indexées mais nous sommes retombés à environ 600 000. Un concurrent à nous en a presque 8 millions d'indexées...

fredfan >> Oui cela pose un problème dans le sens ou notre but est - comme tous les sites - d'etre le plus visible possible et donc d'avoir le plus de pages indexées.

Merci à tous.
 
WRInaute accro
Peut-être que le problème d'être passé de 2 millions à 600 000 n'a rien à voir avec la fréquence de passage de googlebot
Je crois que ce que voulait dire Carrel c'est qu'on peut dire à google de passer plus souvent mais c'est comme pisser dans un violon il passera quand il l'aura décidé
 
Nouveau WRInaute
Peut etre aussi qu'il y a un soucis de dupplicate content et qu'il n'y a que 600 000 pages intéressantes pour Google.
 
Nouveau WRInaute
fredfan >> Pour la fréquence de passage des googlebot, quand tout allait bien je ne la surveillais pas, c'est maintenant que j'y suis attentif donc je ne peux malheureusement pas comparer.

vaxrei >> Pas de duplicate content, les pages sont vraiment différentes
 
WRInaute accro
La démarche inverse pourrait donner un résultat : demander (par sitemap) à google de passer moins souvent sur les pages qui ne changeront probablement pas et qui sont déjà référencées.
Quand google constatera que son crawl lui amène toujours des informations fraiches il pourrait décider de passer plus souvent.
Ce n'est qu'une idée je ne sais pas ce que ça donne.
 
WRInaute accro
carrel >> Dans les outils pour webmasters de google, on peut définir la vitesse d'exploration.

Je savait pas désolé.

Je vais tester merci.

En même temps il faut pas rêver ils ont du boulot et sont assez indépendant :lol:
 
Nouveau WRInaute
fredfan >>

C'est ce que j'ai fait il y a 20 jours :
J'ai soumis un petit sitemap de 130000 entrées dont seulement 10 000 étaient indexées par google.
Aujourd'hui, sur ces 10 000 entrées indexées il n'y en a plus que 4000 qui sont indexées.

Je vais de toutes façons renouveler le sitemap en début de semaine prochaine.
 
Membre Honoré
En indiquant le site web, les réponses peuvent être plus pertinentes pour mieux comprendre le référencement.
 
Nouveau WRInaute
Pour revenir sur le duplicate content, je pensais qu'il s'agissait de contenu vraiment strictement identique.
D'après ce que j'ai lu sur le net et une discussion avec vaxrei il semblerait que non.
Après vérif, dans les outils webmasters de google, nous avons bien indiqué notre site avec les www en domaine favori. Le duplicate content n'est donc pas interne (meme si nous devons reglé un pb de redirection du site sans www vers www mais qui ne semble pas poser de pb lorsque l'on fait un site:)
Si on peut etre considéré en duplicate content parce que l'on présente des informations similaires à celles présentées sur d'autres sites, comment s'en sortir ?
On ne peut pas inventer de l'information.
Par exemple un site comme allocine ou ses concurrents : ils auront forcément la meme base d'informations (sans compter les avis postés par les internautes)


Madrileño >> Je préfère ne pas poster le nom du site, mais en gros c'est un annuaire spécialisé (comme allociné mais dans un autre domaine)

Merci à tous.
 
Discussions similaires
Haut