OVH 90plan et GoogleBot (again ?)

WRInaute accro
Nous sommes plusieurs à constater une baisse importante de la fréquentation GoogleBot (nombre de pages crawlées) sur certains sites.

google_bot.jpg


Après vérification, cela n'impacte que nos sites hébergés sur du 90plan OVH, depuis la fin du mois de janvier.
Est-ce que ça se produit sur vos 90plan également ?
Est-ce le cas sur du 60gp et autres hébergements mutualisés OVH ?

Merci pour le retour d'info.
 
WRInaute passionné
Surtout qu'ils doivent expédier les Bots sur des serveurs plus lents et qui propose une image du site pas forcément très récente. Donc adieu à l'indexation en 10 minutes.
 
WRInaute accro
Moi aussi j'ai une grosse baisse de crawl début février sur trois sites ovh
mais aussi sur un gros site sur Sivit qui subit la meme baisse (et netavous pareil)

donc je ne pense pas que ce soit du à ovh, mais plutot à des googlebot fainéant ou occupés ailleurs)
 
WRInaute occasionnel
idem sur un de mes site ovh (60gp).

et sur un start1g, disk quota excedeed alors que j'utilise 60Mo sur les 10Go, mais ça c'est un autre pb. et par contre pas de baisse de crawl sur ce start1g
 
WRInaute passionné
Certains clients nous remontent des soucis dans le référencement de leur site Web (principalement hébergé sur 90plan) par le robot de Google.
Nous sommes en contact avec Google afin de résoudre le problème rapidement.

:evil:
 
WRInaute passionné
Non je n'ai pas encore eu de réponse
C'est sur les travaux

je suppose qu'ils se demandent pourquoi ils reçoivent tant d'appels à ce sujet ;-)
 
WRInaute occasionnel
kmenslow a dit:
http://forum.ovh.com/showthread.php?t=43717 :mrgreen:
Pour ce post, c'est moi qui l'ait posté sur le forum d'OVH. Je viens de voir seulement maintenant ce billet sur WRI.

Je tiens à préciser que je suis sous dédié donc pas sur mutu. Je ne pense pas que cela ait un rapport de cause à effet, du moins je l'espère.
 
WRInaute passionné
Je crois que la réponse (nous sommes en contact avec Google...) est bateau ... histoire de faire une réponse.

Toutefois, le "filtre" semble ne concerner que GoogleBot, pas les autres robots comme ceux de yahoo ou live.
Ce n'est pas non plus un "filtre" Google puisque "Google-Mediapartners" lui crawl normalement.

Enfin ça fait quand même bizarre de voir le robot de yahoo crawler à 200% de celui de Google :-o
 
WRInaute impliqué
Jaunalgi a dit:
Je tiens à préciser que je suis sous dédié donc pas sur mutu. Je ne pense pas que cela ait un rapport de cause à effet, du moins je l'espère.

En regardant de plus près j'ai aussi quelques pages inaccessibles ces derniers jours sur mon dédié ... mais je ne peux pas vous dire pour le crawl car mon site à moins de 3 semaines...
 
WRInaute occasionnel
C'est incroyable ça.
J'ai exactement la même courbe, un peu avant le 30 janvier.
Quelqu'un a des retour sur des serveurs autres que OVH, genre sivit, 1and1... ?
Pour savoir si le problème vient uniquement d'OVH.
Le problème est très important car j'ai plus aucune indexation de mes nouvelles pages...

Donc si quelqu'un a un retour sur d'autres serveurs autres que OVH, ce serait vraiment sympas ;)
 
WRInaute impliqué
Salut,

idem pour moi !

et ca commence gravement a se resentir sur les pages indexées, sur le nombres de visiteurs, sur les positions sur google, et sur le CA. bref ca graint :evil:

Sur ce coup la je trouve la com d'ovh trop legere, car la y a le feu ils ne se rendent peut etre pas compte qu'il faudra peut etre 6 mois de boulot acharné pour retrouver les positions de janvier ?

que faire ?

PS : je suis sur 1 240plan et sur 5 ou 6 60gp
 
WRInaute occasionnel
fra_arf a dit:
Donc si quelqu'un a un retour sur d'autres serveurs autres que OVH, ce serait vraiment sympas ;)

un dedié Elassar avec pas mal de sites dessus, aucun pb.
un dédié sivit, une vingtaine de sites, aucun pb.
quelques hébergement celeonet, aucun pb.

mes hébergements OVH 60 ou 90gp, pb, plus de passage googlebot depuis le 31 janvier.
 
WRInaute occasionnel
Je te remercie epsilon74.

Donc c'est un problème interne à OVH...
Des plots encore une fois...

Cordialement,
Arf
 
WRInaute impliqué
Le probleme c'est qu'on est la nuit, que OVH dort, et que pendant ce temps on tourne en rond alors que ca sert a rien :evil:

ca fait une heure que je fais actualiser la page sur ce post, vous pensez qu'un double ricard ca pourait aider :?
 
WRInaute impliqué
Si tous les webmaster envoyaient un ticket par domaines qu'ils ont chez OVH ... ils bougeraient plus vite je pense.
perso c'est fait.
 
Nouveau WRInaute
Personnellement j’opterai pour l’option mise en ligne du nouveaux datacenter de Google en Belgique moi mémé j’ai un serveur dédier chez OVH avec plusieurs sites héberger est je constate que tous mais sites ne son pas toucher. Et que un autre site héberger chez one.com à subit le mémé phénomène.
 
WRInaute accro
Le problème est vraisemblablement similaire à celui qui a déjà été rencontré.
D'une certaine manière, si j'ai bien compris (car je n'ai pas tout suivi à l'époque et je n'ai pas eu le temps de me documenter, donc "sous toute réserve"), ils cloakent sur GoogleBot pour rediriger le crawl vers une forme de cache, leur permettant de réduire la charge sur les serveurs qui hébergent les mutu.

D'un point de vue stratégique, c'est évidemment un bon plan: ça doit certainement améliorer la rentabilité des serveurs, mais on dirait que par moment il y'a saturation ou instabilité, et le résultat est alors bien moins justifiable, d'un point de vue "commercial".

Notez bien que j'ai tous mes produits chez OVH (ça en fait quelques uns: j'ai encore laché plus de 150€ en domaines rien qu'aujourd'hui :roll:), que je n'ai jamais eu à me plaindre, que le service technique m'a toujours dépanné efficacement, gratuitement et poliment, et que j'ai en projet de passer sur un petit MG Max dans quelques jours.
Ne pensez pas que je puisse avoir une dent contre OVH: c'est loin d'être le cas ;)

Par contre, c'est un problème qui a des implications importantes en matière de référencement, donc de performance, et là... je *tilt* ;)
 
WRInaute accro
Oui c'est exactement le souvenir que j'en ai (le cloaking).

Et ça avait été - toujours de mémoire - arrêté à cause des hurlements des webmasters.

Si c'est "ça", c'est à dire si ils réitèrent et qu'en plus ça gênent leurs clients, c'est hautement contestable.

Perso, je suis bien contente d'avoir une alternative fiable à OVH, quoique non francophone.

Maintenant ça peut aussi être autre chose qui n'a rien à voir. Après tout même Google a buggé récemment.

Mais je pense qu'il est sain de ne pas avoir ses noms de domaine là où on a son hébergement (ce qui n'est pas mon cas, je vais me faire des démménagements...)
 
WRInaute accro
Quel est donc ton alternative Marie Aude (en allemagne si je me souviens bien) ? Sinon idem chez moi sur le 90plan :(
 
WRInaute accro
Moi je suis chez 1und1 Allemagne, donc maison mère.
Avantage : les prix 1&1 sans les méthodes de la filiale française (j'ai déjà eu des problèmes avec eux, notamment de paiement, jamais de coupure intempestive, plusieurs rappels, etc...)
Inconvénient : interface en allemand. Simple, donc quand on connait on s'y retrouve, mais bon...

Sinon vous pouvez essayer le co.uk :)

Autre possibilité, pour les petits sites, iweb, je n'en ai entendu que du bien.
 
WRInaute passionné
Pour info, une réponse de OVH sur leur forum :

Pour l'instant ce qu'on sait c'est que ça touche plusieurs hébergements mutualisés. La date d'apparition du problème ne correspond apparemment à rien chez nous. Aucune modification importante aux alentours de cette date.

On continue de creuser, et on attend aussi des infos de la part de google.
 
Nouveau WRInaute
Idem plus rien d'indexé depuis le 29 janvier 2009 sur les 90plans ou 60gp, j'ai installé Crawltrack, google a visité à peine 5 pages hier et que les anciennes pas les nouvelles... Par contre pas de soucis avec le Kimsufi

Si jamais le soucis dure, je pense mettre certains sites sur le dédié, le mieux est juste de changer le champ A du domaine pour le mettre vers l'IP du dédié ? Un risque de se faire déréférencer par Google en optant pour cette solution ?

Sinon vos pages subissent t'elles un désindexement , moi pas de pages en moins mais les nouvelles ne sont plus prises en compte...

Je sens qu'OVH nous joue un coup de trafalgar.. j'espère que non.
 
Nouveau WRInaute
voici les réponses à mon ticket :
Bonjour
La date d'apparition des problemes ne correspond a aucune
modification effectuee chez nous sur nos differents
serveurs.
Nous regardons actuellement neanmoins le probleme et sommes
egalement en attente de retour de la part de google.
Cordialement
Aurelien
et:
Votre ticket a été attaché à l'incident numéro #209.
Mutu pb googlebot
Nous vous informerons prochainement sur la résolution de
l'incident.
 
WRInaute passionné
Thierry Bugs a dit:
donc je ne pense pas que ce soit du à ovh, mais plutot à des googlebot fainéant ou occupés ailleurs)
Non, je ne pense pas que ça vienne de Googlebot et je pense au contraire que ça vient bien d'OVH.

Je suis dans le même cas.

Sur les sites que je gère, seulement ceux qui sont sur OVH 90 Plan (clients) observent la même courbe, c'est à dire une baisse significative de l'exploration.



C'est vraiment pas cool de leur part, et à force : ça risque de nuire à leur image (et à nos sites).
 
WRInaute passionné
Je constate également une baisse du nombre de pages exploreées par google depuis le 30 janvier, baisse de plus de 50% et ce quelquesoit l'hébergeur. Pour fan de cinéma cela passe de 80.000 en moyenne à 35.000. Par contre, les nouvelles pages sont bien crawlées et dans des délais habituels (pour le blog au miximum 15 mn).

Ne serait-ce pas une modification due à google ? je pense à un changement des vitesses d'exploration. Personnellement je laisse google choisir la vitesse d'exploration, les paramétres automatiques ont peut-être changé ?

De toutes façon, je note aucune influence sur le trafic, par contre j'économise en moyenne 1.2 Go de trafic, c'est bon pour la bande passante :wink:
 
WRInaute passionné
SpeedAirMan a dit:
C'est vraiment pas cool de leur part, et à force : ça risque de nuire à leur image (et à nos sites).

C'est même certain. S'ils veulent vraiment limiter l'accès des GoogleBots, il faut qu'ils fassent un bridage sur les sites des non professionnels uniquement !
 
WRInaute passionné
kmenslow a dit:
moktoipas a dit:
Merci pour moi...

:mrgreen: Désolé pour toi, mais les particuliers n'ont pas d'enjeu économique derrière leurs sites et n'ont pas de salariés à payer.

Là je ne suis pas d'accord, bien que n'étant pas concerné, les deux payent le même service et doivent pouvoir prétendre à la même prestation.
Il n'y a pas à avoir de distinction sur la même offre et le même tarif
 
WRInaute occasionnel
Ce que je trouve drôle , c'est les stats de webmaster Tools , effectivement quel que soit les sites hébergés sur un 90plan , il y a une chute importante au début février .
Mais sur mes sites , j' ai Crawltrack d'installé et je ne constate pas de baisse de passage du boot sur les sites dont la m.a.j est quotidienne , mais sur la m.a.j est épisodique .
 
WRInaute occasionnel
Merci.

C'est dommage qu'il* ne donne pas d'explications pour les dédiés. En l'occurence ça m'intéresse car je suis touché par le problème sur un dédié mais mon Apache était mal réglé. Donc j'attend de voir si cela va se remettre en place après la correction sur Apache ou si le problème venait vraiment du réseau. Inutile de dire que j'espère que ça venait d'Apache!!

* le gars qui a fait le commentaire
 
Nouveau WRInaute
Merci Marie-Aude, ton blog est super instructif ! Bravo

Par contre, pour les dédiés en fait, le problème est différent, car google indexe bien les derniers articles mais il y a un "bug" dans l'interface GWT avec beaucoup d'erreur de réseau indisponible... Tant que tout est bien indexé pas de soucis majeures.

TOUTEFOIS, pour tous les mutualisés, le problème est différent : passage de googlebot rare, et surtout plus d'indexation des nouveaux articles depuis le 29 janvier 2009 et cela ne touche qu'OVH.

Tant qu'OVH ne communiquera pas on n'en saura pas plus. En attendant Marie-Aude, tu penses que si l'on change le champ A des domaines sur les mutualisés pour diriger vers un de nos serveurs dédiés, cela n'aura pas d'influence négative sur le référencement ? ou bien il vaut mieux attendre tant que nos pages des mutus ne sont pas désindexées.

Thx
 
WRInaute accro
Merci :)

Je ne suis pas une experte :) et je me défausse de toute responsabilité :) mais en dehors du problème que tu mentionnes (le "bug" est quand même une difficulté à crawler), je ne vois pas trop pourquoi cela serait négatif : les pages auront toujours la même url, c'est simplement l'IP qui change. Le temps de propagation des DNS ce sera au choix "non crawlable sur mutualisé" ou "crawlable avec erreur sur dédié", donc mieux que non crawlable du tout.

En revanche si le problème sur les dédiés est plus grave, ça peut être un cautère sur une jambe de bois. Parce que ce que tu appelles un bug dans l'interface GWT, pour moi ce sont des problèmes de réponse serveur...
 
WRInaute impliqué
Malheureusement, ils ne communiquent pas , voir plus haut la réponse laconique a un ticket, pour ma part j'ai également ouvert un ticket hier soir et toujours silence radio.

J'ai bien peur que ca recommence avec le cloaking de bot et qu'ils n'osent pas le dire.

d'ailleur sur leur forum la question a été posée clairement ici : http://forum.ovh.com/showthread.php?t=43775&page=4

j'ai donc une question toute simple à poser à la Team, en espérant avoir une réponse claire et précise.

au 1er février 2009, est-ce que, oui ou non, les robots sont dirigés sur une installation parallèle et spécifique aux moteurs?

et aucune réponse de la part d'OVH
 
WRInaute occasionnel
D'après Google, "Réseau inaccessible" peut être dû à plusieurs facteurs.

Cette erreur se produit lorsque Googlebot tente d'accéder à un fichier de votre site et que le délai de réponse expire ou qu'un problème survient sur le réseau, obligeant ainsi Googlebot à abandonner la demande. Cela peut se produire pour l'une des raisons suivantes :
* temps de chargement de la page excessif en raison du temps de réponse trop long des pages dynamiques ;
* temps de chargement de la page excessif en raison de l'arrêt, de la surcharge ou d'un problème de configuration du serveur d'hébergement du site ;
* le serveur d'hébergement bloque le robot d'exploration du Web de Google ;
* problème de configuration du DNS.
 
Nouveau WRInaute
Oui que Faire ? le changement du champ A est normalement rapide (contrairement aux dns) Vaut mieux rien toucher pour le moment, mais on va pas attendre longtemps. Ils ont du pour alléger leur bande passante nous faire le coup comme en février 2008 , ce ne sont que des suppositions maintenant ... m'enfin l'histoire se répète.
 
WRInaute occasionnel
J'avais mes DNS sur Amen et le 1er février, grosse chute de visites. Dans GWT, des "réseau inaccessible" en pagaille depuis fin janvier. (le 28/01 de mémoire) J'ai donc passé mes DNS sur mon dédié OVH le 4/02. Mais pas d'amélioration. Avec l'aide de cassiopee, j'ai corrigé une erreur Apache le 10/02. Depuis j'attends de voir, le 13, je saurai si j'ai toujours des Réseau inaccessible car j'ai 3 jours de décalage entre l'affichage des erreurs dans GWT.

je vais regarder sur mon RPS.
----
sur mes sites hébergés sur RPS, idem, problème de "réseau inaccessible" en pagaille... mais aucune chute de trafic.
 
Nouveau WRInaute
Apres un nouveau petit tour sur le forum d'ovh...rien de neuf si ce n'est que ils disent qu'ils s'en occupe toujours , seul probleme l'etat des travaux et depuis hier 15h toujours à 0% d'effectués ! PFFFFFFFFFFFF!
ah oui j'oubliais ! le gars d'ovh dit que si ils sont dans le vrai ce sera réglé demain .....................
 
WRInaute impliqué
Marie-Aude a dit:
Je relaie une info postée en commentaire sur mon blog : ça toucherait aussi les dédiés.
Je confirme... comme je l'avais dit en page 2 de ce topic: 240 plan et kimusfi (offre de base) touchés.

Croisons les doigts

EDIT: pour moi les erreurs sont de 3 types :
-Réseau inaccessible
-Impossible d'atteindre robots.txt
-Connexion refusée
 
WRInaute discret
J'ai la même courbe que vous tous depuis début février, les visites de google ont légèrement diminué aujourd'hui, mes positions (celles que je connais) n'ont pas trop bougé mais on dirait que le site n'évolue plus, voire en baisse.

J'ai soumis un sitemap hier et il a mis Quelques dizaines d'heures et 2 essais pour l'accepter. L'indexation de mes page a augmenté de 10 pages. le problème provient d'ovh puisqu'ils l'ont dit eux même par contre ils testent actuellement. Il va falloir des semaines pour retrouver le niveau d'avant la chute. je plaint ceux dot l'activité est essentiellement basé sur leur site internet et je me réjouis de n'avoir que 5% de traffic provenant de google sur un site qui réalise 6000 visiteurs/jour.
 
WRInaute passionné
Pourquoi faire faire les béta-testeurs aux clients ovh qui payent l'hébergement ? Pourquoi ils ne risquent pas sur un ensemble de testeurs qu'ils rémunèrent avec leurs propres moyens ?
 
WRInaute impliqué
Panoramix a dit:
Pourquoi faire faire les béta-testeurs aux clients ovh qui payent l'hébergement ? Pourquoi ils ne risquent pas sur un ensemble de testeurs qu'ils rémunèrent avec leurs propres moyens ?

Parce que apparemment OVH y est pour rien !
A confirmer
 
WRInaute accro
Panoramix a dit:
Pourquoi faire faire les béta-testeurs aux clients ovh qui payent l'hébergement ? Pourquoi ils ne risquent pas sur un ensemble de testeurs qu'ils rémunèrent avec leurs propres moyens ?

C'est ce qui s'est passé l'année dernière.
Pour l'instant ils ont un problème technique. Comme il n'y a qu'eux comme gros hébergeur, c'est sans doute lié à leur configuration, mais ça peut être un bug ou un problème involontaire.

Ils sont bien obligés de faire des tests pour vérifier leur hypothèse et résoudre le problème.
Ce genre de test n'a rien à voir avec ce qui s'est passé l'année dernière.

En revanche, il sera très intéressant, à la fin, de connaître la source du problème.
 
WRInaute discret
Il n'y pas que OVH qui fait des boulettes, apparament ils n'ont rien modifié en janvier et février, souvenons nous il y a quelques semaines, tous les résultats google donnaient site dangereux...se serait plus évident que google et changé lui quelque chose dans sa façon d'indexer qui ne soit pas compatible avec les serveur OVH. De plus la chute de la visite du boot correspondrait a peu près à cette date.
 
WRInaute passionné
Il est trop tôt pour en tirer des conclusions ... on ne sait malheureusement rien :-(

Mais par contre ça commence à durer et ça devient agaçant !
 
WRInaute passionné
Comme j'ai dit plus haut une possible implantation de Google en Belgique ne serait pas idiot comme hypothèse, et des bugs de configuration pour faire dialoguer les serveurs seraient à l'ordre du jour....
 
WRInaute discret
j'ai un 90plan et j'ai la même courbe, ya un mois j'ai aussi de nombreux 404 pour Google sur des pages que n'on jamais été en 404 pour les visiteurs.
Donc suite a ça j'ai prix un 240plan et e fait la migration ce weekend.
A ce sujet quel conseil pouvez vous me donné pour que google encaisse mieux ce changement d'IP car e doute que les DNS de Google et OVH soit bien synchro.
 
WRInaute accro
doss a dit:
j'ai un 90plan et j'ai la même courbe, ya un mois j'ai aussi de nombreux 404 pour Google sur des pages que n'on jamais été en 404 pour les visiteurs.
as-tu vérifié les header renvoyées par tes pages, qu'ils ne renvoyaient pas des 404, même en affichant la page ?
Voici les crawls sur quelque uns de mes sites en 60gp, 1000gp, 90plan et dédié sur ovh

En fait, pourquoi vous focaliser sur la quantité de pages crawlées journalièrement ? ce qui est le plus important c'est que les nouvelles pages arrivent vite dans l'index, pas qu'il viennent crawler chaque page tous les jours, alors même que le contenu de la page n'a pas changé depuis des mois. Et pourquoi gg ne calculerait-il pas une prévision de crawl par rapport aux réels changements sur les pages d'un site ?

Sur certains sites j'ai réglé la vitesse de crawl plus faible que ce que décidait google et ça n'a rien changé au niveau de son positionnement, et heureusement.
Si on regarde différents sites, on s'aperçoit que les pics de crawl ne sont pas à la même période et c'est normal, il faut que google puisse équilibrer ses passages entre les différents sites.
Et aucune erreur de crawl de google, sauf sur un dédié, mais là, gg est venu au moment où apache était hs (pourtant j'avais fait attention à travailler en pleine nuit...)
kmenslow a dit:
C'est même certain. S'ils veulent vraiment limiter l'accès des GoogleBots, il faut qu'ils fassent un bridage sur les sites des non professionnels uniquement !
...
:mrgreen: Désolé pour toi, mais les particuliers n'ont pas d'enjeu économique derrière leurs sites et n'ont pas de salariés à payer.
enjeux financiers, professionnels, salariés à payer et se trouver sur un serveur mutualisé seulement, qui plus est petit (pour le 90Plan), il y a un truc qui me chiffonne dans ce raisonnement :roll:
je n'ai eu de chute sur aucun site sur dédié et pour les GP et plan, c'est mitigé, alors...
 
WRInaute passionné
Leonick a dit:
...
En fait, pourquoi vous focaliser sur la quantité de pages crawlées journalièrement ? ce qui est le plus important c'est que les nouvelles pages arrivent vite dans l'index, pas qu'il viennent crawler chaque page tous les jours, alors même que le contenu de la page n'a pas changé depuis des mois. Et pourquoi gg ne calculerait-il pas une prévision de crawl par rapport aux réels changements sur les pages d'un site ? ...

Mais justement : depuis un moment Google ne crawl plus quotidiennement ... les nouvelles pages.
En ce qui me concerne c'est ça qui a déclenché une alerte : les NOUVELLES PAGES n'étaient plus indexées .. à titre d'exemple sur un site j'ai prés de 50 nouvelles pages dans la nature alors qu'auparavant elles étaient indexées en moyenne dans les 12h..
 
WRInaute occasionnel
druart a dit:
Mais justement : depuis un moment Google ne crawl plus quotidiennement ... les nouvelles pages.
En ce qui me concerne c'est ça qui a déclenché une alerte : les NOUVELLES PAGES n'étaient plus indexées .. à titre d'exemple sur un site j'ai prés de 50 nouvelles pages dans la nature alors qu'auparavant elles étaient indexées en moyenne dans les 12h..

Pareil pour moi. Avec déjà quelques légères pertes de position mais peut-être est-ce une coïncidence ?
 
WRInaute discret
Leonick a dit:
doss a dit:
j'ai un 90plan et j'ai la même courbe, ya un mois j'ai aussi de nombreux 404 pour Google sur des pages que n'on jamais été en 404 pour les visiteurs.
as-tu vérifié les header renvoyées par tes pages, qu'ils ne renvoyaient pas des 404, même en affichant la page ?

Oui car sans rien toucher le problème a été résolu, ça a duré 2 jours seulement
 
WRInaute discret
il n'y a rien de résolu....ovh n'a rien annoncé dans l'avancement des travaux...ma courbe es toujours au raz du sol...de plus j'ai appri hier que c'est parce que je suis chez ovh que je ne peux plus définir la vitesse de crawl de mes pages sur GWT...inadmissible de ne pas avoir été informé d'un tel évènement. OVH fait tout dans le dos de ces clientscar la société savait pertinament que le mécontentement serait là mais cette chutte du googlebot à tout mis à jour...en plus depuis début février ils ont certainement dû s'apercevoir que le googlebot ne réagissait plus de la même façon et rien n'a été fait avant les plaintes des clients.
 
WRInaute accro
beloute a dit:
de plus j'ai appris hier que c'est parce que je suis chez ovh que je ne peux plus définir la vitesse de crawl de mes pages sur GWT...
sur un mutualisé... Et c'est normal, imagine que 90% des webmasters le mettent au crawl maximum, le serveur chute de trop d'accès simultanés. 9a n'est pas génant pour ceux qui sont à l'origine de cette chute, mais les 10% des webmasters restants, qui ont leur site inaccessible du fait des autres, que vont-ils penser ?
Sur mon dédié OVH, aucun problème, je peux régler ma vitesse de crawl sans problème, mais je ne vois pas l'intérêt de la mettre au maximum, je l'ai mise très basse. Ce qui m'importe c'est juste que ma page d'accueil soit crawlée très régulièrement ainsi que les nouveaux contenus (liés dans la page d'accueil). C'est tout
 
WRInaute discret
Tout à fait d'accord avec toi mais quand j'ai acheté mon hébergement cela ne m'a pas été signalé, mon site est dynamique et avant ce problème je plaçais un article la veille chaque jour pour le lendemain et il était dans la première page du mot clé en question...là je ne suis plus dans la place....qu'il passe sur des milliers de pages ou 30 pages je m'en fiche mais qu'il indexe les nouvelles plutôt que les vieilles pages. Et question personnelle as tu déjà vu un problème grave chez un hébergeur durer plus de 2 semaines ? certains webmasters ont perdus beaucoup d'argent et ce n'est pas ovh qui va les dédomager. Enfin bref quand j'en aurais assez je prendrais un dédié chez la concurrence pour être tranquille.
 
WRInaute accro
beloute a dit:
Tout à fait d'accord avec toi mais quand j'ai acheté mon hébergement cela ne m'a pas été signalé, mon site est dynamique et avant ce problème je plaçais un article la veille chaque jour pour le lendemain et il était dans la première page du mot clé en question...là je ne suis plus dans la place....
Si c'est celui de ton www je ne vois qu'un joomla brut de dezippage, sans aucun contenu. Donc gg va voir comme moi et il n'a donc rien à indexer
beloute a dit:
certains webmasters ont perdus beaucoup d'argent et ce n'est pas ovh qui va les dédommager.
si on perd beaucoup d'argent en 1 ou 2 semaines, on a les moyens de prendre autre chose qu'un hébergement "pro" mutualisé d'entrée de gamme
beloute a dit:
Enfin bref quand j'en aurais assez je prendrais un dédié chez la concurrence pour être tranquille.
je n'ai aucun problème sur mon dédié OVH
 
WRInaute passionné
Leonick a dit:
sur un mutualisé... Et c'est normal, imagine que 90% des webmasters le mettent au crawl maximum, le serveur chute de trop d'accès simultanés. 9a n'est pas génant pour ceux qui sont à l'origine de cette chute, mais les 10% des webmasters restants, qui ont leur site inaccessible du fait des autres, que vont-ils penser ?
Sur mon dédié OVH, aucun problème, je peux régler ma vitesse de crawl sans problème, mais je ne vois pas l'intérêt de la mettre au maximum, je l'ai mise très basse. Ce qui m'importe c'est juste que ma page d'accueil soit crawlée très régulièrement ainsi que les nouveaux contenus (liés dans la page d'accueil). C'est tout

Je suis complètement d'accord sur le fond.

Toutefois, auparavant il était possible de modifier la vitesse d'exploration du bot (je parle bien sur un mutu).
Dans ce cas comment expliquer que cela n'est plus possible désormais ? ou en d'autres termes sur quels critères s'est basé Google pour désactiver cette fonction.
Techniquement il peut effectivement voir le nombre de site hébergés sur la même IP, celà provient-il de ça ?
d'autres mutu hébergés ailleurs que chez ovh sont-ils bridés de cette commande ?

Encore un fois, je ne conteste pas le bien-fondé ... je cherche juste à comprendre...
 
WRInaute accro
Mes sites sont sur des mutualisés (ailleurs) et c'est Google qui décide ou pas de me laisser modifier la vitesse d'exploration en fonction de critères qui lui sont propres, et semble t il au delà d'un certain seuil de crawl

Si en ce moment il est empêché de crawler sur OVH, cela me semble logique que cette option soit désactivée dans GWT.

En gros "si je peux aller comme je veux et que je vais vite, je laisse au webmaster la possibilité de régler, si je ne peux pas aller comme je veux, ou que je veux aller très lentement, pas besoin du lui laisser la main"
 
WRInaute passionné
Effectivement le choix est probablement déterminé par la vitesse de crawl possible constatée.
Mais c'est une nouvelle "fonctionnalité" ou une modification ;-)
 
Nouveau WRInaute
Marie-Aude> tu es sure de ce que tu avances pour la disponibilité ou non de cette option dans GWT ? Parce que sur les forums OVH quelqu'un a cité un ingénieur google qui disait que c'était soit un choix du webmaster, soit un choix de l'hébergeur, soit directement un choix fait par google.
 
WRInaute passionné
A voir qui est concerné, mais depuis ce matin j'observe une activité énorme de Googlebot, à ce rythme c'est presque la totalité des pages d'un site "moyen" qui aura été crawlé (sur un 90plan) sur une journée.

A propos de tests entre Google et Ovh :

citation :
Google a effectué des modifications hier sur une partie de leur système, ce qui a amélioré considérablement le nombre d'indexation sur la plateforme de test (nombre d'indexations multiplié par 8 environ).
 
Discussions similaires
Haut