OVH: maintenance pour. référencement?

WRInaute passionné
bonjour,

trouvé aujourd'hui dans la page travaux concernant mon offre en mutualisé:

Bonjour,
Sur 90plan, nous avons mis en production une installation parallele
qui repond aux requetes des moteurs de recherche. Le but est
d'améliorer la qualité de reponse et eviter tout genre de problemes
sur le referencement de vos sites sur google. yahoo & co.
Vous avez l'accès à la qualité de service proposé aux moteurs de
recherche sur
http://smokeping.ovh.net/ovh-server-sta ... ler-90plan

Merci de regarder de votre côté si le referencement se passe mieux,
moins bien, pareil ?

ça veut dire quoi concrètement? ils font des "essais" avec le référencement de leurs clients? c'est quoi "une installation parallèle spéciale moteur de recherche"? ça ne sent pas très bon, si quelqu'un pouvait me rassurer?
 
WRInaute passionné
Oui c'est bizarre en effet, ça me fait penser quand il y a quelques mois ils avaient mis des mesures en place pour que les robots tombent sur des pages faites "pour eux". Cela n'a peut être rien à voir mais ça semble être le même genre de "bidouillage".
Ils font vraiment des trucs bizarres chez OVH ...
 
WRInaute occasionnel
C'est tout simplement un miroir de vos sites chargé de recevoir les requêtes en provenance des crawlers des différents moteurs de recherches.

En théorie, cela est censé permettre une meilleure qualité de service auprès de vos utilisateurs bien vivant qui patientent parfois devant leur écran.

Là ou OVH est pour le moins obscur c'est pour expliquer en quoi une telle installation permet d'améliorer le référencement.

D'autre part, il semble que ce miroir ne concerne que les serveurs de pages et non les serveurs de BDD. C'est donc à ce niveau que vont se concentrer les causes de ralentissement.

Tout ceci me semble être un coup d'épée dans l'eau. Les sites optimisés seront peut être un peu plus rapides, sans plus.
 
WRInaute passionné
il y a deja eu un topic dessus, ca ne change rien pour le referencement, ca aide seulement ovh a garder un uptime plus important pour vos sites pour les visiteurs en mettant la charge faite par les robots sur un autre serveur...

c'est invisible pour tout le monde au final
 
WRInaute discret
C'est pas une sorte de cloaking. C'est juste un autre serveur qui traite les requetes par les moteurs de recherche. C'est exactement le même principe que celui d'avoir un serveur qui s'occupe de la base de données et un autre du php.

Après, il y'a effectivement une sélection lors de la demande d'un usager (moteur ou visiteur ?), mais ils vont voir exactement la même chose. Tout se fait en interne l(adresse IP des serveurs vu par le visiteur lambda sera la même, les pages aussi, ...), et OVH n'aurai pas dévoilé cela publiquement, personne n'aurait vu la différence.
 
WRInaute discret
Bonjour,Si OVH met en place ce system de RAID comme un double disque dur sur le quel tout se copie en double sa signifie qu'il doivent doubler les instalations non? et tout ca pour les crawlers? dur a amortir ce genre de fantaisie...
plus de BP ou connexion simultanées me semble une bonne alternative.

A mon avis sa doit etre un system de precache virtuel temporaire (sa sonne bien hein?)

Ce qui me fait peur d'un coté et que je ne trouve pas normal de l'autre c'est d'etre un cobaye du réferecement Google-ovh , que mon commerce trinque en cas mal interpretation google , je pensse que ce devrait etre une option dans le panel de l'administration que l'on active ou pas mais au final que l'utilisateur choissise et assume les conséquences.

De l'autre , "je pensse" que si ils mettent en place ce system c'est que que l'infrastructure traine la patte et qu'il est plus dans leurs interets economique de mettre un bout de scotch pour google que d'investir efficacement en faisant evoluer au niveau hardware PB connexion simultanée ,désengorgement ftp ect....

et au niveau IP geolocalisation que vas voir google?

Il serait bien que OVH confirme que ce system mise en place n'affectera en aucun cas le positionement ou autres conséquences dans l'algo de google. un peux plus de transparence!

bonne journée
 
WRInaute passionné
Kados a dit:
C'est pas une sorte de cloaking. C'est juste un autre serveur qui traite les requetes par les moteurs de recherche. C'est exactement le même principe que celui d'avoir un serveur qui s'occupe de la base de données et un autre du php.

Donc ce n'est pas pareil.

Un bot doit passer par le même endroit qu'un visiteur sinon, c'est du clocking.
Imagine, je fait un site sur un serveur qui rame à mort et je colle les bots sur un rapide... Tout le site est indexé, mais personne ne peut le visiter...
 
WRInaute accro
Moi ce qui me gène un peu, c'est que si ça fait serveur de cache, ça va me bouziller mes stats si je n'arrive plus à avoir la fréquence de passage des spiders :cry:
 
Membre Honoré
Une simple option qu'OVH peut proposer : voulez-vous utiliser ce service à activer ?
Depuis l'administration de l'hebergement (décoché par défaut) est une solution pour ceux qui ne veulent pas de cette option point de vue référencement.
 
WRInaute discret
Je peux me gourer, mais n'est ce pas pour rattraper le coup de leur delestage des robots sur des serveurs spécifiques ( pour lutter contre intrusions patati..), j'avais noté un très faible passage des bots à cette époque et encore maintenant...
 
WRInaute discret
Koxin-L a dit:
Kados a dit:
C'est pas une sorte de cloaking. C'est juste un autre serveur qui traite les requetes par les moteurs de recherche. C'est exactement le même principe que celui d'avoir un serveur qui s'occupe de la base de données et un autre du php.

Donc ce n'est pas pareil.

Un bot doit passer par le même endroit qu'un visiteur sinon, c'est du clocking.
Imagine, je fait un site sur un serveur qui rame à mort et je colle les bots sur un rapide... Tout le site est indexé, mais personne ne peut le visiter...

C'est vrai, mais d'après ce que j'ai compris, OVH avait deux options :
- Mettre plus de serveurs pour tout le monde, mais vu le nombre de serveurs dispo, l'impact n'aurait pas été énorme
- Mettre des serveurs spécifiques pour les bots divers pour que ceux-ci visitent leur site quand ils veulent sans que cela ne gene plus les visiteurs. (il peut donc y'avoir ton exemple, mais aussi l'exemple inverse... : les bots ont des pages longues (et d'après OVH, un bot s'en fout si la page met 10secondes a charger), et les visiteurs des pages ultra rapides)

Moi je pense que ca ne peut être que bien ce genre de nouvelle.
 
WRInaute accro
Si les bots et les utilisateurs voient la même chose en temps réel avec peut-être quelques secondes en plus pour les robots lors de gros crawls (genre le dernier export de PR officiel qui a tout cassé chez OVH et qui leur a mis cette idée à l'oreille), je suis aussi pour.

Dans ce cas ce n'est donc pas du cloaking. On peut avoir 2 pages identiques et faire pointer l'un et l'autre serveur sur chacune des pages, au final, on ne peut pas appeler cela du cloaking. Pourquoi ? Parce que de l'extérieur, on ne voit pas la différence et on voit obligatoirement la même ip. Les ingénieurs d'OVH sont surement assez intelligents pour gérer cela dans leur réseau interne et non attribuer des ip différentes pour d'éventuels serveurs mirroirs ...

Maintenant, il faut savoir s'ils vont faire des requêtes sur les mêmes fichiers mais à partir de plusieurs serveurs, ou bien copier nos fichiers sur différents serveurs. Si c'est le dernier cas, connaitre le temps de synchronisation sur tous les serveurs lors d'une modification ou d'un ajout.
 
WRInaute discret
Mes stats Urchin...

Mes stats Urchin OVH sont passé en deux jours à -60% puis à 0. 8O
:roll: heureusement que j'ai les infos d'Adsence pour éviter la crise du : merde merde merde, qu'est ce qui se pAAAsse :?
Il me semble que j'ai eu le même coup il y a une paire d'année, et après ça rattrape.

Et vous?
 
WRInaute passionné
Re: Mes stats Urchin...

rédac cabanes a dit:
Mes stats Urchin OVH sont passé en deux jours à -60% puis à 0. 8O

Ca doit venir des stats :) J'ai toujours des robots dans mes stats, mais c'est pas urchin
 
WRInaute passionné
Darkcity a dit:
Koxin-L a dit:
Faut quitter OVH...

Quitter le premier et meilleur hébergeur de France ?

Qu'est-ce qui te fais dire cela ?
j'ai mes sites sur d'autres hébergeurs avec un taux de plus de 99% de présence en ligne sur l'année à des prix identiques, ou inférieur.

Kados a dit:
- Mettre des serveurs spécifiques pour les bots divers pour que ceux-ci visitent leur site quand ils veulent sans que cela ne gene plus les visiteurs. (il peut donc y'avoir ton exemple, mais aussi l'exemple inverse... : les bots ont des pages longues (et d'après OVH, un bot s'en fout si la page met 10secondes a charger), et les visiteurs des pages ultra rapides)

Oui, pourquoi pas dans ce sens, mais...

Il n'y a bien qu'OVH pour affirmer qu'un bot se fout du temps de réception des données...

J'ai moi, dans mon GWT, des pages apparaissant comme inaccessibles, pourtant, elles sont bien là et n'ont pu être atteinte par le bot pour je ne sais quel raison, mais je penche coté surcharge temporaire, or, aucun de mes sites ne passe en inaccessible plus de quelques seconde, lorsque cela ce produit.

Donc, pour moi, OVH désinforme. ;-)
 
WRInaute accro
Je viens de regarder mes stats de novembre à aujourd'hui concernant google sur crawltrack sachant que j'ai changé d'hébergement fin décembre. J'ai mis un site qui était chez infomaniak sur ovh.

Aucun changement si pas + de visites et amélioration du positionnement. Donc voila, qui a raison, qui a tord. On le saura seulement si OVH décide d'être claire sur ce qu'il a fait, ce qu'il fait et ce qu'il fera.
 
Nouveau WRInaute
Koxin-L a dit:
Un bot doit passer par le même endroit qu'un visiteur sinon, c'est du clocking.
Imagine, je fait un site sur un serveur qui rame à mort et je colle les bots sur un rapide... Tout le site est indexé, mais personne ne peut le visiter...
et comment google va pouvoir analyser ça ?
OVH a plusieurs centaines de serveurs organisés en cluster qui tournent en parallèle. Le système qu'il propose n'est rien d'autre qu'un changement de la répartition de charge. Avant quand un visiteur arrivait, on l'envoyait au pif sur une des machine du cluster. Maintenant s'ils identifient que c'est un robot, ben il ira sur celle ci plutôt que celle là. Pour l'internaute ou le moteur, impossible de savoir sur quelle machine tu atteris.
Pour moi leur annonce est un non-événement total.
 
WRInaute passionné
On s'en fout de comment il va le comprendre.

Je dis juste que c'est du cloaking.

Le jour ou GG voit que sont bot passe et que les visiteurs non, c'est le ban.
 
WRInaute accro
Ca voudrait dire que tous les gros sites qui ont besoin de plus d'1 serveur font du cloaking ?? :D Vu que les visiteurs et les robots ne sont pas tout le temps redirigés au même endroit ?? Stupide !

Non on va arrêter la, le cloaking c'est simplement voir une page différente si on est visiteur ou robot. Ici on aura une page identique donc t'abuse un peu la Koxin-L. Peut importe le SYSTEME INTERNE, tant que le visiteur et le robot reçoivent la même page. Google en a rien a foutre de ta gestion interne tant que la vue de l'extérieur est la même ;)

T'es antiOVH, on l'a compris mais bon évite de dire des bêtises :mrgreen:
 
WRInaute passionné
YoyoS a dit:
Ca voudrait dire que tous les gros sites qui ont besoin de plus d'1 serveur font du cloaking ?? :D Vu que les visiteurs et les robots ne sont pas tout le temps redirigés au même endroit ?? Stupide !

:roll: Rien à voir.

1 serveur pour les visiteur humain et 1 serveur pour les visiteurs robots, c'est du cloaking.

YoyoS a dit:
Google en a rien a foutre de ta gestion interne tant que la vue de l'extérieur est la même ;)
C'est là tout le problème. Les données transmises seront les mêmes, mais la façon de les transmettre peut-être différente.

Le cloaking n'est pas à la base une mauvaise manière de faire, mais une manière différente de faire.
 
WRInaute accro
Ouais, mais ce que je veux dire c'est que ce n'est pas nouveau. D'autres hébergeurs l'ont surement fait mais n'ont tout simplement rien dit. Je ne crois pas que la façon de servir la page soit différente. Je crois que c'est simplement le serveur faisant la demande de la page qui n'est pas le même, c'est tout :)

Enfin, on en apprendra surement un peu plus sous peu mais je ne m'inquiète pas trop. Après, tout ceux qui viennent râler et accuser OVH d'un éventuel déclassement, c'est pas forcément la faute à OVH, ça se serait passé de toute façon. Mais bon, faut bien trouver un bouc émissaire et comme on peut pas engueuler google :D
 
WRInaute accro
Oui en cas de crash du serveur s'occupant des robots, c'est possible. Mais bon, je crois qu'il y a une 60ene de serveurs pour les robots :D Ils ont le temps pour la réparation si y en a un qui claque ^^. A la limite, si vraiment les 60 meurent d'un coup, je crois qu'ils ont les compétences pour rediriger les requêtes sur les serveurs visiteurs ^^ A la limite, c'est même automatique :d
 
Membre Honoré
Plusieurs possibilitées humaines ou de manière automatique. Après peut-être qu'une personne de l'équipe de Google lit le post et pourrait donner un avis.
 
WRInaute passionné
Madrileño a dit:
Plusieurs possibilitées humaines ou de manière automatique. Après peut-être qu'une personne de l'équipe de Google lit le post et pourrait donner un avis.

ou prendre une decision fracassante pour OVH :mrgreen:
 
WRInaute impliqué
Koxin-L a dit:
zenissart a dit:
Koxin-L a dit:
Le jour ou GG voit que sont bot passe et que les visiteurs non, c'est le ban.
et moi je continue à te demander : comment peut-il le voir ?

Les bots Google changent leur user-aent pour détecter le cloacking.
Il suffit que les données ne soient pas les mêmes. Est-ce que OVH peut garantir que les données sont toujours les mêmes des 2 cotés ?? j'en doute bcp ..
 
Nouveau WRInaute
mariea a dit:
Les bots Google changent leur user-aent pour détecter le cloacking.
Il suffit que les données ne soient pas les mêmes. Est-ce que OVH peut garantir que les données sont toujours les mêmes des 2 cotés ?? j'en doute bcp ..
mais vous débarquez complètement ou quoi ?
Chaque hébergeur a des dizaines ou centaines de machines qui tournent en parallèle pour assurer les requetes apache, mysql etc.
Si j'ai bien lu le lien du debut de topic OVH a 400 machines pour gérer ses mutualisés. Tu crois qu'il y a 400 versions de ton site ??
 
WRInaute passionné
zenissart a dit:
[mais vous débarquez complètement ou quoi ?

tes 30 posts contre les (dizaines de) milliers de posts de webmasters du type Madrileno et autres, ainsi que leurs centaines de sites générant des revenus dont tu n'as même pas idée, excuse-moi, mais on est en droit de se demander qui "débarque".
 
WRInaute passionné
Allons, allons, le nombre de posts où les revenus générés par un site ne sont pas des critères pertinents pour juger de la qualité d'un webmaster...loin s'en faut.
Même si c'est dit un peut abruptement, je me pose la même question que zenissart sur le sujet.
M'est avis qu'il serait préférable d'attendre les précisions d'un technicien bossant dans les mutualisés plutôt que l'avis des webmaster sur ce genre de question...non ?
 
Nouveau WRInaute
carole heinz a dit:
tes 30 posts contre les (dizaines de) milliers de posts de webmasters du type Madrileno et autres, ainsi que leurs centaines de sites générant des revenus dont tu n'as même pas idée, excuse-moi, mais on est en droit de se demander qui "débarque".
j'avoue avoir du mal à saisir ta classification via le nombre de posts sur un forum (pour les revenus liés au web, sans rentrer dans un concours de qui a la plus grosse, ne te fais pas de soucis pour moi ;) ).
Le truc dont il est question, c'est la répartition de charge sur les serveurs d'un hebergeur, le clustering etc. Sur le sujet je pense en savoir suffisament pour te dire qu'il ne peut y avoir aucun effet de cloacking, le contenu servi étant le même à 100%. Les serveurs physiques de contenu sont les mêmes pour tous. Ce sont ceux qui vont traiter les requetes apache et mysql qui diffèrent, de manière transparente. Le temps d'accès pourra surement être légèrement différent mais rien de notable.
Après, il est certain que la façon de communiquer d'OVH sur le sujet est assez "particulière", mais ce n'est pas la premiere fois chez eux. A vouloir être à tout prix transparent, on en vient à créer la confusion là où il n'y a pas de malaise. Finalement OVH devrait faire comme le font la plupart des autres hébergeurs, faire leur cuisine en interne sans avertir personne. Ils ont créé eux-même une mini-polémique.
 
WRInaute accro
Madrileño a dit:
Quelqu'un qui a un compte chez ovh a remarquer des changements ou pas ?

Comme dis précédemment, rien de changé chez moi niveau fréquentation des robots google (raf des autres) avec une petite amélioration du positionnement :)
 
E
e-julien
Guest
Baisse du Nombre de Pages indexées.

Je ne sais pas si c'est lié ... Mais je suis passé sur Google de 55 pages indexées à 47 ... Pourtant, ces pages sont suffisamment différentes pour qu'elles soient toutes bien prises en compte.

Depuis, on a passé 3 ou 4 jours sans Stats et, il y a eu la magouille OVH sur le référencement (Magouille car ça paraît curieux de dévier les Bots).

Le site concerné est hébergé sur un Plan90 : http://www.nouveaux-mondes.org

Par ailleurs, si vous avez des idées pour améliorer le référencement, je suis preneur ! Si ce que fait OVH fonctionne, j'en serais trés content mais c'est l'inverse qui se passe pour l'instant !

Julien
 
WRInaute accro
Pas de changement pour un de mes sites chez ovh.

Mais je lis avec intéret ce thread et vos avis sur cet hébergeur.



Ensuite l'hébergeur parfait :roll:
 
WRInaute passionné
zenissart a dit:
A vouloir être à tout prix transparent, on en vient à créer la confusion là où il n'y a pas de malaise. Finalement OVH devrait faire comme le font la plupart des autres hébergeurs, faire leur cuisine en interne sans avertir personne. Ils ont créé eux-même une mini-polémique.

Ce qui m'inquiète dans cette histoire c'est cette phrase

Admin OVH a dit:
Merci de regarder de votre côté si le referencement se passe mieux,
moins bien, pareil ?

Ils ne connaissent pas le résultat de leur manipulation. Si leur technique est mauvaise, il vont mettre à la poubelle quelques mois de référencement.
 
WRInaute accro
zenissart a dit:
Le truc dont il est question, c'est la répartition de charge sur les serveurs d'un hebergeur, le clustering etc. Sur le sujet je pense en savoir suffisament pour te dire qu'il ne peut y avoir aucun effet de cloacking, le contenu servi étant le même à 100%. Les serveurs physiques de contenu sont les mêmes pour tous. Ce sont ceux qui vont traiter les requetes apache et mysql qui diffèrent, de manière transparente. Le temps d'accès pourra surement être légèrement différent mais rien de notable.
+1 il me semble effectivement que c'est plus du load balancing, comme Google, que du cloaking.
@+
 
WRInaute accro
Au fait les possesseurs de 90plan, vous avez quel genre de courbe pour les temps d'accès du robot google durant les 90 derniers jours ?
 
Nouveau WRInaute
Il faut bien faire la différence entre serveur physique (la machine, server en anglais) et un serveur (daemon en anglais, comme un serveur http, un serveur de base de donnée) qui écoute sur un port et répond à une requête.
Si plusieurs machines se répartissent le boulot d'un serveur http, avec différentes méthodes (load balancing pour le temps de réponse, clustering pour les back-up par exemple...), personne ne peut le savoir.
 
WRInaute accro
Merci leonick, moi mes stats sont un peu faussées puisque j'ai changé d'hébergement en plein milieu.

J'espère que les temps d'accès n'augmenteront pas trop, si ça reste comme ça, c'est parfait.
 
WRInaute discret
Pour ma part, j'ai un dédié chez OVH et j'ai une courbe du temps de téléchargement de mes pages par googlebot qui tend à augmenter légèrement. C'est peut-être du aussi à d'autres facteurs.

Pas d'autres constatation, si ce n'est le nombre de pages indexées en augmentation.
 
WRInaute occasionnel
OVH à déjà parlé de ça il a quelques mois et appart aucun changement sur mes serveurs
Il n'y a eu aucun problème visible à part lors de la mise en place des serveurs où les bots n'ont pas pu accéder aux serveurs pendant quelques heures mais celà n'a eu aucune consequence sur mon référencement...

Certes quelques webmasters ce sont pleind du non passage de bots principalement sur les 60gp pendant quelques jours me semblent il...


Après si on parle de la rapidité d'accès des pages, temps de génération... alors on peut dire que la stabilité n'est ps de rigueur chez OVH, même si ça reste en général assez rapide.

C'est clair que le vendredi soir par exemple, le temps de génération de page peu passé de 0.50s à 0.500 assez facilement et si il y a des accès à la bdd celà peut être bien plus long.
 
WRInaute accro
j'ai un gros site chez ovh j'espère bien que ça ne va pas avoir d'incidence, car sinon c'est un coup à perdre des clients.
(Quand même j'imagine mal qu'ils fassent ça en aveugle alors qu'ils sont en pleine restructuration et développement)
 
WRInaute impliqué
Koxin-L a dit:
On s'en fout de comment il va le comprendre.

Je dis juste que c'est du cloaking.

Le jour ou GG voit que sont bot passe et que les visiteurs non, c'est le ban.
Selon moi non, c'est pas du cloaking.
C'est ni plus ni moins qu'un cluster qui réparti la charge sur plusieurs machines, mais avec pour option que si le visiteur est un robot, il est redirigé vers des serveurs dédiés.
L'intérêt ensuite est somme toute discutable, mais sur le principe, je ne vois pas ce que ca gène.
 
WRInaute passionné
LOL, comme si les gars d'OVH (plus gros hébergeur de France) étaient des noobs qui voulaient faire blacklister tous leurs clients. C'est simplement un serveur comme un autre, basé sur du RAID sans doute, qui accueille uniquement les moteurs pour alléger les charges. Si le réel site devient inaccessible, il y a deux possibilités : soit la copie du site qui accueille les moteurs devient aussi inaccessible, soit Google n'en tiendra pas compte car les pannes sont en général de courte durée. Question : comment fait Google pour savoir qu'un internaute ne peut pas voir le site mais lui oui ? Il n'est pas omniscient.
 
WRInaute occasionnel
En meme temps il y a quelques semaines ils nous ont fais le coup avec une config foireuse et on a été privé des bots pendant une semaine...
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut