[Legislation] Requêtes automatisées sur Google

WRInaute passionné
Dans les conditions d'utilisation de Google, il y a cette fameuse clause:

Les requêtes automatisées sont interdites
Vous ne devez pas transmettre de requêtes automatisées d'aucune sorte aux systèmes de Google sans autorisation explicite et préalable de Google. Par « requêtes automatisées », nous entendons également l'utilisation de tout logiciel qui transmet des requêtes à Google pour déterminer le « rang » obtenu par un site Web dans les index Google en fonction de différents termes de recherche.

Loin de moi l'idée de jouer les contestataires ou d'utiliser ce processus (à vrai dire je n'en aurais pas grande utilité!), mais je me demandais en vertu de quelle loi Google pouvait interdire un accès automatisé aux données.

Connaissez vous un texte de loi ou des jurisprudences relatives à l'utilisation automatisée d'un service ?
 
WRInaute passionné
Tout simplement que Google ne t'autorise à accéder à leur service que sous certaines conditions. Ce n'est pas parce que l'utilisation est gratuite qu'elle est est libre.

Si tu accèdes à leur service sans respecter leur license d'accès, il s'agit d'un aspect non-autorisé.
Ils ont à mon avis de multiples possibilités dont peut-être accès non autorisé à un système informatique.

François
 
WRInaute accro
mr_go a dit:
Connaissez vous un texte de loi ou des jurisprudences relatives à l'utilisation automatisée d'un service ?
Bonjour,

C'est une bonne question et je ne pense pas que la réponse soit évidente. Bien sûr, il y a les droits d'auteur, mais ceux-ci ne donnent pas tous les droits.

Par exemple, si j'écrivais en toutes lettres, en français, sur un site que je n'y autorise pas les "requêtes automatisées", Googlebot le visiterait quand même. Ce serait étonnant qu'un tribunal condamne Google pour violation de mes droits d'auteurs sur cette base. De la même façon, je ne crois pas que Google ait le droit de nous interdire les "requêtes automatisées" sur son site, dans la mesure où elles sont suffisamment espacées que pour ne pas perturber l'utilisation du site.

Jean-Luc
 
WRInaute discret
jeanluc a dit:
Par exemple, si j'écrivais en toutes lettres, en français, sur un site que je n'y autorise pas les "requêtes automatisées", Googlebot le visiterait quand même. Ce serait étonnant qu'un tribunal condamne Google pour violation de mes droits d'auteurs sur cette base. De la même façon, je ne crois pas que Google ait le droit de nous interdire les "requêtes automatisées" sur son site, dans la mesure où elles sont suffisamment espacées que pour ne pas perturber l'utilisation du site.
Faux! Si tu dis clairement à google (via le robots.txt) que tu ne veux pas de lui il ne vient pas!!

Et google a bel et bien un robots.txt qui interdit l'accès des robots à ses résultats.

Je pense que google peut tout à fait attaquer quelqu'un qui développe un robot qui va chercher les résultats de google pour une raison ou pour une autre.

Par contre, je me demande coment font les sites qui donne le pagerank, la position,... Ils sont tous dans l'illégalité? Ils sont tous en accords avec google? Comment font-il?

On peut utiliser l'api pour certaines choses mais pas pour tout, si?

++
 
WRInaute passionné
En vertu de quoi il pourrait l'attaquer ?

Par ce qu'il est indiqué dans son réglement que c'est interdit. Ce réglement a t-'il une quelconque valeur juridique ? Y a t il distinction par google entre un humain et un programme développé par un humain. Et par la justice.

Lire le contenu d'un site web de facon automatisé avec des aspirateurs est t-il légale ?. Je pense que tu ne lis que ce qu'il t'autorise à voir. tu pénétres en aucune sorte leurs système d'information, tu le lis simplement beaucoup plus vite ou tu l'exploites à ta facon.

Je me souviens d'un Wrinautes qui avait posté son programme qui composait une image à partir des résultats de recherche sous GG via un script.

Google peut sans doute tenter d'interdire par des voies de contre logiciel mais à mon avis cela en reste là.
 
WRInaute passionné
Si tu n'es pas autorisé à allé sur un serveur, il s'agit d'une intrusion dans un systeme informatique. De la meme maniere que si tu te balades dans l'arborescence d'un serveur mal sécurisé.
Bon, la comparaison est peut etre pas entierement valable mais c'est á mon avis une des voies de recours qui pourrait être faite.

François
 
WRInaute passionné
Il n'y a jamais eu de cas de condamnation pour ce genre de pratique ?

Cela m'étonnerait quand même qu'il n'y ait jamais eu de condamnation "pour l'exemple"...
 
WRInaute accro
agilis a dit:
Si tu dis clairement à google (via le robots.txt) que tu ne veux pas de lui il ne vient pas!!
Bien sûr, mais la question n'est pas de savoir comment techniquement on peut empêcher les visites.

La question est plutôt de savoir si on peut, à la fois, mettre des informations à la "libre" disposition du public sur le web et, en même temps, opposer des conditions d'utilisation arbitraires spécifiées dans une page de "conditions générales".

Jean-Luc
 
WRInaute discret
jeanluc a dit:
agilis a dit:
Si tu dis clairement à google (via le robots.txt) que tu ne veux pas de lui il ne vient pas!!
Bien sûr, mais la question n'est pas de savoir comment techniquement on peut empêcher les visites.

La question est plutôt de savoir si on peut, à la fois, mettre des informations à la "libre" disposition du public sur le web et, en même temps, opposer des conditions d'utilisation arbitraires spécifiées dans une page de "conditions générales".

Jean-Luc
Je voulais dire par là que tu peux diffuser une info librement mais interdire l'accès à cette info aux robots. Ce que fait google.

Et comme tout robots est censé respecter le robots.txt (au fait, c'est marqué où ça?), ben on est ,à mon avis, en tort si l'on récupère les résultats google de manière automatique.
 
WRInaute passionné
Tout à fait jeanluc.

Plus généralement je dirais : "peut on parvenir à l'information mise à la libre disposition du public par n'importe quel moyen ? "
 
WRInaute passionné
agilis:

Si je crée un script qui interroge Google à intervale raisonnablement régulier, Google ne me considérera pas comme un robot non ?

Et si je crée mon propre navigateur avec un refresh automatisé ? (je rassure tout le monde je n'en ai ni les compétences, ni le temps, ni même l'intention!!!).
Suis-je considéré comme un robot ?
 
WRInaute passionné
Faut faire alors un script qui dit tout simplement que tu n es pas un robots mais un être humain. Si ton script est lancé à partir d'un site distant chez free par exemple, et que google sait d'ou il est lancé. il pourra si il le souhaite te couper les ponts.

Mais si ton script se promène très rapidement d 'ip en ip, et de référer en référer. Il te considérera sans doute comme un humain.
 
WRInaute passionné
biddybulle:
Je n'ai pas l'intention de créer un script. C'est l'aspect légal du problème que je souhaite soulever ici. ;)
 
WRInaute accro
Comme le dit Agilis, je pense que cette condition de Google est redondante avec leur robots.txt. Donc Google met toutes les chances de son côté pour empêcher l'exploitation automatisée de ses résultats. Je les comprends. :wink:

Pour mr_go, on ne peut certainement pas faire n'importe quoi sur un site qu'on visite. Par contre, je ne pense pas qu'on puisse interdire grand chose dans des "conditions d'utilisation" dans la mesure où on ne peut pas raisonnablement attendre d'un utilisateur web qu'il prenne connaisse de ces conditions avant d'accéder au site. Vous avez déjà lu les "conditions d'utilisation" d'un site avant de l'avoir consulté, vous ? 8O

Jean-Luc
 
WRInaute discret
Est-on obligé de respecter le robots.txt? Quand on voit que des moteur comme msn ne les respectent pas toujours... :/
 
WRInaute accro
Relis le paragraphe, il commence par :

L'utilisation d'un programme automatique de vérification de classement constitue une infraction aux conditions d'utilisation de Google.

Infraction > punition
Google est tolérant, cependant.
 
WRInaute accro
L'utilisation d'un programme automatique de vérification de classement constitue une infraction aux conditions d'utilisation de Google.
certes, mais comme Google n'est pas législateur (enfin pas encore :lol: ), une "infraction aux conditions d'utilisation de Google" ne se traduira que par un blacklistage (temporaire/définitf) de ton IP ... :lol:
 
WRInaute accro
Je vais préciser ma pensée.
Les sites qui proposent des services basés sur l'exploitation automatique des données de Google sont juste tolérés dans la mesure où leur existence favorise l'essor du géant - on en a connu d'autres, des géants, soit dit en passant.
Ces sites à services créent une joyeuse animation, on se garde bien de communiquer trop précisément, ce qui entraîne rumeurs, légendes, joie pour les petits comme pour les grands.
On laisse se développer un mythe.
C'est du marketting élémentaire, mais à très grande échelle.
 
Discussions similaires
Haut