Google lance Bard, son chatbot intégré aux SERP

Olivier Duffez (admin)
Membre du personnel
On savait que Google allait réagir à la vague ChatGPT (et autres systèmes équivalents), surtout avec Bing qui l'intègre dans ses SERP dans les jours à venir.

Ce qui m'inquiète un peu, aussi bien en tant que SEO qu'éditeur de sites, c'est que pour une quantité croissante de situations, l'internaute aura une réponse qui ne nécessite d'aller sur aucun site (et d'ailleurs, il n'est pas aidé par Google qui ne fournira aucune source dans les réponses de son chatbot).

Et vous, qu'en pensez-vous ?

Voici donc Bard, le search chat IA de Google

google-bard-2023-02.jpg

Voilà une traduction rapide de leur annonce officielle :

Présentation de Bard​

C'est une période vraiment passionnante pour travailler sur ces technologies, car nous transformons des recherches approfondies et des percées en produits qui aident vraiment les gens. C'est le chemin que nous avons parcouru avec les grands modèles de langage. Il y a deux ans, nous avons dévoilé la nouvelle génération de capacités de langage et de conversation alimentées par notre modèle de langage pour les applications de dialogue (ou LaMDA en abrégé).

Nous avons travaillé sur un service expérimental d'IA conversationnelle, alimenté par LaMDA, que nous avons appelé Bard. Aujourd'hui, nous franchissons une nouvelle étape en l'ouvrant à des testeurs de confiance avant de le rendre plus largement disponible au public dans les semaines à venir.

Bard cherche à combiner l'étendue des connaissances mondiales avec la puissance, l'intelligence et la créativité de nos grands modèles linguistiques. Il s'appuie sur des informations provenant du web pour fournir des réponses fraîches et de qualité. Bard peut être un exutoire pour la créativité et une rampe de lancement pour la curiosité, en vous aidant à expliquer les nouvelles découvertes du télescope spatial James Webb de la NASA à un enfant de 9 ans, ou à en savoir plus sur les meilleurs attaquants de football du moment, puis à obtenir des exercices pour développer vos compétences.

Nous le publions initialement avec notre modèle léger de LaMDA. Ce modèle beaucoup plus petit nécessite beaucoup moins de puissance de calcul, ce qui nous permet de l'étendre à un plus grand nombre d'utilisateurs et d'obtenir davantage de commentaires. Nous combinerons les commentaires externes avec nos propres tests internes pour nous assurer que les réponses de Bard répondent à des critères élevés de qualité, de sécurité et d'ancrage dans des informations réelles. Nous sommes ravis que cette phase de test nous permette de continuer à apprendre et à améliorer la qualité et la rapidité de Bard.

Intégrer les avantages de l'IA dans nos produits quotidiens​

Nous avons une longue histoire d'utilisation de l'IA pour améliorer la recherche pour des milliards de personnes. BERT, l'un de nos premiers modèles Transformer, a été révolutionnaire dans la compréhension des subtilités du langage humain. Il y a deux ans, nous avons lancé MUM, qui est 1 000 fois plus puissant que BERT et possède une compréhension de l'information de niveau supérieur et multilingue, capable de repérer les moments clés dans les vidéos et de fournir des informations essentielles, y compris une aide en cas de crise, dans davantage de langues.

Nos technologies d'IA les plus récentes, telles que LaMDA, PaLM, Imagen et MusicLM, s'appuient sur cette technologie pour créer de toutes nouvelles façons d'appréhender l'information, qu'il s'agisse de langage, d'images, de vidéo ou d'audio. Nous nous efforçons d'intégrer ces dernières avancées de l'IA dans nos produits, en commençant par la recherche.

L'une des possibilités les plus intéressantes est la façon dont l'IA peut approfondir notre compréhension de l'information et la transformer plus efficacement en connaissances utiles - ce qui permet aux gens d'aller plus facilement au cœur de ce qu'ils recherchent et d'accomplir leurs tâches. Lorsque les gens pensent à Google, ils pensent souvent qu'ils se tournent vers nous pour obtenir des réponses factuelles rapides, comme "combien de touches compte un piano ?". Mais de plus en plus, les internautes se tournent vers Google pour obtenir des informations et une compréhension plus approfondies, par exemple : "Le piano ou la guitare sont-ils plus faciles à apprendre et combien de temps faut-il pour s'exercer ? L'apprentissage d'un tel sujet peut demander beaucoup d'efforts pour déterminer ce que vous devez vraiment savoir, et les gens veulent souvent explorer un éventail diversifié d'opinions ou de perspectives.

L'IA peut être utile dans ces moments-là, en synthétisant les idées pour les questions auxquelles il n'y a pas une seule bonne réponse. Bientôt, vous verrez des fonctions d'IA dans la recherche qui distilleront des informations complexes et de multiples points de vue dans des formats faciles à digérer, afin que vous puissiez comprendre rapidement la situation dans son ensemble et en apprendre davantage du Web : qu'il s'agisse de rechercher d'autres points de vue, comme les blogs de personnes qui jouent à la fois du piano et de la guitare, ou d'approfondir un sujet connexe, comme les étapes à suivre pour débuter en tant que débutant. Ces nouvelles fonctionnalités d'IA seront bientôt disponibles sur Google Search.

Téléphone portable montrant une requête de recherche pour "le piano ou la guitare est-il plus facile à apprendre et combien de pratique chacun nécessite-t-il ?". La page de résultats de recherche affiche une réponse à la question, alimentée par l'IA.

Lorsque vous recherchez des informations, les fonctions d'IA dans la recherche peuvent distiller les informations pour vous aider à avoir une vue d'ensemble.

Aider les développeurs à innover avec l'IA​

Au-delà de nos propres produits, nous pensons qu'il est important de faire en sorte que d'autres puissent bénéficier de ces avancées de manière simple, sûre et évolutive en s'appuyant sur nos meilleurs modèles. Le mois prochain, nous commencerons à accueillir les développeurs individuels, les créateurs et les entreprises afin qu'ils puissent essayer notre API de langage génératif, initialement alimentée par LaMDA, avec une gamme de modèles à suivre. Au fil du temps, nous avons l'intention de créer une suite d'outils et d'API qui permettront à d'autres de créer facilement des applications plus innovantes grâce à l'IA. Disposer de la puissance de calcul nécessaire pour construire des systèmes d'IA fiables et dignes de confiance est également crucial pour les startups, et nous sommes ravis de contribuer à l'intensification de ces efforts grâce à nos partenariats Google Cloud avec Cohere, C3.ai et Anthropic, qui ont été annoncés la semaine dernière. Restez à l'écoute pour obtenir bientôt plus de détails sur les développeurs.

Audacieux et responsable

Il est essentiel que nous apportions au monde des expériences ancrées dans ces modèles de manière audacieuse et responsable. C'est pourquoi nous nous engageons à développer l'IA de manière responsable : En 2018, Google a été l'une des premières entreprises à publier un ensemble de principes relatifs à l'IA. Nous continuons à fournir des formations et des ressources à nos chercheurs, à nous associer à des gouvernements et à des organisations externes pour développer des normes et des bonnes pratiques, et à travailler avec des communautés et des experts pour rendre l'IA sûre et utile.

Qu'il s'agisse d'appliquer l'IA pour transformer radicalement nos propres produits ou de mettre ces puissants outils à la disposition des autres, nous continuerons à faire preuve d'audace en matière d'innovation et de responsabilité dans notre approche. Et ce n'est qu'un début : d'autres initiatives seront prises dans tous ces domaines au cours des semaines et des mois à venir.
 
Dernière édition:
WRInaute discret
Je me suis fait exactement la même réflexion,

Si google intègre l'IA dans son moteur de recherche comment est-ce que ça fonctionnera, est-ce qu'il mentionnera la source du site d'où provient l'information ? si ce n'est pas le cas alors comme tu as dit les personnes n'auront plus besoin de consulter les sites web, ce qui fait que le trafic et les conversions vont drastiquement chuter et la manière d'utiliser le site web va radicalement changer aussi, mais le truc c'est que Google se sert de ces sites web pour produire ses réponses sans rémunérer les sites web derrière, c'est un peu comme si un agriculteur produisait du blé et qu'une entreprise venait prendre ce blé gratuitement pour en faire de la farine et la revendre derrière.

Car le problème c'est que L'IA a besoin de ces articles rédigés pour produire ses réponses, mais avec le système actuel, il n'y a aucun intérêt pour les rédacteurs de rédiger ces articles et si les rédacteurs ne rédigent pas, l'IA a moins d'infos.

Du coup je me questionne vraiment sur la forme que prendra ce système et sur le changement futur du SEO.
Est-ce que Google va mettre en place un système rémunérant les contenus utilisés pour générer la réponse, est-ce qu'il va citer les sources, et même s'ils citaient les sources est-ce que ça aura le même impact que si c'était un moteur de recherche.

J'imagine aussi que le positionnement sur les réponses de L'IA risque d'être extrêmement dur et concurrentiel, est-ce que le ROI en vaudra la chandelle ?
Ce qui est sûr c'est que pour commencer on aura une version hybride mi-moteur de recherche et mi-IA, mais déjà cette version hybride risque de faire chuter grandement le trafic des sites web, y a qu'à voir le succès de ChatGPT pour imaginer que l'utilisation d'une IA couplé à Internet risque d'être beaucoup plus grande que celle de ChatGPT (qui pour le moment a ses limites).

J'imagine aussi qu'il y aura un système de publicité lié à ce Bard, et qu'on pourra utiliser Google Ads pour se positionner sur des requêtes clés effectuées sur Bard.

Mais la grosse question est : qu'adviendra-t-il du SEO ? et quelle forme prendra-t-il ? est-ce qu'il ne va pas finir par s'éteindre pour laisser la majeure partie de la place au SEA.
Parce que rédiger des articles sur son blog ne servira plus à grand chose, mais Google aura besoin de ses articles pour nourrir son IA, du coup est-ce que ça va pas donner naissance à un genre de grand blog WIKIGOOGLE que tout le monde pourra alimenter (peut-être contre rémunération) et qui servira à nourrir l'IA, et les sites web derrière redeviendront de simples sites vitrines servant à afficher les informations cruciales
 
WRInaute discret
Je pense que la meilleure façon de faire évoluer ce système d'IA, c'est que les entreprises en charge des IA aient un système d'encodage permettant à tout un chacun de s'inscrire et d'encoder son contenu, et à chaque fois que ce dit-contenu est utilisé pour générer une réponse, alors la personne qui a encoder ce contenu recevra une certaine rémunération.
 
WRInaute occasionnel
Je pense que la meilleure façon de faire évoluer ce système d'IA, c'est que les entreprises en charge des IA aient un système d'encodage permettant à tout un chacun de s'inscrire et d'encoder son contenu, et à chaque fois que ce dit-contenu est utilisé pour générer une réponse, alors la personne qui a encoder ce contenu recevra une certaine rémunération.
LOL. Rêvons.
 
WRInaute impliqué
Entretemps et par ailleurs, Microsoft a donné quelques informations sur l'intégration de l'IA dans le "New Bing".

Et en ce qui concerne les sources des réponses produites par IA, l'intention actuelle chez Bing est de les mentionner :

"The new Bing also cites all its sources, so you’re able to see links to the web content it references."

https://blogs.microsoft.com/blog/20...osoft-bing-and-edge-your-copilot-for-the-web/

Ceci étant dit, il est clair que les tendances citées ici dans la discussion
"pour une quantité croissante de situations, l'internaute aura une réponse qui ne nécessite d'aller sur aucun site" (Webrankinfo)
et "(le SEO va) laisser la majeure partie de la place au SEA." (news8)
sont des tendances très lourdes en oeuvre déjà depuis plusieurs années sans rencontrer d'opposition quelconque et vont s'accentuer encore davantage - je dirais dans une croissance exponentielle- avec l'intégration de l'IA chez Google et Microsoft.

D'ailleurs, cela ne s'arrêtera pas à cela puisque , comme ledit Microsoft dans la présentation précitée:
"There are times when you need MORE than an answer – you need inspiration. The new Bing can generate the content to help you. It can help you.... (for instance) create a 5-day itinerary for a dream vacation to Hawaii, with links to book your travel and accommodations".

Donc, une autre tendance forte, celle où les grands moteurs de recherche deviennent eux-mêmes fournisseurs de services aux consommateurs, va aussi se trouver fortement stimulée; car, une fois que les moteurs auront par IA informé et conseillé les consommateurs, l'acte de vente suit logiquement.

En fait, avec ces trois tendances, c'est tout notre monde online (hors réseaux sociaux) qui aura complètement changé.

Enfin, autre conséquence: les petits ou prétendus moteurs (duckduckgo, ecosia, qwant , etc....) ne pourront pas survivre.
 
WRInaute impliqué
A vrai dire, c'est de tous bords - y compris les pouvoirs politiques, les autorités fiscales, les autorités de la concurrence, les médias (presse écrite et média télévisés, gros perdants en matière de publicité) , les consommateurs et leurs associations de défense, les défenseurs de la vie privée, etc - que, me semble-t-il, les réactions et oppositions ne sont pas à la hauteur de ce qu'elles devraient.

Et même du coté des webmasters et des pros du marketing digital, je ne crois pas du tout qu'il y ait un consensus pour "critiquer" les évolutions en cours (et encore moins s'y opposer).

Après tout, les $ 283 milliards de recettes d'Alphabet en 2022 ne sont pas seulement le fruit d'un service d'une certaine qualité, mais avant tout le résultat de tout un système, souvent à la limite de la légalité (pour ne pas dire plus), où les profits et les charges ne sont pas équitablement répartis entre tous ceux qui interviennent tout au long du processus de production. Et ce n'est qu'un aspect du "problème Google".

On continue de parler de "moteur de recherche"; mais, dans énormément de cas, Google, c'est tantôt rien d'autre qu'un annuaire de liens payants (les adwords et liens analogues auxquels s'arrêtent pas mal d'utilisateurs qui ne voient même pas le reste), tantôt une véritable plateforme de commerce (le shopping à l'instar d'Amazon), tantôt un pur scrapeur de contenus d'autrui (les "fameuses positions zéro" toujours plus envahissantes), tantôt (dans certains secteurs) un fournisseur de services (ex. dans les voyages à l'instar des tour opérateurs). Et, dans tous les cas, un collecteur et exploiteur de données personnelles (malgré toutes les réglementations). A search engine, isn't it.
 
WRInaute impliqué
La solution pour empêcher Google de récupérer du contenu existe et est largement connue :
Code:
User-agent: Googlebot
User-agent: AdsBot-Google
User-agent: Googlebot-Image
Disallow: /

Voilà, sauf que finalement, personne n'a vraiment envie que son site ne soit pas exploré par Google. Je ne suis pas un défenseur absolutiste de la firme de Mountain View, mais il ne faut pas oublier ce que le moteur de recherche draine gratuitement d'internautes vers les sites, à la louche, 80 % des visiteurs des sites y ont été conduit depuis une requête Google. C'est une question de rapport bénéfice / perte : s'il est mieux de se passer de Google, c'est faisable.

Je suis peut être optimiste, mais je ne partage pas les craintes exprimées ici ou là eu égard aux réponses pré-rédigées par une IA.

Déjà, cela ne concerne que le contenu, tout le web marchand est à l'abri. Ensuite, il faut relativiser l'intérêt d'une réponse générée par une IA. Par exemple, sur une requête du style "meilleur appareil photo numérique en 2023", je suis attentif à qui a rédigé l'article et je ne suis pas certains qu'une IA soit attractive, de même l'internaute n'attends pas forcément une réponse toute faite à sa question, mais des pistes, par exemple sur une requête "comment améliorer SEO". Et je parle même pas de requêtes plus sensibles du genre "comment payer moins d'impôt", "mention obligatoire site internet", etc.

Et même sur du contenu non-sensible, je ne suis pas forcément attiré par le texte de l'IA. Vous connaissez sans doute l'émission de France Inter, Le Masque et la plume, il m'arrive de l'écoute avec plaisir, pourtant je ne cherche pas particulièrement leur opinion sur tel livre, tel film ou telle pièce, mais le ton est divertissant en lui-même. Il en est de même de certains blogs dont j'apprécie la sélection, l'angle d'approche et le traitement. Un texte généré par une IA ne remplacera pas cela non plus.

Bien sûr, il y a dans tout ça des contenus qui seront supplantés par une réponse automatisé : "quand est mort Wagner" (il y a 150 ans jour pour jour), "dans quel album figure la chanson One ?", "qui a composé la Macaréna ?", trois questions musicales d'inégale importance mais pour lesquelles une réponse automatisée fera le job. Tout comme "combien fait 13 inches en cm" ou "274 USD en EUR" me donnent déjà des réponse sans que j'ai besoin d'aller consulter un site derrière.
 
WRInaute impliqué
Depuis plusieurs années, de plus en plus de sites doivent recourir au SEA. (par ailleurs, se conformer à toutes les directives SEO de google, ce n'est pas gratuit non plus, en termes de temps et de veille).

Et ce qui est en cause, c'est la proportion relative des internautes que Google renvoie aux sites et de ceux qu'il garde sur ses propres pages par ses "positions zéro et analogues" (alors que celles-ci sont des contenus produits par autrui).

il faut relativiser l'intérêt d'une réponse générée par une IA
Oui, certes*.

Mais, tu peux être sûr que non seulement par nature, les réponses par IA dans Google et Bing retiendront les utilisateurs chez ces moteurs bien davantage qu'à présent, mais surtout que Google et Bing feront tout pour qu'il en soit ainsi (probablement par des questions associées et autres), d'autant plus que les limitations actuelles (droit d'auteur) s'évaporeront en grande partie dans le cas d'usage d'IA.

Il ne faudra pas non plus attendre longtemps avant que des liens sponsorisés apparaissent en liaison avec les réponses d'IA.


* Effectivement , l'IA ne répond pas à tous les besoins; vois cette caricature :):
https://www.lecho.be/content/dam/echo/redaction/vadot/2023/février/23_02_11_Vadot_au_carre_IA.jpg/jcr:content/renditions/original
 
WRInaute impliqué
se conformer à toutes les directives SEO de google, ce n'est pas gratuit non plus
Bien sûr, quand je parle de gratuité, je parle du service de référencement naturel que Google fournit aux sites web. Ça ne veut pas dire qu'il n'y a pas d'argent : Google gagne de l'argent à cette occasion, l'administrateur du site web en dépense pour être bien positionné (en monnaie sonnante et trébuchante, en salaire, en temps, etc.) c'est juste que les dépenses du second ne rémunèrent pas le premier.

Google et Bing retiendront les utilisateurs chez ces moteurs bien davantage qu'à présent, mais surtout que Google et Bing feront tout pour qu'il en soit ainsi […]
Il ne faudra pas non plus attendre longtemps avant que des liens sponsorisés apparaissent en liaison avec les réponses d'IA.
Les moteurs de recherchent actuels (à quelques exceptions marginales près) se rémunèrent avec la publicité. Il est vrai qu'à l'inverse des RS, ils ne cherchent généralement pas à capter l'attention de l'utilisateur ; ça a d'ailleurs été une innovation de Google de proposer une page dépouillée à une époque où le modèle graphique dominant était celui du portail.

Est-ce que ça va changer ? c'est possible, je n'en suis pas absolument convaincu. Je pense que le but premier est de fournir une réponse pertinente le plus rapidement possible à l'internaute, non pas pour qu'il reste sur la page, mais pour qu'il y revienne, satisfait d'avoir eu une réponse pertinente de façon immédiate. La raison est que l'internaute ne va pas sur un moteur de recherche pour tuer le temps, comme il irait sur un RS. Avoir son attention captée n'est pas perçu comme un défaut pour un utilisateur RS (sauf à pester contre lui-même de n'avoir rien fait de son après-midi), passer 15 minutes à errer de question en question alors que, à la base, je voulais juste connaître la quantité de fromage à prévoir par personne pour une fondue quand je suis chez le crémier en est une autre.

Je me trompe peut-être, mais je vois d'abord ça comme la continuation des outils (conversion, calculs, calendrier, etc.) ou des knoweldge graphs qui existent déjà.
 
WRInaute impliqué
@ emualliug

Les différences d'analyse sont trop grandes pour que la discussion soit utile. Simplement avant de terminer mes interventions ici, je voudrais une dernière fois préciser ma pensée.

Ce n'est pas une question de bien capter ou non l'attention des utilisateurs ni d'avoir ou non des visiteurs qui n'ont que du temps à tuer.

Pour tout business et en particulier pour tout service en ligne qui vit de recettes publicitaires, l'abc du business, c'est de conserver les visiteurs chez lui. Que ce soit pour Google ou pour n'importe qui d'autre, c'est tout à fait normal: plus le visiteur reste, plus il y a des occasions de cliquer de la pub (dans le cas de shopping, plus d'occasions d'acheter des produits additionnels), bref, plus de bénéfices. Accessoirement aussi, plus aussi on en sait sur les préférences du visiteur, ce qui vaut de l'or.

Mais, dans le chef de Google, cela pose problème parce que Google le fait avec des contenus qu'il ne génère pas lui-même et que donc il utilise des contenus d'autrui, non pas pour envoyer l'internaute chez l'auteur du contenu (= fonction primaire d'un moteur de recherche), mais pour le garder chez lui. C'est comme cela que fonctionnent quasi toutes les positions zéro de Google (en autres, les Questions and Answers) et aussi son Knowledge Graph.

Et vu la position centrale de Google, ce problème n'est pas insignifiant. En images par ex. , on peut estimer que (sauf peut-être en shopping) que pas plus de 5 à 8 % des images cliquées par les visiteurs dans les résultats des recherche d'images donnent lieu à une visite du site source (et pour cause, le moteur affiche lui-même alors l'image intégralement).

On peut discuter que les auteurs de contenus resteraient ou non actuellement gagnants de la mise en exergue de leurs contenus sous ces formes. Mais, avec les réponses par IA dans les moteurs de recherche, comme d'autres ici le pressentent, les utilisateurs vont rester encore bien davantage sur les pages des moteurs. Et cela peut devenir dramatique pour les webmasters si ces réponses par IA deviennent prépondérantes dans les moteurs et encore pire si les sources des réponses ne sont pas suffisamment ou pas du tout indiquées. Et crois-moi, les moteurs ajouteront bien souvent des questions et réponses (par IA) associées avant que les visiteurs n'aillent sur les sites sources.
 
WRInaute accro
Et...

Le Sénat Américain n'est-t-il pas en train de mettre en cause la responsabilité des GAFA ( Google, Facebook, etc... ) quant à leurs contenus ?

La Loi de 2016, exonérait les acteurs du web pas considérés comme éditeurs.

Quid de l'IA dans ces conditions ?

Qui va gagner ?

L'argent ou la prudence ?

L'évolution économique et la destruction créatrice de Schumpeter ...

Mes 2 cents.
 
WRInaute accro
Pardon

Par rapport au problème...

L'équation :

- Communication,

- Visibilité,

- Relation n à 1 ou n à p,

- Solution : Faire comme Google.

C'est-à-dire : Systématiser le caractère collectif des affiliations entre sites web.

Ou : Partager la visibilité des sites web.

L'apport de l'IA conduit Google à avoir une approche propriétaire.

Peut-être changera-t-il de paradigme.

Quelle serait pour Google l'utilité de ce changement de paradigme ?

C'est toute la question.

Qu'il s'est déjà posé probablement.

Voilà voilà.
 
WRInaute accro
Un autre problème.

Un programme orienté objet, c'est des objets en interrelations dans un script.

Quel rapport entre celà et l'équivalent avec des objets communiquant sur le réseau ?

Comment modéliser un standard de communication d'échanges de données-flux entre objets sur le net, sur le plan qualitatif et quantitatif, qui aurait éventuellement une fonctionnalité d'IA ?

Comment imaginer un schéma adaptatif permettant de recevoir n'importe quel type d'application pratique ?

Quels rôles auraient les clients de ce type de réseau ?

Pourraient-ils enrichir le réseau, comme c'est le cas actuellement pour les développements partagés type cvs ?

Voilà voilà.
 
WRInaute passionné
Effectivement je pense comme toi Olivier, si Google fournit immédiatement la réponse à une question que l'internaute a tapé sous Google (sans mettre de lien vers cette source) alors l'internaute ne cliquera plus sur les liens de nos sites... sauf que ces internautes continueront de cliquer sur les Google Ads qui seront bien sur placées avant la « fameuse » réponse fournit par l'IA.

Google ajoute donc une nouvelle barrière (sous couvert d'IA) aux clics sur les liens naturels... et tout ça dans le but de vendre encore plus de pubs parce que les liens naturels seront de moins en moins consultés et que pour survivre les entreprises n'auront de choix que d'acheter des pubs à Google.

Voici quelques chiffres qui devraient vous faire réflêchir :

- Les 3 premières positions de Google génèrent près de 60% des clics
- Près de 70% des clics sont concentrés sur les 5 premiers liens
- Seulement 4% des internautes cliqueront sur les liens situés de la 6e à la 10e position

Si Google rajoute maintenant, grâce à l'IA, la réponse aux questions des internautes (avant les liens naturels), ces chiffres ci-dessus seront encore pire. Si vos liens naturels ne se positionnent pas dans le top 3 des serps : vous êtes morts. Qui consultera le 7ième ou le 8ième lien d'une requête pour laquelle l'internaute a obtenue automatiquement en début de page la réponse par l'IA ?

Il est grand temps d'agir et de forcer Google (par le biais de la Commission Européenne) à modifier le placement de ses liens (sponsorisés et naturels) et de laisser enfin une change aux éditeurs de sites de pouvoir récolter le fruit de leur travail éditorial. Pour ma part, je préconise de mélanger et d'afficher ensemble dans un même bloc les liens sponsorisés avec les liens naturels via un système de position aléatoire : qu'on en finisse enfin avec les 3 à 4 premiers liens sponsorisés placés systématiquement avant les liens naturels sur toutes les requêtes commerciales car cela fausse la libre concurrence entre les entreprises du e-commerce. Je rappelle que Google détient un monopole dans la recherche sur Internet en Europe avec plus de 92% part de marché et qu'à ce titre il ne peut pas faire ce qu'il veut, quand il veut et ou il veut (même si c'est une entreprise privée) !
 
WRInaute impliqué
Si Google rajoute maintenant, grâce à l'IA, la réponse aux questions des internautes (avant les liens naturels), ces chiffres ci-dessus seront encore pire. Si vos liens naturels ne se positionnent pas dans le top 3 des serps : vous êtes morts. Qui consultera le 7ième ou le 8ième lien d'une requête pour laquelle l'internaute a obtenue automatiquement en début de page la réponse par l'IA ?
Il ne faut pas se limiter au CTR par position "brut", les chiffres sont certes rappelés partout, mais assez peu souvent avec une analyse critique et pertinente.

Quand quelqu'une tape "facebook", "amazon", "ebay", etc. dans un moteur de recherche, et que le premier résultat est (sans surprise) le site officiel qui correspond à la marque entrée en requête, il n'y a rien de surprenant à ce que le nombre de clics sur le premier résultat soit important. Ces requêtes ne sont pas négligeables en volume, de sorte qu'en conclure que seule la première place compte est trompeur. Ce qu'il faut voir, c'est plutôt la façon dont les clics se répartissent sur des requêtes plus susceptibles de concurrence.

Tout ça pour dire qu'il faut voir sur quelles requêtes la réponse générée par l'IA prendra le dessus sur un site. Si un site n'apporte aucune plus-value pour l'internaute qu'une réponse générée automatiquement, je ne vois pas pourquoi il faudrait contraindre Google à ce qu'il incite les internautes à consulter ces sites.

Il ne faut pas lutter contre l'incidence de l'IA en espérant une interdiction ou une réglementation de celle-ci qui booste nos sites. Il faut rivaliser contre l'IA en apportant ce qu'elle ne pourra pas faire.
 
WRInaute passionné
Merci pour ta réponse.

Comme tu as pu le remarquer, sur une requête commerciale, Google place systématiquement 3 (à 4) liens sponsorisés en première position et il place ensuite les liens naturels qui sont positionnés par son algorithme. Si tu n'achètes pas de pubs à Google et que tu mises sur le référencement naturel pour avoir des visiteurs sur ton site et que sur cette requête le lien de ton site est en 3ième position (ce qui est déjà pas si mal), en fait la position de ton lien se trouve en 6ième position (avec les 3 liens sponsorisés) et là ça change tout en terme de nombre de clics car seul 4% des internautes cliqueront à partir du 6ième lien. S'il n'y avait pas eu ces 3 liens sponsorisés placés en premier, ton lien naturel aurait été en 3ième position et tu aurais récolté beaucoup plus de clics... et tu aurais donc eu plus de clients potentiels sur ton site.

Comme tu as pu le remarquer aussi, les liens sponsorisés et les liens naturels sont de la même typographie et de la même couleur, ce qui porte à confusion dans l'esprit de l'internaute lambda, qui clique sur les « premiers liens » que Google lui donne (en l'occurrence des liens sponsorisés), sans savoir la plupart du temps qu'il clique sur des liens publicitaires. Google est satisfait parce qu'il empoche de l'argent grâce à ce clic et il se fiche de savoir si cet internaute cliquera sur un des liens naturels en dessous. Le problème c'est que les entreprises du e-commerce qui ont misé sur le référencement naturel récolte des miettes de clics avec ce système qui dure depuis 25 ans.

Si en plus Google rajoute avant les liens naturels une réponse automatique grâce à son IA, alors on a plus que les yeux pour pleurer et la part sera encore plus belle pour les liens sponsorisés : il ne restera plus qu'à acheter des liens sponsorisés pour espérer avoir des visiteurs ! On peut donc affirmer que si l'on ne paie pas Google (en lui achetant des pubs) la viabilité économique des entreprises du e-commerce est gravement menacée. C'est un abus de position dominante et une forme de racket : tu paies Google, tu existes, sinon tu crèves !

Et c'est là que la Commission Européenne doit intervenir en obligeant Google à ne pas fausser la libre concurrence entre les entreprises du e-commerce européenne (celles qui misent sur l'achat de publicités et celles qui misent sur le référencement naturel) en respectant une totale impartialité dans le positionnement de ces liens dans les serps et ce quel qu'ils soient : sponsorisés ou naturels. Pour ma part, je préconise de mélanger et d'afficher ensemble dans un même bloc les liens sponsorisés avec les liens naturels via un système de position aléatoire.
 
WRInaute impliqué
car seul 4% des internautes cliqueront à partir du 6ième lien
Une fois encore, ce chiffre brut n'a pas de sens (surtout en mélangeant promotionnel et naturel) : il faut discriminer suivant le type de requête.

Par exemple quelqu'un qui cherche le numéro d'une librairie bordelaise "le Petit lecteur assidu" va taper "petit lecteur assidu", et il est probable, si cette librairie existe, que ce résultat lui soit proposé dans les tous premiers résultats, voir le premier. Se classer sur une telle requête en deuxième, troisième, douzième position n'a pas (ou peu) d'intérêts : l'internaute veut le numéro de cette librairie en particulier, pas le site d'une autre librairie.
Par contre, quelqu'un qui cherche, de façon générale une librairie à Bordeaux va chercher quelque chose du genre "librairie bordeaux", et ne pas s'arrêter aux premiers résultats.

Google rajoute avant les liens naturels une réponse automatique grâce à son IA
Là encore, il faut voir sur quelle intention de requête. Si à nouveau l'internaute veut juste avoir le numéro de téléphone d'une librairie (pour reprendre mon exemple), Google fournit déjà cette info par les featured snippet et, en tant qu'utilisateur, je trouve ça très bien. En tant que webmaster, c'est pas plus mal, c'est pas grave si les gens ne vont pas sur un site pour récupérer une info tant qu'ils l'ont ailleurs (et qu'elle n'est pas détournée).

Si quelqu'un cherche le site de la librairie "le Petit lecteur assidu" pour passer une commande, par exemple, l'IA n'y pourra pas grand chose : l'utilisateur ne veut pas discuter avec un robot, il veut acheter un produit.

Bien sûr il y a des cas où le contenu généré par une IA va être en compétition avec le contenu d'un site, mais ce n'est pas systématique. Et il faut, dans ce cas, se différencier par rapport à un contenu automatique.

je préconise de mélanger et d'afficher ensemble dans un même bloc les liens sponsorisés avec les liens naturels
On s'éloigne un peu du sujet, mais ça me paraît la pire des méthodes : le promotionnel et le naturel sont ainsi complètement mélangés et le risque de se méprendre est encore plus grand.
 
WRInaute passionné
Je parle bien entendu de requêtes commerciales et sur ce type de requêtes il y a systématiquement des liens sponsorisés avant les liens naturels.
Bien sûr il y a des cas où le contenu généré par une IA va être en compétition avec le contenu d'un site, mais ce n'est pas systématique. Et il faut, dans ce cas, se différencier par rapport à un contenu automatique.
Je ne suis pas du tout de ton avis. Si un internaute cherche à avoir des infos sur les systèmes split de climatisation, l'IA va lui recracher une définition de ce produit mais ça ne vaudra jamais les conseils et les avis de professionnels de sites spécialisés et il y a fort à parier que les internautes goberons la définition de l'IA sans aller consulter les sites spécialisés et passeront à coté d'infos utiles et pratiques. L'être humain est fénéant et c'est encore plus vrai sur le web.

On s'éloigne un peu du sujet, mais ça me paraît la pire des méthodes : le promotionnel et le naturel sont ainsi complètement mélangés et le risque de se méprendre est encore plus grand.
Et pourquoi c'est la pire des méthodes ? Avec la méthode d'aujourd'hui, plus de 70% des internautes ne savent pas qu'ils ont cliqué sur une pub, ils sont redirigés automatiquement vers le site de l'annonceur sans le savoir, tu trouves cela normal ? C'est la porte ouverte aux arnaqueurs et aux escrocs : on crée une arnaque, on crée un site Internet, on achète des pubs Google et on commence immédiatement à escroquer les gens. C'est exactement ce qui s'est passé avec cette arnaque et des centaines de français ont perdu tout ou partie de leur économie... grâce à Google et à ses liens sponsorisés identiques aux liens naturels et qui sont placés en première position ! Et Google n'est pas net dans cette affaire parce qu'il laisse ces escrocs lui acheter des adsenses et Google s'est enrichit un peu plus grâce à l'argent des victimes : c'est une honte et j'espère que tu ne cautionnes pas cela !
 
Discussions similaires
Haut