Google et son futur moteur intelligent (Sémantique)

Discussion dans 'Référencement Google' créé par kmenslow, 15 Mars 2012.

  1. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    La suite sur Clubic
     
  2. manubu
    manubu WRInaute occasionnel
    Inscrit:
    18 Novembre 2005
    Messages:
    253
    J'aime reçus:
    1
    Bonjour,
    si cela est vrai ça promet pour la suite.
     
  3. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    Google finira bien un jour à être autonome, il n'aura plus besoin de la plupart des sites internet. :|
     
  4. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    sans compter sa politique de développement de comparateurs directs / indirects dans les secteurs les plus porteurs du web: voayges, vêtements, .. à qui le tour?
     
  5. cololo
    cololo Nouveau WRInaute
    Inscrit:
    29 Août 2011
    Messages:
    10
    J'aime reçus:
    0
    Les sites d'actus???
     
  6. DjamesAllen
    DjamesAllen WRInaute discret
    Inscrit:
    22 Février 2012
    Messages:
    146
    J'aime reçus:
    0
    Un nouveau moteur de recherche, cela promet si on ce base sur les révélations de cet article.
     
  7. sovite
    sovite WRInaute discret
    Inscrit:
    8 Décembre 2006
    Messages:
    207
    J'aime reçus:
    0
    Il faudrait dire a nos visiteurs d'utiliser d'autres moteurs de recherche dès maintenant. Parce qu'au final google nous enterrera tous.
     
  8. philyd
    philyd WRInaute occasionnel
    Inscrit:
    8 Juin 2004
    Messages:
    479
    J'aime reçus:
    0
    Selon BFM business, la recherche sémantique concerne 20% des sites, donc chamboulement énorme en perpective 8O
     
  9. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    encore une bourde de journalistes. Google aurait en fait parlé de 10% à 20ù des requêtes.. pas des sites !
     
  10. nervusdm
    nervusdm WRInaute impliqué
    Inscrit:
    5 Janvier 2008
    Messages:
    616
    J'aime reçus:
    0
    Notez que la finalité est moins de visites pour les sites internet.
     
  11. acamar
    acamar WRInaute passionné
    Inscrit:
    27 Novembre 2005
    Messages:
    1 341
    J'aime reçus:
    0
    Il y aura un massacre pour les sites qui travaillent le référencement plutôt que le contenu propre.. ou que je dis n'importe quoi !
     
  12. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Il m'a fait sourire cet article ... genre google demain c'est LE WEB (c'est vrai quoi ! pourquoi s’embarrasser des éditeurs qui fournissent l'information).
    Depuis le temps que je pense que GG est un parasite qui exploite notre travail en redistribuant des roupies via adsense ...
    Bref exploitons au max adsense et mettons nous en relation avec ce qui peut contrecarrer GG pour équilibrer la balance.

    "Google est ton pire ennemi a la fin" vive la mondialisation.
     
  13. sovite
    sovite WRInaute discret
    Inscrit:
    8 Décembre 2006
    Messages:
    207
    J'aime reçus:
    0
    Je pense que la dérive est orchéstrée par toute les régies publicitaires, que se soit adsense ou une autre plateforme francaise qui redistribue des roupies.

    Si on était bien payé, on pourrait monter de plus grosses structures, développer de nouveaux sites qui seraient bien financés par la pub au point de pouvoir en vivre et embaucher des salariés. Il y a 5 ans tout était possible. Sauf que les régies pubs n'ont pas voulus mieux payer les affiliés alors que le nombre d'internautes n'ont fait qu'augmenter de jour en jour. On a augmenté nos volumes d'affichage, de clic, de ventes, de leads mais nos revenus n'ont que baissés.

    Le fait que les régies publicitaires gardent 95% du gateau font que ce sont les seuls à générer des chiffres d'affaires monstrueux. En attendant les éditeurs de sites meurent un par un faute de rentabilisation. Pas parce que nos sites seraient de la merde, simplement parce que les rémunérations sont trop faibles pour en vivre, payer des charges, investir du temps dans de nouveaux projets...

    Le serpent va finir par se mordre la queue. Si il n'y a plus d'editeurs, je ne vois pas comment les régies pourront afficher des bannières. Et meme si google proposait que des sites à eux je pense pas que les internautes soient 100% satisfaits du contenu.
    Il faut que les régies redistribuent plus d'argent aux éditeurs sinon dans tous les cas eux aussi mettront la clef sous la porte, sauf google bien sur.
     
  14. ElvisDeRetour
    ElvisDeRetour WRInaute discret
    Inscrit:
    31 Octobre 2004
    Messages:
    84
    J'aime reçus:
    0
  15. sovite
    sovite WRInaute discret
    Inscrit:
    8 Décembre 2006
    Messages:
    207
    J'aime reçus:
    0
    On est plutot sur ce genre de schémas :

    [​IMG]

    Dans les deux cas elvis c'est pas tiptop pour les éditeurs
     
  16. maria59
    maria59 Nouveau WRInaute
    Inscrit:
    10 Mars 2008
    Messages:
    20
    J'aime reçus:
    0
    google ! comment tuer les sites web

    heu il s'en foute , il risque pas de mettre la clé sous la porte !
     
  17. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    Google veut garder les internautes pour lui et tout le monde est content : Article de Challenges.
    Faudrait rappeler qu'un site sans internautes est un site mort :|
     
  18. alain78france
    alain78france WRInaute occasionnel
    Inscrit:
    1 Mars 2006
    Messages:
    465
    J'aime reçus:
    0
    Bonjour,
    La recherche sémantique : encore faudra-t-il que l'internaute Lamda sache écrire une requête sémantiquement correcte !
    Pour le moment il semble que c'est moins de 20 %
    alors il y a de la marge :D
    Alain
     
  19. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    10, 15 ou 20% des requêtes les plus demandées, c'est énorme. Cela peut représenter plus de 50% de visites en moins pour certains sites.
    Prends par exemple un site qui regroupe les dates des spectacles et autres évènements, dans quelques années, il aura les pieds dans l'eau.
    Pour un site sur les biographies, j'imagine que le gros des visiteurs recherche les dates de naissance ou de mort. Google sera encore là pour donner l'info avant.

    Et le pire, c'est que cette capacité à répondre aux questions, ce sera grâce aux webmasters qui auront implantés, sur leurs sites, les balises sémantiques.
     
  20. forty
    forty WRInaute passionné
    Inscrit:
    30 Octobre 2008
    Messages:
    1 929
    J'aime reçus:
    0
    Il ne faut pas paniquer à mon avis. Il n'y a qu'à voir le procès contre Siri pour être quasiment sur que l'intelligence de ces systèmes informatisés est limitée. Cette évolution ne concerne que des requêtes simples du style "quel est le préfixe téléphonique de la Belgique". Ca va toucher des sites sans valeur ajoutée qui ne font que récupérer un listing de données publiques invariables.
     
  21. XoSt
    XoSt WRInaute passionné
    Inscrit:
    6 Octobre 2003
    Messages:
    2 231
    J'aime reçus:
    0
    Je trouve ça plutôt bien comme avancée, plus la peine de cliquer pour obtenir l'information, elle est directement sur Google qui récupère tout sans rien reverser à personne. C'est très malin.
     
  22. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    Je ne panique pas :D car je ne serais pas vraiment touché par cette recherche mais je trouve qu'il y a un déséquilibre qui s'agrandit entre ce que les webmasters apportent à Google et ce que Google redonne aux webmasters.
     
  23. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    Pourtant Google va récupérer l'infos pour la donner à l'internautes ... il y a quelques choses d'utiles quand même.
     
  24. forty
    forty WRInaute passionné
    Inscrit:
    30 Octobre 2008
    Messages:
    1 929
    J'aime reçus:
    0
    ca va toucher les sites sans valeur ajoutée. Ceux qui vont contenir par exemple que la date de naissance de personnalités. Pour ceux qui auront cette information + la biographie + des photos + des vidéos + des liens vers d'autres personnalités avec qui elle a travaillé + ... ne risquent pas de disparaître.
     
  25. baptiste
    baptiste WRInaute impliqué
    Inscrit:
    25 Avril 2004
    Messages:
    537
    J'aime reçus:
    0
    Mais aussi les sites qui répondent aux questions :

    Pourquoi choisir tels produits ?
    Combien coute une montre de marque xxx

    Et de nouvelles pubs :
    Ou acheter un blouson de ski ?
     
  26. nervusdm
    nervusdm WRInaute impliqué
    Inscrit:
    5 Janvier 2008
    Messages:
    616
    J'aime reçus:
    0
    Le plus drole dans la question que tu pose Sovite, avec ton image c'est le "Source" de Google.
    Même sur leur source ils donnent pas le lien immédiatement.
     
  27. tonguide
    tonguide WRInaute passionné
    Inscrit:
    28 Novembre 2003
    Messages:
    1 169
    J'aime reçus:
    0
    Pour moi, ça va touché en grande majorité Wikipedia. Google ne pourra pas répondre à des questions précises ou s'actualisant en permanence, ni reproduire une conversation entre membre etc.

    Par contre, la majorité des textes présents sur Wikipedia sont des infos encyclopédique qui ne bougent pas et qui peuvent donc être mise facilement directement sur le moteur pour des questions génériques.

    Après, arrêtons de penser que GG va remplacer nos sites, il n'a, à mes yeux, jamais été doué pour faire des sites agréables pour le grand public. Il sait faire des choses pratiques par leur simplicité et leur efficacité. Quand je pense aux questions que je me pose où une réponse rapide peut être apporté, c'est quand je finis par aller sur Wikipedia et là, GG sera surement celui qui y repondra avant ... Mais sinon, même pour les comparateurs de prix, c'est vraiment pas son truc pour le moment.
     
  28. cheloniologue
    cheloniologue WRInaute impliqué
    Inscrit:
    8 Février 2006
    Messages:
    914
    J'aime reçus:
    0
    Pour ma part, je trouve que c'est une excellente chose ... cela va forcer le travail du contenu plutôt que des Bl !!! Vive le contenu :mrgreen: :mrgreen: :mrgreen: :mrgreen:

    Qu'il récupère les séances ciné, la météo, l'heure ou je ne sais quoi ne me déconcerte en rien. Google est une entreprise, les webmaster s'en servent pour faire de l'argent, c'est normal que google veuille faire certaines opérations faciles à mettre en place. Alors oui cela peut pénaliser certains ... mais bon, google croit ... à vous de croître également.

    On va pas lui faire un procès parce qu'il veut ajouter du contenu ou des services ... à nous d'être plus innovants :wink: :wink: :wink:

    Bonne chance :mrgreen: :mrgreen:
     
  29. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    ça va pas faire évoluer les sites de contenus. Les sites éditoriaux sont les plus lourds à gérer niveau contenu bref faire "plus" ou "mieux" est souvent utopique. Mais quand leurs données seront devenues publiques via google ça va juste en limiter l'usage donc il crèveront.

    Soyons logique on apprend tous a compter et calculer a la main mais dès qu'on peut user d'une calculatrice ou d'un PC on délaisse vite la feuille de papier. Bref, par analogie, qui va lire ton bon gros contenu pour trouver une date ou un détail quand google lui donnera en live ?

    Au delà de tout cela c'est a une régression culturelle encore plus forte qu'on risque de se retrouver confronté car c'est en cherchant qu'on apprend toutes ces choses autour de notre question (qu'on apprend a comprendre un sujet plus global). Si on accède a une réponse brute simplifiée tout de suite, bonjour la culture ...

    @cheloniologue -> tu est dans le même genre de contexte que wiki si je me souviens bien avec ton site. Moi encore plus car contrairement a toi je gère mes sujets avec de très grosses basses de données donc c'est plus structuré que ton contenu qui (de mémoire) est très "rédactionnel". Bref on est les premier touchés (je pense) par ce genre de dispositif.
    Je doute fort que tu réinvente ton sujet sous une autre forme bref soit heureux de la nouveauté si tu veux mais a mon avis on sera dans la première charrette a dégager.

    Si tu fait bien attention wiki est symptomatique de cette démarche. Les wikistes synthétisent l’information sur plusieurs sites pour la hiérarchiser et la présenter structurée (a leur sauce) ce qui est déjà passablement énervant car il ne t’apportent rien de plus après que tu te soit tapé le travail de fond pour ton propre site. Si GG adopte la même démarche mais avec ses moyens sachant qu'a la base concurrencer wiki sur leur sujet est souvent hard imagine deux minutes ce qui se passera pour ton contenu. Tu sera dans les oubliettes rapidement.

    Après, mais c'est une autre histoire ça doit fairee 8 ans que je travaille a côté de google (c'est pas énorme mais c'est assez significatif pour se faire une idée) et chaque changement n'a été qu'un moins JAMAIS un plus pour moi. Pour tous les changements d'algo, apparition de nouveauté etc ça a été littéralement "Travailler plus et gagner moins". Je doute fortement que ça change.
     
  30. cheloniologue
    cheloniologue WRInaute impliqué
    Inscrit:
    8 Février 2006
    Messages:
    914
    J'aime reçus:
    0
    Mais je le fais également ... comment crois tu qu'il y ait autant de contenu spécialisé sur ma plateforme ... je n'ai rien inventé, j'ai lu, j'ai retranscrit, j'ai absorbé et synthétisé parfois le contenu de certains scientifiques. Je peux pas repprocher à un autre de faire la même chose.

    Google ne pourra pas absorber du contenu comme les sites informatifs comme le mien ... qui va le mettre à jour, qui va le gérer ... non mon site n'est pas statique ...plus depuis 8 mois grace à plusieurs membres de wri qui m'ont conseillé WP et il y a des modifications par des membres (à la wiki), il y a des commentaires ...etc etc nous ne sommes pas pret de mourrir par contre les services de cinéma, météo, conversion monnaie et autres, oui ils sont mal effectivement.

    Peut être suis je très optimiste, je ne le pense pas, je pense que cette nouvelle évolution ne touchera pas les sites informatifs avec beaucoup de contenu. Cela mettra peut être en avant des articles de news sur certains sujets... possible mais cela forcera un webmaster à mettre régulièrement de la donnée complémentaire. Je crois pas en une telle chute, et pour tout te dire, je songe déjà à une nouvelle partie actuellement :mrgreen: :mrgreen: :mrgreen: :mrgreen:

    Tu peux me donner l'url de ton site ?
     
  31. pinrolland
    pinrolland WRInaute impliqué
    Inscrit:
    19 Août 2010
    Messages:
    730
    J'aime reçus:
    1
    Aujourd'hui sur une requête, GG sort quelque mots piqués dans une méta description ou ailleurs pour afficher les SERP.

    C'est sûr que votre métier doit évoluer... Si l'analyse sémantique arrive à son but, en pouvant corréler et associer les textes pris dans les sites,
    Google affichera une synthèse en réponse à la requête directement dans les SERP sans qu'il y ait besoin d'aller cliquer pour aller voir les sites. Il remplacera le surf de l'internaute pour lui afficher une synthèse.... beaucoup plus rapidement.

    ca va commencer par des infos ponctuelles du genre prix ou heure du train.
    pour aller certainement vers des choses plus subtiles et abstraites en pouvant afficher même des synthèses contradictoires si l'analyse sémantique du sujet le permet ...

    La notion de requête évoluera certainement aussi.
     
  32. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Je me trompe peut être, mais je ne pense pas que ce genre de site soit la cible de ce genre de changement car ça existe déjà, et franchement c'est pas compliqué a faire effectivement (même pour moi). Bref je pense qu'au contraire ton contenu (comme d'autre) est dans le collimateur.

    pense d'un côté aux évolutions (lentes mais réels) de l'IA.
    Ensuite ajoute a cela que :
    * GG possédé une des plus grosses base documentaire multilingue via GG book et nos sites.
    * GG possède un des plus gros moteurs d'analyse linguistique avec son système de traduction.
    * GG travaille depuis des années sur l'analyse textuelle pour en tirer maintes informations (langue, style, ciblage du contenu par thème etc ...)

    et j'en passe ...

    la réunion de ces technologies donne quoi a ton avis ? Je pense personnellement qu'a terme une analyse facile d'une requête en langage naturel permettra de déterminer qui demande quoi sur quel domaine avec assez de pertinence pour fournir une réponse structuré et vérifiée sur la base du plus gros fond documentaire sans avoir a consulter qui que ce soit sur la toile.
    Si tu ajoute a cela que GG nous montre clairement le chemin en demandant quasi ouvertement que nos données soit structurées sous certains formats afin de "normaliser" et faciliter, non pas l'indexation, mais plus vraisemblablement la normalité des contenus, il me semble évident que toutes les étapes pour se passer de notre prose sont en place.

    Cela fait des années que GG a l'oreille (cette petite page blanche ou tu tape ta demande), il a des yeux avec GG image et il montre ce qu'il voie, il a aussi une formidable mémoire avec les datacenters surchargés qui stockent tout.

    il ne lui manque que la parole.

    Même sur ton site il faudra pas dix ans pour croiser ton contenu par exemple :
    "Définition du mot mammifère" qui sémantiquement est parfaitement identifiée dans une balise de titrage avec la réponse qui est dans le paragraphe en dessous. Stocké de façon dissocié en regard de dizaines d'autres définitions du même genre, combien de temps lui faudra t il pour formuler sa propre prose en se passant de tes services ?

    Je pense que tu n'est pas conscient des moyens don dispose cette firme pour composer des résultats qui semblait de la science fiction il y a juste 15/20 ans. Je pense aussi que s'ils ne passent pas par là c'est qu'ils ont décidé de ne pas exploiter tout leur potentiel. Et a ce sujet je doute fort qu'une des plus grosses entreprises du monde soit stupide au point de se priver de la possibilité de faire du fric "facile", ceci même si elle doit enterrer ton petit commerce pour cela.

    Mais allons plus loin et plus simplement sans avoir a échafauder de grandes théories sur l'avenir en se posant juste une question :

    A quoi sert le web ? Si on enlève la distraction il reste l'information.

    De nos jours il y a de multiples sources d'information comme ton site mais deux grandes tendances se dessinent clairement.

    * La recherche via les humains (le contenu encyclopédique pointé du doigts par tonguide genre wiki)
    * La recherche via moteur pour trouver l'information qui donne accès a un contenu agrégé électroniquement.

    seul la seconde a de l'avenir car elle n'est pas dépendante d'un facteur humain et aussi mais surtout car elle est la seule technique qui potentiellement peut fagociter l'autre sans mettre plus de moyen humains (celui qui reviens cher).
    Bref comment se profile l'avenir ? des tonnes de bénévoles ou pro réécrivent la totalité des choses en permanence pour livrer le top du top ou des machine synthétisent tout ce qu'on a pour fournir le contenu le plus probable ?

    Quand je regarde sur 20 ans l'évolution de l'OCR (google arrive a te sortir du texte correct a partir de source en vieux Français c'est impressionnant), de la reconnaissance de parole, de la synthèse vocale et de biens d'autres choses encore il est évident que Google n'est pas en train de mamailler pour te sortir l'heure et l'adresse du prochain film près de chez toi, ou alors c'est vraiment considérer google comme un simple crétin.
     
  33. pinrolland
    pinrolland WRInaute impliqué
    Inscrit:
    19 Août 2010
    Messages:
    730
    J'aime reçus:
    1
    Bon en tout cas , c'est vrai que c'est pas pour demain.
    Car si on veut se faire un bonne idée de la capacité de GG à explorer (et comprendre) du texte , voyez la traduction !! :mrgreen:
    c'est un bon témoin de l'état de l'art en matière de sémantique !!
     
  34. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Pas tant que ça si tu part d'un texte au présent correctement écrit (ce qui est difficile a trouver) tu as de très bon résultats (beaucoup de traductions pourries proviennent d'un original mal construit a la base) ...
    Maintenant si tu ajoute un moteur de fabrication de phrase qui lui s'appuie sur du contenu normalisé (facile a produire) tu obtiens facilement du texte de qualité acceptable qui répond a tes questions.
     
  35. pinrolland
    pinrolland WRInaute impliqué
    Inscrit:
    19 Août 2010
    Messages:
    730
    J'aime reçus:
    1
    Peut-être ...
    on peut donc inventer un nouveau métier : mise en forme de texte pour une bonne traduction automatique !!! :mrgreen:
     
  36. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
    désolé je n'ai pas eu le temps d'intervenir ici (je sors d'une grippe ou équivalent), sujet très important je pense pour nous (référenceurs ou éditeurs de contenus).
    ça me fait terriblement penser au très bon livre d'anticipation Google Démocratie (très facile à lire, c'est une sorte de polar)
     
  37. oNine31
    oNine31 Nouveau WRInaute
    Inscrit:
    22 Février 2010
    Messages:
    7
    J'aime reçus:
    0
    En effet on ne parle que de 10 et 20% des requêtes (au passage entre 10 et 20 il y a 10%, et 10% des requêtes ça représente combien ? ... hum).

    On pourrait se poser la question, l'information est bien fournie par les éditeurs de sites web et non par Google directement, donc de quel droit pourrait-il donner une réponse UNIQUE, d'une part (pour le droit au discernement et à différentes sources) et d'autre part à une réponse sans citer toutes les sources à partir desquelles celle-ci a pu remonter ?

    Ça fait tout de même peur pour de nombreux sites qui fournissent du contenu de qualité traitant de divers sujet à qui on couperait le chemin d'accès car juger inutile, inutile de lire tout un contenu apparenté à un sujet et plus particulièrement à une question, à laquelle Google a déjà répondu en 3 mots (ex: qui a gagné l'oscar du meilleur acteur 2012 ? on a la réponse, terminé... pourquoi ne serait-on pas intéressé par un article complet donnant les pours et les contres de cette victoire et les raisons etc...).
     
  38. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    pas mal le cochon avec du rouge à lèvres.

    Mais .. euh... :roll:
    indirectement ça ne rappellerait l'avatar d'un membre bien connu simiesque du forum? :mrgreen:
     
  39. rédac cabanes
    rédac cabanes WRInaute discret
    Inscrit:
    13 Avril 2006
    Messages:
    199
    J'aime reçus:
    0
    Google a encore besoin des webmasters...quelques temps:

    Un peu d'histoire!

    1) On a fait pendant 10 ans la montée en puissance d'Adsense, (avec le devoir à la "Fight club: règle n°1°Ne jamais parler des résultats Google-Adsense: C'est pas énoooOoorme ça?). On vous met la GGDance, vous allez vous éclater 8O

    2) vous gagnez de l'argent avec notre PR à nous. Le PR c'est TERMINE. :cry:

    3)Panda... et un resserrement des rangs au niveau des préconisations de Mr Page, qualité, linking, professionnalisme...pénalités, flou artistique et là:
    ils balancent dans la foulée GG+ ( vous avez remarqués que ce fut en simultané) et nous webmasters servons de prescripteurs en appui démarrage
    C'est de la manip, mais c'est de bonne guerre car ils savent que ce n'est pas les grosses enseignes qui vont passer du temps dessus et encore moins les Facebookés. Il n' y a que nous...déjà pour insérer le code G+1. :mrgreen:

    4)Ils créent la MFA sur les SERP. Les premières pages, les bonnes, sont noyés, pendant que Mr page dit: ne vous occupez pas de la SEO, occupez vous de vos sites-vos oignons- et comment garder le visiteur. Trop fort. :?

    5)Maintenant, ils vont créer le Duplicate Content universel. :wink:

    Faites ce que je dis pas ce que fais. Drôle d'ami que ce Google. :D
     
  40. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    Vous connaissez certainement la loi de Pareto ... qui s'applique également au web. 20% des requêtes génèrent 80% des visites. Cette tendance s'applique certainement à beaucoup de sites. Alors quand Google annonce vouloir apporter une réponse directe à 10 ou 20% des requêtes les plus demandées afin de garder l'internaute .... Cela va faire mal à beaucoup de sites.
     
  41. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 371
    J'aime reçus:
    2
    Je pense que l'annonce de Google indiquant qu'il cherche à "rééquilibrer" entre les très bons contenus sans SEO et les sites "overly optimized" est beaucoup plus inquiétante.
     
  42. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
    justement non, elle ne s'applique pas si bien que ça au web. Le principe de la longue traine contredit ces chiffres
     
  43. alain78france
    alain78france WRInaute occasionnel
    Inscrit:
    1 Mars 2006
    Messages:
    465
    J'aime reçus:
    0
    Bien vu, j'ai la même opinion !
    Alain
     
  44. forty
    forty WRInaute passionné
    Inscrit:
    30 Octobre 2008
    Messages:
    1 929
    J'aime reçus:
    0
    Sur le fond c'est louable ce rééquilibrage indiqué par Marie-Aude mais je ne vois pas comment Google va décréter qu'un contenu est de qualité sans un minimum de signal SEO/social pour l'attester.
     
  45. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    Sauf que la longue traine, Google cherche a la diminuer à coup de haches notamment avec Google Suggest.
     
  46. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    Cela confirme un peu mes dires sur la création de contenu non optimisé ICI
     
  47. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    cette remarque m'étonne d'uns ceintifique tel que toi!

    La loi de Paretto est bien une loi et non un axiome.... Si le web avait contredit cette loi on en aurait entendu parler.

    La Long Tail quand à elle est un "mythe" vivace (un méme?) mais qui n'a jamais été prouvé scientifiquement (il y a eu des travaux universitaires, de statisticiens notamment, qui se sont penchés dessus, justement à cause de son potentiel révolutionnaire -vis-à-vis de Paretto entre autres- et qui n'ont jamais pu la démontrer. A l'inverse ils ont dit qu'elle était statistiquement pas exacte" si je me rappelle bien.

    Tout ça appelle des développements très lon,g et HS, donc j'arrête là, mais je ne pouvais pas laisser passer ça.
     
  48. rédac cabanes
    rédac cabanes WRInaute discret
    Inscrit:
    13 Avril 2006
    Messages:
    199
    J'aime reçus:
    0
    Et bien qu'est ce qui manque à Google pour avoir un 100% ce sont les sites affluents: les liens. D'où une invitation avec Panda à camoufler les liens dans les textes et à ne plus faire de SEO. Ca sent pas très bon. A suivre de très très près... :mrgreen:
     
  49. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
    je réagissais à la phrase "20% des requêtes génèrent 80% des visites" qui est fausse pour tous les sites que je gère je pense
     
  50. cedric_g
    cedric_g WRInaute accro
    Inscrit:
    18 Janvier 2006
    Messages:
    2 958
    J'aime reçus:
    0
    Bonjour

    Tout dépend ce que l'on entend par "20% des requêtes" : est-ce que l'on parle de requêtes strictes, ou de requêtes et leurs variantes proches ?

    Par exemple : "forum referencement", "forum sur le referencement", "forum référencement", etc. Doivent-elles être considérées comme autant de requêtes différentes, ou pas ?

    De plus en plus je réalise mes mesures par landing page, et non par requête, car je me suis aperçu que très souvent, une même page optimisée pour une requête donnée est le point d'entrée sur un nombre considérable de requêtes très proches, mais qui au final signifient strictement la même chose ;) (même si je suis de très près mon positionnement sur quelques expressions précises : les plus convoitées !)
     
  51. rédac cabanes
    rédac cabanes WRInaute discret
    Inscrit:
    13 Avril 2006
    Messages:
    199
    J'aime reçus:
    0
    Si la théorie du 20/80 en commerce s'applique à toute la boutique, dans la boutique il y a sex, video, jeans, games, google...Faut pas oublier. Ca rempli pas mal déjà. Après vue les pénalités sur les thématiques, pour un site, la donne est variable... selon l'animal du Sichuan.
     
  52. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
    @Cedric : les requêtes sont les expressions tapées par les internautes, nous ayant généré du trafic ;-)
     
  53. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    requète et requêtes sont-elles soeurs jumelles? Ou est la limite dans le (nécessaire) regroupement?
     
  54. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
    je ne sais pas bien où vous voulez en venir...
     
  55. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Dans la même série ...
    http://www.rfi.fr/science/20120217-google-le-medecin-recoit-rendez-vous
     
  56. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    8O C'est limite dangereux
     
  57. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
    bonne remarque zeb, je l'ai noté moi aussi en préparant mon article sur le sujet
     
  58. acamar
    acamar WRInaute passionné
    Inscrit:
    27 Novembre 2005
    Messages:
    1 341
    J'aime reçus:
    0
    OMG !!!
     
  59. XoSt
    XoSt WRInaute passionné
    Inscrit:
    6 Octobre 2003
    Messages:
    2 231
    J'aime reçus:
    0
    Hahaha, excellent, adieu d0ctissim0.
     
  60. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
  61. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    excellent dossier Olivier --> twitté et commenté
     
  62. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
    Merci, ça fait plaisir :D
     
  63. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 371
    J'aime reçus:
    2
  64. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    à toi aussi, ça te fait plaisir ? :mrgreen:
     
  65. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Il est vrai que l'article est bien amené, même si je suis assez perplexe sur les conclusions de l'histoire.
     
  66. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    Il y a eu du changement cette nuit chez Google. Sur les 5 sites que je suis avec Ranks, toutes les positions se sont nettement améliorées. Avez-vous constaté la même chose chez vous ?
     
  67. lecouti
    lecouti WRInaute passionné
    Inscrit:
    3 Janvier 2009
    Messages:
    1 351
    J'aime reçus:
    4
    Oui avancée très nette sur la plupart des positions suivies et sur mes trois sites constatée hier en soirée :D
     
  68. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
  69. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    je ne comprends pas le rapporta vec le topic...
     
  70. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    déjà, dans son utilisation on met ce qu'on veut en paramètre, histoire de justifier son application (80% du temps passé, 80% de nos clients, 80% du CA réalisé, 80% de résultat net, etc...).
    Ensuite, c'est une loi "brick and mortar", du fait de la non extensibilité des stocks. Sur le net c'est tout autre chose, on n'a plus de limite.
    Si on veut se raccrocher à une loi statistique, on peut y arriver plus facilement en modifiant les données utilisées.
    Donc si paretto s'utilisait il y a 5-6 ans, quand l'essentiel des requêtes étaient effectuées avec un seul mot, maintenant avec des requête de 6-7 mots, ça n'est plus le cas du tout.
    Ce qu'il faut comprendre au niveau des "lois" statistiques, c'est que les économistes (et, dans une moindre mesure les entraineurs sportifs) essaient de se donner une aura scientifique en se raccrochant, autant que faire se peux, à des lois statistiques. Alors que souvent, c'est juste de l'empirisme.
    Si paretto s'utilisait vraiment partout, pourquoi, l'INSEE indique, sur http://www.cnle.gouv.fr/IMG/pdf/revenus_INSEE.pdf que les 20% des ménages les plus aisés perçoivent 41,7% des revenus ? On ne devrait pas avoir 80% à la place ?
    faut pas toujours croire ce que l'on nous enseigne sans vérifier :mrgreen:
     
  71. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    comme par exemple la Long Tail? Quelqu'un a-t-il des chiffres à ce sujet? L'auteur resignerait-il son livre aujourd'hui?

    Il n'y a qu'à regarder sur Amazon le nombre d'outils tels que "vous aimerez aussi", les "reviews" en tout genre, les "ceux qui ont choisi ceci ont aussi choisi..;" etc. pour voir à quel point sur ce site tout pousse plutôt à la réalisation du Paretto plutôt que de la Long Tail...
     
  72. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    Par ailleurs, et sur le seul plan de la logique, j'ai du mal à te suivre: tu ne peux pas à la fois dire cette loi n'en est pas une car on y met ce que l'on veut dedans, et en même temps affirmer: cette loi n'est plus valable car ce qui la conditionnen a changé / n'existe plus...
    C'est un peu comme les diam's de G*sc*rd: non seulement y 'en a jamais eu, mais en plus ils étaient pas aussi gros que cela :mrgreen:
     
  73. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    et d'un : amazon a une partie stockage, il ne peut donc pas avoir un stock hyper large.
    et de deux : si j'ai des articles A similaires à un article B et que je souhaite m'en débarrasser rapidement, je serais tenté de les mettre en avant lors de la visite des internautes sur le produit B, sans que ce soit ceux, réellement les plus vus (mais rapidement, avec ma mise en avant, ça sera le cas)
    Faut pas non plus croire tous les arguments des commerciaux :mrgreen:
    et si, en plus, on se retrouve avec un service commercial qui croit que la loi de Pareto doit s'appliquer dans tous les cas, ses argumentaires de vente vont alors tendre vers l'application de cette loi : tu peux faire des bons d'achats très avantageux en direction des bons clients les amenant ainsi à augmenter leur part de CA, etc...
    La méthode Coué amène de beaux résultats :mrgreen:
     
  74. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
    pour ma part je n'ai pas compris cette remarque...

    si je lis la présentation officielle de l'éditeur du célèbre livre Long Tail de Chris Anderson, dans sa version française, je vois :

     
  75. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Sans remettre en question cette loi ou prendre parti, la lecture de la citation ci dessus (peut être trop sortie de son contexte) me semble totalement fantaisiste.
    Si vraiment c'était vérifié on serait pas en pleine crise et internet se serait posé en libérateur / relanceur de l'économie alors que personnellement je le sent plus dans le sens d'une diversification qui a donné un regain de vie a l'activité commerciale sur des secteur peut être "oubliés".
     
  76. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    en fait, au niveau des achats sur le net, la vérité se trouve entre les 2. Comme je le disais au dessus, pour les produits non dématérialisés, il se pose quand même une contrainte de stockage, la seule différence étant un stockage semi centralisé pour Amazon. Donc tous les produits ne peuvent être proposés. Ensuite, au niveau des achats, on aime bien avoir des retours de la qualité du produit et là, pour avoir un retour, il faut qu'il y ait suffisamment d'acheteur pour avoir, ne serait-ce, qu'un seul avis.
    Donc, dans la pratique, on n'aura pas réellement un effet longue traine. Mais, pas du tout, une application de Pareto, sauf, éventuellement, dans la tête du service marketing
     
  77. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    Pour préciser ma pensée sur Ama*o*: ce site -comme beaucoup d'autres en e-commerce- essaie d'optimiser son CA en utilisant de la vente croisée: bundles, recommandation, préférences sociales, etc.

    Les outils de recommandation s'appuient le plus souvent sur "la moyenne": cad qu'on met en avant ce qui marche le mieux auprès des auters consommateurs (ce qui plait le plus). Bref on incite un consommateur a acheter lui-aussi ce que les autres ont le plus acheté. Bref on favorise la concentration vers des "blockbusters" plutôt que l'éparpillement

    Si cela, pour vous, relève de la long tail plutôt que d'être un outil favorisant un paretto.... on ne parle pas la même langue!
    C(a)rotte alors!


    @leonick: pour éviter les problèmes de stockage des biens "physiques, on peut transposer le raisonnement aux place de marchés (E*b*y, Pri*em*iniste* etc.)
     
  78. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    oui, mais c'est ce que je disais à propos des service marketing qui orientait les actions en direction de l'application de Pareto, pour plusieurs raisons, à mon avis : utiliser les données des ventes liées précédentes, c'est ce qui revient le moins cher au niveau du vendeur, car on a juste une extraction de la bdd à effectuer. L'autre solution, beaucoup plus onéreuse, consisterait à avoir du personnel qui catégorise chaque produit (y compris livre, vidéo et musique) afin de proposer les produits ayant les mêmes caractéristiques. Tu imagines le travail ? et donc le surcoût.
    alors qu'avec leur solution, tu fais juste un select * from (select * from panier where ref=ref_ce_livre and type=livre) where ref!=ref_ce_livre
    et ça y est, tu as ta liste.
    Mais bon, on ne peut rien augurer des ventes en partant de ce point là, vu qu'on ne connait pas tous les points d'entrées des internautes
     
  79. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    Pour ce qui est de la musique, il y a eu des tentatives d'algo censé faire faire ce boulot de titan de la catégorisation par des machines. Je ne sais pas où cela en est en ce moment...

    Et tac, voilà que mine de rien on retombe avec cela à nouveau dans le sujet des moteurs intelligents.. et z-intelligent tous seuls, en plus... :D
     
  80. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
    mais concrètement sur vos sites, vous voyez vraiment l'application de la loi de Pareto ? pour ma part absolument pas
    et de mémoire, ce n'est pas Amazon qui avait participé à la préface ou postface du livre Long Tail de Chris Anderson ?

    à vrai dire je suis plutôt étonné d'avoir ce genre de discussion ;-)
     
  81. Raulent
    Raulent WRInaute discret
    Inscrit:
    19 Mars 2003
    Messages:
    125
    J'aime reçus:
    0
    Personnellement, je refuserai quoi qu'il arrive le droit à Google de pomper les infos de mon site et les placer sur le sien accompagné d'un simple lien vers ma page. C'est une question de droit d'auteur et tout ce que cela implique.

    Une solution envisageable serait une balise d'interdiction : <google-semantic="no">

    Sinon, ce sera Google "noindex, nofollow". Qu'est-ce que j'aurai à perdre ?
     
  82. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    +1 Mais bord*l ! quand est ce qu'un autre moteur va voir le jour en Europe pour qu'on puisse jouer avec autre chose ET lui dire ouvertement "va te faire voir".
     
  83. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 127
    J'aime reçus:
    348
    si tu bloques Google, tu ne perdras que le trafic généré par Google, il restera tous les autres moteurs :roll:

    si on suit ta logique, tu n'as pas non plus envie d'être dans Google Actu je suppose ?
     
  84. Raulent
    Raulent WRInaute discret
    Inscrit:
    19 Mars 2003
    Messages:
    125
    J'aime reçus:
    0
    C'est exact, je refuserais Google tout entier (je préférerais plier) dans les conditions décrites et supposées. Je m'explique :

    Dans la photo "Quelle est la dette publique de la France", Google affiche une réponse qui provient d'une page Google. Je n'ai pas de problème avec ça. Mais dans celle-ci donnée par Google sur son propre blog, j'ai un gros problème.

    [​IMG]

    Donc Google va extraire le contenu pertinent sur mon site, le proposer à son internaute tout en affichant 3 pubs qui se distinguent à peine des résultats organiques en positions 1 à 3. Et l'internaute continuera à surfer sur Google sans jamais quitter sa page. On n'est plus dans le concept du moteur de recherche mais du voleur de recherche.

    J'interdirai Google, quitte à plier. Dans le business, il faut savoir être ferme parfois.
     
  85. lambi521
    lambi521 WRInaute passionné
    Inscrit:
    15 Juin 2010
    Messages:
    1 476
    J'aime reçus:
    0
    Quelle chance de pouvoir dire ça ! Moi sans Google, le business, y'en a plu :lol: (rire jaune tout de même...)
     
  86. Raulent
    Raulent WRInaute discret
    Inscrit:
    19 Mars 2003
    Messages:
    125
    J'aime reçus:
    0
    Vivre ou survivre, on peut choisir.
     
  87. Raulent
    Raulent WRInaute discret
    Inscrit:
    19 Mars 2003
    Messages:
    125
    J'aime reçus:
    0
    A y réfléchir, il y aurait des solutions pour se défendre des vélléités prédatrices de Google.

    D'abord il y a l'alternative Facebook qui est en train d'évoluer pour rejoindre Google avec, entre autres, un nouveau moteur de recherche. Et on peut s'attendre à l'introduction d'un module de création de pages digne d'un CMS d'ici peu de temps. On peut également se fédérer à Facebook et voir son site proposé aux membres comme une page Facebook à part entière. Ca ne prend que quelques balises Meta.

    Il y a aussi la possibilité de restreindre l'accès de Google à certaines informations du site et même de la page par l'utilisation d'un iframe. Pour l'internaute c'est du pareil au même puisqu'il reçoit l'information qu'il souhaite. Mais Google, lui, se verrait interdit d'accéder à certaines infos par une balise anti-pillage noindex ou une insertion dans le fichier robots.txt.

    Il y a aussi les autres moteurs de recherche qui devraient monter. Malheureusement, Bing semble sur la même longueur d'ondes que Google et développe un moteur sémantique aussi.

    Et on ne sait pas ce que l'avenir proche réserve. On pourrait voir des nouvelles percées comme celle de Facebook. La commission européenne pourrait décider de contraindre Google à des comportements moins anti-concurrence... etc.

    Pour ma part, je pense que l'intérêt de l'internaute réside dans la continuité d'une pluralité de sources d'information avec une myriade de sites et de moyens d'y accéder, même si cela ressemble parfois à un grand bazar.
     
  88. tonguide
    tonguide WRInaute passionné
    Inscrit:
    28 Novembre 2003
    Messages:
    1 169
    J'aime reçus:
    0
    A choisir entre FB et GG, je prend GG perso ... Quand même un petit plus propre dans l'ensemble malgré tout le pouvoir qu'il a entre les mains. Même si je suis d'accord qu'il abuse un peu en prenant les infos comme il le fait mais si FB prend cette même ampleur dans le search, je pense sincèrement qu'on regrettera cette période.
     
  89. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    +1 raulent

    @lambi521: pourquoi rester dans cette situation?
     
  90. pinrolland
    pinrolland WRInaute impliqué
    Inscrit:
    19 Août 2010
    Messages:
    730
    J'aime reçus:
    1
    on accepte bien le monopole microsoft .... pourquoi pas celui de GG
     
  91. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    c'ets tellement comparable.. et tellement vrai.

    Il n'y a qu'à regarder la capitalisation d'Ap*le pour s'en persuader....
     
  92. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Perso je ne l'accepte pas, et le monopole microsoft est très relatif il est surtout sur l'équipement du particulier (et de l'entreprise) pour le reste de ce qui fonctionne avec un microprocesseur (ou plusieurs) il est loin d'avoir un monopole ...
    mais bref c'est pas le propos, Le monopole est a refuser car il est dangereux, ça ne va pas plus loin. Quand ton modèle économique repose sur un client ou un fournisseur tu as des soucis a te faire quand le courant passe moins bien.
    As tu déjà vue ton trafic divisé de moitié ou plus alors que le pain que tu mange dépendait de lui ? Si ce n'est pas le cas je te souhaite sincèrement que cela ne le soit jamais. En cas de pluralité de sources de trafic tu peux toujours te dire qu'en divisant par deux ton train de vie tu as une chance de survivre et reprendre le dessus ... plus les sources sont nombreuses moins tu devra t'affoler en cas de perte. Voila pourquoi une concurence est necessaire.
     
  93. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 371
    J'aime reçus:
    2
    Tout comme zeb...
     
  94. Raulent
    Raulent WRInaute discret
    Inscrit:
    19 Mars 2003
    Messages:
    125
    J'aime reçus:
    0
    Tout à fait d'accord avec Marie-Aude.

    Une économie capitaliste ne peut pas fonctionner sans concurrence. Tous les monopoles sont régulés. Et c'est pourquoi Microsoft s'est prise de grooooossssses amendes sur 2 continents. ATT US a été tout bonnement démantelé en des centaines d'entreprises qu'on appelle les "Bell companies"... et le nombre d'exemples de ce type d'interventions dans l'intérêt du consommateur se chiffre en centaines.

    Dans le cas Google c'est encore pire. Il s'agit de l'accès et la distribution de l'information. Imagine le scénario catastrophe de "1984", le livre de George Orwell avec son maître de la pensée unique. Nous n'en sommes qu'à 2 doigts. Google peut changer d'attitude du jour au lendemain, cela ne tient qu'à lui. Et pour nous, citoyens, il serait déjà trop tard.

    Google n'est pas constant. Il a fait plusieurs revirements dans le passé. Par exemple, au départ il n'affichait que quelques pubs sur ses pages. C'était lorsqu'il avait encore une concurrence sérieuse et que sa stratégie consistait à s'imposer dans l'esprit des internautes. On a désormais, non plus quelques, mais des dizainse de pubs sur les pages Google. Cela a duré le temps de se débarrasser de tous ses concurrents. Et le coup qu'il s'apprête à nous asséner pourrait s'avérer encore beaucoup plus grave.
     
  95. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    et surtout moins elles dépendront du bon vouloir d'autrui !

    30% de traffic amené par les serps ne valent pas 30% de traffic spontané créé en travaillant ta réputation dans l'esprit de tes clients potentiels

    PS: un peu comme le kilo de plomb et le kilo de plume quoi ^^
     
Chargement...
Similar Threads - Google futur moteur Forum Date
Google le futur au secours : intelligence artificielle, transhumanisme Référencement Google 9 Février 2014
Facebook + yahoo, futur concurrent de google search ? Google : l'entreprise, les sites web, les services 19 Novembre 2012
Classement Yahoo, indicateur du futur classement Google? Référencement Google 12 Janvier 2011
Google: la vision du futur d'Eric Schmidt Google : l'entreprise, les sites web, les services 29 Septembre 2010
Le futur de la recherche sur Google Référencement Google 6 Décembre 2009
Nouveauté Google search: un futur ou les urls ne seront plus affichées ? Google : l'entreprise, les sites web, les services 3 Décembre 2009
[Bug Google News] Retour vers le futur Google : l'entreprise, les sites web, les services 5 Mars 2009
Création URL de redirection pour Référencement google my business Débuter en référencement Hier à 23:39
Rythme d'indexation Google aléatoire Crawl et indexation Google, sitemaps Mardi à 09:12
Google Analytics et Twitter Google Analytics 1 Décembre 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice