100% de not provided : Google impose la recherche en SSL

Olivier Duffez (admin)
Membre du personnel
Google va imposer la recherche avec le protocole HTTPS pour tous les internautes, ce qui va conduire à 100% de not provided et donc 0% de mots-clés fournis aux stats

pour ce 23 septembre 2013, je suis actuellement à 92% de not provided sur WRI

il reste GWT mais ça n'est pas relié à la notion de session et donc de conversion (sans compter les pb de volumes et d'historique)
ne me demandez pas comment on va faire des analyses de ROI basées sur les mots-clés en SEO Google :(

Explications détaillées :

On savait bien que ça risquait d'arriver un jour, il semble que ce soit déjà le cas : Google impose désormais sa recherche sécurisée (HTTPS) à tous ses utilisateurs. Ceci empêche les webmasters de connaître les mots-clés générateurs de trafic, sauf s'ils achètent des publicités AdWords...

Article mis à jour le 21/01/2015, publié initialement le 24/09/2013

100% de not provided


100% de not provided, c'est ce que vous aurez d'ici peu de temps...

Définition du "not provided" et du referrer​

D'abord, il faut savoir ce qu'on appelle le referrer, parfois noté référent en français. Quand un internaute clique sur un lien dans son navigateur pour aller d'une page d'un site A à une page d'un site B, le navigateur transmet au site B l'URL de la page du site A. C'est très pratique pour le webmaster du site B de pouvoir ainsi identifier précisément la provenance du visiteur. Dans Google Analytics, l'ensemble du trafic généré par les sites qui vous font des liens est regroupé dans les "Sites référents".

Quand le site référent est un moteur de recherche, plutôt que de simplement indiquer l'URL de la page de provenance (qui contient en général de nombreux paramètres peu compréhensibles), les outils de web analytics tels que Google Analytics récupèrent parmi ces paramètres ce qu'on appelle la requête, c'est-à-dire les mots-clés tapés par l'internaute.

Sous prétexte que ces mots-clés peuvent contenir des données personnelles, Google a décidé en 2010 qu'il pouvait être utile de supprimer cette information. Ainsi, dans certains cas à l'époque, le webmaster qui recevait du trafic en provenance de Google ne pouvait plus identifier le mot-clé puisque Google le coupait en amont (avant que l'internaute n'arrive sur le site). N'ayant aucun mot-clé fourni à afficher, Google Analytics a décidé d'indiquer "(not provided)" (avec les parenthèses) en lieu et place du véritable mot-clé.

Ce que Google a changé en septembre 2013​

Apparemment, Google aurait petit à petit imposé la recherche en mode sécurisée à tous ses utilisateurs, depuis 1 mois selon l'expert Danny Sullivan (source). Ces changements de Google se sont traduits immédiatement par une hausse brutale du not provided comme le site notprovidedcount.com l'a mesuré sur son panel de 60 sites :

Hausse du not provided septembre 2013


Hausse brutale du not provided en septembre 2013
Contacté, Google aurait répondu simplement :

We added SSL encryption for our signed-in search users in 2011, as well as searches from the Chrome omnibox earlier this year. We’re now working to bring this extra protection to more users who are not signed in.
Donc en gros, "nous travaillons actuellement afin d'apporter cette protection supplémentaire à plus d'utilisateurs qui ne sont pas connectés [à leur compte Google]".

Si pour les professionnels du webmarketing et tous ceux qui prennent le référencement au sérieux c'est une très mauvaise nouvelle, il ne faut pas oublier que pour l'écrasante majorité des utilisateurs de Google, c'est soit une information incompréhensible pour eux, soit un point positif pour la protection de leur vie privée...

Historique des changements concernant le "not provided"​

Voici la chronologie complète des recherches Google en mode sécurisé :

  • Mai 2010 : Google lance la recherche en mode sécurisé. Tous ceux qui l'utilisent privent les outils de web analytics d'informations sur la recherche qu'ils ont effectuée. Mais cela ne concerne que ceux qui font la démarche d'utiliser cette version spéciale de Google.
  • Octobre 2011 : uniquement sur google.com, tous les utilisateurs connectés à leur compte Google sont automatiquement basculés sur la recherche sécurisée. Grosse hausse du not provided immédiate aux Etats-Unis.
  • Mars 2012 : ce fonctionnement est alors étendu à toutes les versions de Google, y compris google.fr, ce qui fait exploser la part du not provided dans les stats des sites français. On a rapidement dépassé les 10% que Google avait prévu.
  • Juin/juillet 2012 : avec la sortie de sa version 14, Firefox utilise désormais Google en mode sécurisé pour faire toutes les recherches (notamment via la barre de recherche du navigateur).
  • Septembre 2012 : avec la sortie de iOS6, Safari sur mobiles utilise lui aussi Google en mode sécurisé, mais pour une raison assez obscure, la conséquence en termes de web analytics est bien pire puisque aucun referrer n'est transmis. Vous pouvez certainement voir dans vos stats une hausse brutale du nombre de visites en accès direct pour les utilisateurs de mobiles iOS. Le not provided ne progresse pas mais la part de requêtes connues chute autant.
  • Janvier 2013 : Google impose la recherche SSL à tous les internautes utilisant Chrome 25, qu'ils soient connectés à leur compte Google ou pas.
  • Septembre 2013 : Google impose petit à petit le SSL à tous les internautes... C'est la généralisation du not provided !
En plus de tout ça, Google fait tout pour qu'on soit connecté quand on utilise les services de Google (y compris la recherche).

Les solutions au not provided​

Je préfère être honnête avec vous : il n'y a AUCUNE réelle solution, il ne s'agit que de rustines.

Google Analytics Premium n'est pas une solution​

Imaginez-vous contourner le problème du not provided sous prétexte que vous déboursez 150.000$ par an pour cette version luxe de Google Analytics ? Perdu ! Même en payant ce prix exorbitant, vous n'aurez toujours pas accès aux mots-clés correspondant aux requêtes faites par les utilisateurs connectés à leur compte Google ! Vous aurez du (not provided) comme tout le monde...


Not Provided : même la version premium de Google Analytics ne peut fournir les mots-clésCLICK TO TWEET
Aucun outil de mesure d'audience, qu'il soit basé sur un marqueur dans les pages web ou sur les logs, qu'il soit intégré à votre CMS ou pas, ne peut résoudre le problème du not provided, puisque Google supprime l'information en amont, avant que l'internaute ne quitte réellement le moteur de recherche...

L'analyse des logs n'est pas une solution​

J'ai eu plusieurs questions que j'ai trouvées intéressantes et que je vous mets ici :

  • si Google passe effectivement en HTTPS, on ne devrait même pas avoir de referrer, alors y en a-t-il ou pas ?
  • si je regarde dans mes logs, ne puis-je pas trouver les mots-clés de la requête tapée par l'internaute ?
Concrètement, voici ce qui se passe :

  • l'internaute arrive sur Google, qui le renvoie dans tous les cas vers une version sécurisée reconnaissable au fait qu'elle utilise le protocole HTTPS
  • au moment où l'internaute clique sur le lien dans les résultats, Google n'envoie pas l'internaute directement vers le site web externe concerné : il le fait passer par une URL intermédiaire utilisant le protocole HTTP (et non plus HTTPS)
  • c'est cette URL qui sera transmise en tant que referrer au site web qui reçoit la visite. Mais manque de chance, dans cette URL, là où est codée la requête de l'internaute, il ne reste plus rien : Google a supprimé la valeur du paramètre "q" (ou ses variantes).
Voici un exemple de ligne dans un fichier log :

78.226.234.219 - - [22/Sep/2013:08:44:18 +0200] "GET /disque-dur-portable-dell-protege-par-mot-passe-t98610.html HTTP/1.1" 200 13946 770611 "https://www.google.fr/?gws_rd=sslurl?sa=t&rct=j&q=&esrc=s&source=web&cd=1&ved=0CC8QFjAA&ei=wJE-UvXIM4Wi0QX5zoGQBg&usg=AFQjCNEzsLWTYtFG-_b75ULz2BRoj-GH8Q&sig2=HsL3BfGYT6ZXxtjZ_32l_w&bvm=bv.52434380,d.d2k" "Mozilla/5.0 (Windows NT 6.2; WOW64; rv:24.0) Gecko/20100101 Firefox/24.0"

On voit bien que le contenu du paramètre "q" a été vidé. On ne peut pas savoir ce que l'internaute avait fait comme recherche, mais on sait que c'était sur google.fr et sur quelle page du forum il est arrivé. Il y a d'autres infos dans les autres paramètres d'URL mais ils ne contiennent pas la requête.

Conclusion :


Not Provided : aucune analyse des logs ne peut fournir les mots-clés supprimés par GoogleCLICK TO TWEET

La solution du rapport de trafic dans Google Search Console​

Comme vous le savez sans doute, malgré cette politique visant à masquer des données, Google continue de fournir les mots-clés générateurs de trafic en référencement naturel... mais uniquement de façon décorrélée des sessions. Concrètement, il s'agit d'une liste de requêtes ayant généré du trafic vers votre site depuis les SERP Google (SEO), avec la page d'arrivée.

Mais ne vous réjouissez pas trop vite, il s'agit d'une fausse solution au problème du not provided, puisque vous ne pouvez pas savoir si ces visites ont été efficaces pour vous. Vous ne pouvez pas mesurer un taux de conversion (ou "transformation") et encore moins des ventes générées. Conclusion : vous ne pouvez pas calculer de ROI (retour sur investissement)... à moins d'opter pour la solution payante ci-après !


Not Provided : Search Console fournit un échantillon de mots-clés, mais sans taux de conversionCLICK TO TWEET
A l'heure actuelle, ce rapport des requêtes les plus fréquentes dans Google Search Console (GSC) est limité par les contraintes suivantes :

  • aucun lien avec la notion de session et donc de taux de transformation
  • les données des 16 derniers mois sont disponibles. Vous pouvez télécharger les données mais ce n'est pas pratique.
  • seules les 1000 principales requêtes sont fournies
Vous souhaitez automatiser la récupération des mots-clés ?Contactez-moi pour un devis !
Voilà à quoi ça ressemble :

Historique données mots-clés trafic GWT

L'historique des données de mots-clés de trafic dans GSC
Ce rapport est également disponible dans Google Analytics (si vous reliez vos 2 comptes) mais ce n'est pas pour autant que les données de mots-clés sont raccordées aux données de sessions...

La solution Google AdWords​

Je suppose que ça ne va pas vous étonner, mais comme par hasard les annonceurs AdWords (ceux qui contribuent à 95% des revenus de Google) ont la possibilité de connaître tous les mots-clés des requêtes des internautes. Et comme ils peuvent généralement faire le rapprochement avec les conversions (et/ou les ventes), c'est une solution très intéressante.

Contrairement à ce qu'on peut entendre, il n'y a pas ici d'entrave à la vie privée : les données consultables dans AdWords sont agrégées et non associées aux internautes. Pourquoi Google n'offre pas la même chose dans Analytics ? Bonne question, mais pourquoi le ferait-il ? Et surtout gratuitement ?

Vous pouvez détester autant que vous voulez l'idée de devoir payer pour obtenir du trafic depuis Google, si vous ne l'avez pas encore fait, je pense qu'il va être temps de créer votre 1ère campagne AdWords. Faites attention à bien vous faire accompagner pour ne pas y laisser trop de plumes ! Si vous débutez, lisez mon tutoriel. Ensuite, posez vos questions dans le forum Ads ou inscrivez-vous à ma formation.

Une fois que vous aurez une (ou plusieurs) campagne AdWords en cours, vous aurez donc à nouveau accès aux rapports sur les requêtes ("termes de recherche" pour reprendre l'appellation utilisée par AdWords). Mais attention, ce rapport ne liste pas tous les mots-clés de recherche : ne sont affichés que les termes de recherche utilisés par les internautes il y a au moins 24 heures et qui ont enregistré des clics au cours des 30 derniers jours, ou alors un grand nombre de recherches.

La solution des autres moteurs de recherche​

Vous allez bientôt adorer encore plus le trafic issu des autres moteurs... en tout cas tant qu'ils ne s'amusent pas à suivre Google dans cette tendance à imposer le SSL ! En consultant les rapports de trafic issu des rares autres moteurs (qui transmettent l'info), vous pouvez identifier les mots-clés qui vous génèrent du trafic.

Mais en raison des parts de marché écrasantes de Google en Europe, vous aurez sans doute peu de données à vous mettre sous la dent... Et quand bien même, rien ne garantit que les statistiques soient transposables au trafic issu de Google.

La solution de l'analyse de la page d'arrivée​

Attention, je vous le dis tout de suite : cette méthode ne vous indiquera aucun des mots-clés supprimés par Google, car c'est impossible à faire. Il s'agit ici de s'intéresser à une notion essentielle en web analytics : la page d'arrivée, la première page que découvre l'internaute qui arrive de votre site.

L'idée est d'appliquer un filtre Google Analytics qui va renommer le "(not provided)" pour le remplacer par une combinaison du type "NP {URI d'arrivée}". Par exemple si quelqu'un arrive sur cette page https://www.webrankinfo.com/forum/t/100-de-not-provided-google-impose-la-recherche-en-ssl.167959/, enregistrée sous /dossiers/google-search/generalisation-not-provided dans Google Analytics, alors le filtre va renommer le soit-disant mot-clé "(not provided)" en "NP /dossiers/google-search/generalisation-not-provided".

Ceci permet d'affiner votre analyse, en sachant au moins quelle page de votre site s'est positionnée dans Google et sur laquelle l'internaute est arrivé.

Pour aller un peu plus loin, on peut envisager de coupler cette analyse avec l'étude détaillée du referrer, qui dans le cas de Google contient (parfois ?) la position du résultat cliqué. Il faut alors croiser cela avec une analyse de positionnement, mais en pratique je considère cela quasi impossible. Sans compter qu'avec la personnalisation des résultats, c'est encore plus compliqué.

Les solutions proposées par des outils en ligne​

Il existe plusieurs outils qui vous affirment avoir la solution au not provided : c'est faux. Concrètement, ils ne font qu'estimer quelle requête peut avoir été faite par l'internaute qui vient d'arriver sur votre page, en analysant le positionnement des sites sur des millions de requêtes.
 
WRInaute passionné
c'est une problématique majeure pour la totalité des sites qui travaillent exclusivement du web. on a du mal a comprendre cette politique de Google, et son culot en la matière de changer à sa guise le protocole.
A part quelques anciens navigateurs, la redirection est systématique du http vers le https. c'est même pénible de devoir corriger ce "S" des que l'on veut changer un nom de domaine dans sa barre de menu.

Je doute que ca reste en l'état, ca devrait gronder fort sur la planète, mais google ne fera surement pas marche arrière sauf sous la contrainte légiféré. A part noyer le ministère de réclamation et faire voter une loi pour que le protocole reste en http pour ceux qui ne sont pas connecté a un compte ou le font volontairement, c'est la fin pour certain... :(
 
WRInaute discret
WebRankInfo a dit:
pour ce 23 septembre, je suis actuellement à 92% de not provided sur WRI

Bonjour moi j'en suis en 68% cela grimpe chaque jour c'est quelques derniers jours...
On va devoir regarder les pages de destinations en détails et faire sa propre analyse :roll: :?:
 
WRInaute discret
Quand je parlais de foutage de gueule...

C'est pas compliqué, les mots clés je ne regarde plus cette option depuis au moins un mois.

C'est terminé!
 
Nouveau WRInaute
Ces mots clés, c'est la carte au trésor du web.
Il suffit de les comparer régulièrement par nombre d'occurrences x cpc adwords et on connait les niches à ne pas louper et les futures montantes.
Google map, gmail, google shopping, google+,les petits derniers: comparateur de vol, plugin meteo, comparateur d'assurance, ...
En plus il protege la vie privée de ses internautes en n'utilisant que des statistiques.

Je comprends que Google ne nous fournisse plus ses morceaux de carte.
 
Nouveau WRInaute
Ouahhh, je crois que la politique Google semble très claire maintenant (je dis maintenant mais on le sait tous depuis très longtemps) !

Malheureusement, le petit internaute lambda ne va pas y voir de différences...

Moi j'en suis à 64% de not provided en moyenne sur mes sites US (20% du trafic vient de yahoo/bing/yandex). Mais 92% ça me ferait vraiment ch***.

Quelqu'un connait des outils de statistiques qui n'ont pas de liens avec Google (transmission de données je parle) car j'aimerais désormais "garder" précieusement certaines informations pour moi et non pour GG car je sens qu'on va tous se faire avoir ^^
 
WRInaute accro
parent44 a dit:
des outils de statistiques qui n'ont pas de liens avec Google
Bon soyons clair tu trouvera surement rien qui soit a la hauteur de GA mais bon quitte a en prendre plein la tronche avec lui on peut aussi se contenter de trucs plus softs et un poil moins complet ...

http://fr.piwik.org/ ai testé sur un site c'est sympa même si pas "top"
sinon perso en externe je tourne avec quantcast
 
Nouveau WRInaute
Bongrand a dit:
Ces mots clés, c'est la carte au trésor du web.
Il suffit de les comparer régulièrement par nombre d'occurrences x cpc adwords et on connait les niches à ne pas louper et les futures montantes.
Google map, gmail, google shopping, google+,les petits derniers: comparateur de vol, plugin meteo, comparateur d'assurance, ...
En plus il protege la vie privée de ses internautes en n'utilisant que des statistiques.

Je comprends que Google ne nous fournisse plus ses morceaux de carte.
Bongrand, tu oublies l'immobilier, les voitures et les rencontres auxquels s'intéresse GG...
Que nous restera-t-il ? On va changer de métier.
 
WRInaute passionné
Piwik est plutot sympa effectivement (meme si ca ne change rien à notre probleme)


ne me demandez pas comment on va faire des analyses de ROI basées sur les mots-clés en SEO Google :(
Tu le fais avec Adword et tu fais une extrapolation "à vue de nez".
Tu fais pas d'Adword ? Dommage
 
WRInaute discret
zeb a dit:
parent44 a dit:
des outils de statistiques qui n'ont pas de liens avec Google
Bon soyons clair tu trouvera surement rien qui soit a la hauteur de GA mais bon quitte a en prendre plein la tronche avec lui on peut aussi se contenter de trucs plus softs et un poil moins complet ...

http://fr.piwik.org/ ai testé sur un site c'est sympa même si pas "top"
sinon perso en externe je tourne avec quantcast

Et xiti ça ne marche plus ? Bon c'est assez limité il me semble mais c'est toujours ça.

85% de not provided aujourd'hui pour moi (en faisant le pourcentage sur les mots clefs google uniquement).

Peut-être que Google a envie de faire monter Bing ?
 
WRInaute accro
generalhammond a dit:
Et xiti ça ne marche plus ? Bon c'est assez limité il me semble mais c'est toujours ça.
en externe oui ça existe encore il me semble mais j'en parle jamais le nom ne m'inspire pas :D
 
Nouveau WRInaute
WebRankInfo a dit:
à quoi bon citer des outils de web analytics ? ils n'apportent aucune solution au problème du not provided puisque l'info est coupée en amont, chez Google, avant que l'internaute n'arrive sur le site
même Google Analytics pour les Riches n'apporte de solution

Cela n'apporte pas de solutions pour le "not provided" mais je ne souhaite plus partager les informations importantes de mes sites à une entreprise qui souhaite posséder Internet en se servant justement de ces données "offertes" gracieusement par des webmasters comme nous.

On ne peut malheureusement pas se passer de Google car c'est le numéro 1 des moteurs de recherche mais on peut quand même tenter de diversifier son référencement et je crois que ce sera plus payant à long terme si l'on veut une certaine indépendance face à l'achat d'Adwords en cas de non positionnement en page 1.
 
WRInaute passionné
Bongrand a dit:
En plus il protege la vie privée de ses internautes en n'utilisant que des statistiques.
Faut arrêter avec cette ânerie de vie privée de l'internaute si on donne les mots clés qu'il tape. Faudrait pouvoir identifier l'internaute par son ip, la rapprocher d'un nom, d'une adresse, etc. Ca n'a rien à voir avec la vie privée, c'est du business pour vendre de l'Adwords (là on a les mots clés tapés).
 
WRInaute discret
Perso ca me dérange comme vous de ne plus avoir acces à ces mots clés, mais question vie privé je comprends tout à fait. En effet, on peut largement associer une ip à une requete google (pas par analytics mais avec un script perso), et donc localiser la personne (au moins le pâté de maisons). Tant que cela concerne des choses toutes bêtes genre "acheter GTA 5" pas de soucis, mais quand il s'agit de saisir "probleme d'erection" c'est quand meme un peu plus chiant pour le visiteur, qui peut alors être tracké par le webmaster. Je comprends tout à fait que google ait voulu protéger ses utilisateurs. En revanche, il reste injuste que google soit le seul à pouvoir exploiter ces données à des fins commerciales...
 
WRInaute discret
J'oublie de dire que ça risque d'être très difficile pour les référenceurs de travailler .... Ils ne peuvent même plus mesurer les performances ou presque. En gros ils travaillent à l'aveugle maintenant ?
 
WRInaute discret
Les agences SEO vont désormais passer plus de temps pour proposer des prestations de même qualité, donc elles seront plus chères, donc les budgets les plus serrés se passeront de leurs services, donc de chouettes sites seront mal référencés, donc les SERP seront trustées par les plus fortunés. Merci Google.
 
WRInaute discret
Du coup j'en conclus aussi que lorsque je regarde (sur analytics) l'évolution du nombre de visiteurs venant d'un mot clé précis sur une longue période, la courbe doit baisser même si il y a une progression vers le haut, car le nombre de not provided grandit avec le temps ?
 
WRInaute accro
jolm a dit:
Tant que cela concerne des choses toutes bêtes genre "acheter GTA 5" pas de soucis, mais quand il s'agit de saisir "probleme d'erection" c'est quand meme un peu plus chiant pour le visiteur, qui peut alors être tracké par le webmaster.

Si tu as un site sur la thématique que tu viens de citer, et qu'une personne vient sur ton site, tu peux toujours obtenir l'ip et avoir les mêmes infos. Tu sais de toute façon pourquoi il vient sur ton site.

Dans les thématiques de chacun de nos sites on sait généralement pourquoi l'utilisateur vient et quel genre de mots clés il a pu éventuellement taper, donc le problème ne vient pas de là je pense.

Il parait évident que cette démarche est purement commerciale de la part de google et n'a strictement rien à voir avec un problème de vie privé. par la même occasion il met des bâtons dans les roues du SEO. Mais résultat ça fait chier tout le monde.

Je me demande à quel moment Icare va se bruler les ailes avec toutes ses conn*ries.

Cette histoire de protection des internautes est totalement absurde et d'autant plus choquante provenant de google,

C'est pas google qui a des soucis avec la cnil ??!!!!!
 
WRInaute discret
Google est en train d'empapaouter tout le monde et tout le monde ferme sa gue... se tait!

Je ne vois pas comment l'on pourrait arrêter la course effrénée de google, la mégalomanie de ses créateurs et leur soif de toute puissance.

Jusqu'où iront-ils?

Tant qu'il n'y aura pas un soulèvement populaire (les webmasters) (auquel je ne crois pas d'ailleurs car minoritaires), tant qu'il n'y aura pas une vraie prise de conscience de la volonté de google à régenter le monde de l'internet (ou le monde tout simplement), je ne vois pas ce qui pourrait changer la donne.

Un effort global et un nouveau moteur respectant un minimum de déontologie que google ne respecte plus permettrait-il d'arrêter la machine infernale?

Je pense qu'ils veulent devenir les maîtres du monde et qu'il va être difficile des les arrêter!
Leurs incursions dans tous les domaines prouvent leur détermination à s'accaparer tout ce qui croît ou à fort potentiel.

Cette entrprise jadis plaisante, impressionnante et inovante ne correspond plus du tout à mes attentes, me déplaît, abuse de sa position dominante et n'est pas loin de me faire peur tant sa voracité n'a aucun égal.

Je ne sais pas où on va mais l'avenir ne me plaît pas!
 
WRInaute passionné
UNE RIPOSTE EST POSSIBLE !!
NOUS AUSSI RENDONS GOOGLE AVEUGLE EN SUPPRIMANT ANALYTICS DE NOS SITES !!
ET DESINSTALLONS CHROME ET FIREFOX DE NOS ORDINATEURS !!
NE TRAVAILLONS PLUS QU'AVEC BING ET INTERNET EXPLORER !!

Fiouf dsl dure journée -_-'
 
WRInaute discret
noren a dit:
...
Dans les thématiques de chacun de nos sites on sait généralement pourquoi l'utilisateur vient et quel genre de mots clés il a pu éventuellement taper, donc le problème ne vient pas de là je pense.
...
Clair jsuis con, il suffit de récupérer l'ip qui correspond à une page. Meme si on connait pas le mot clé d'arrivé, je sais que le type à l'ip XX.XX.XX.XX aura consulté la page pb-erection.php ... Du coup mon argument de vie privée tombe un peu à l'eau. Merci noren de m'avoir réaligné les neurones ;-)
 
WRInaute discret
NE TRAVAILLONS PLUS QU'AVEC BING ET INTERNET EXPLORER !!

Internet explorer, je peux comprendre votre critique mais Bing?

90% des français utilisent google mais dans la majorité ne connaissent pas vraiment Bing ou ne l'utilisent pas parcequ'ils ont leurs habitudes (google).

Et les habitudes etant difficiles à changer, je reconnais d'une part que google a travaillé beaucoup pour en arriver là et que d'autre part les efforts à faire pour que les français changent de moteur est colossal.

Mais en revanche, pourquoi Bing serait-il un mauvais moteur, has been ou inapproprié?

La grande majorité des français est-elle capable de définir le manque de pertience de Bing?

En quoi Bing ne fournirait-il pas des résultats pertinents?

Ne font-ils pas tous les jours un important travail pour proposer justement l'alternative à google?
 
WRInaute occasionnel
Je serais piquant, je dirais qu'il fallait anticiper le problème. Certains l'ont fait sans doute.
On va voir revenir des méthodologies plus traditionnelles, ou innovantes, et un certain nombre de prestations et de sites vivant "par Google" vont disparaître. Dont acte. C'est un accident industriel proche de ce qu'il se passe IRL.

En commençant par ne plus se faire le relais de Google auprès des clients pour Adwords et en supprimant Analytics des sites, en cherchant avec force d'autres sources de trafics, la communauté des webmasters prendrait acte de cela une fois pour toutes.Mais il n'y aura pas d'action collective concrète, ce n'est plus dans l'air du temps et s'il y en a une elle ne sera pas à niveau. L'hégémonie de Google empêche cela à court terme.

Il y a une belle convergence avec le monde réel, les riches sont plus riches et les pauvres plus pauvres.
En agissant ainsi, l'entreprise Google abandonne en quelque sorte sa vocation "search" encore plus.

Purée, va falloir être créatif et changer d'habitudes. C'était tellement facile pour nous ...

Mais comme "une âme habituée est une âme morte", dans le fond, cela sera positif ... à long terme. Mais pour beaucoup de webmasters, ben ça ira mal avant que ça aille mieux.
 
WRInaute accro
Thiery31 a dit:
Bongrand a dit:
En plus il protege la vie privée de ses internautes en n'utilisant que des statistiques.
Faut arrêter avec cette ânerie de vie privée de l'internaute si on donne les mots clés qu'il tape. Faudrait pouvoir identifier l'internaute par son ip, la rapprocher d'un nom, d'une adresse, etc. Ca n'a rien à voir avec la vie privée, c'est du business pour vendre de l'Adwords (là on a les mots clés tapés).

Vu le nombre de visiteurs en directs des EU (là aussi aveugle), c'est la panique apparament. J'ai largement analysé les IP, rien de concret, les proxy via des fonctions standards redonnent des adresses locales (127.0.0.1 ou l'adresse interne du serveur Windows de l'entreprise). C'est plus la protection de la vie privée, c'est la sécurit pour tout ce qui n'est pas conformes (copieurs et autres).
 
Olivier Duffez (admin)
Membre du personnel
jolm a dit:
Du coup j'en conclus aussi que lorsque je regarde (sur analytics) l'évolution du nombre de visiteurs venant d'un mot clé précis sur une longue période, la courbe doit baisser même si il y a une progression vers le haut, car le nombre de not provided grandit avec le temps ?
oui, ça fait entre 1 et 2 ans que c'est le cas : toutes les analyses basées sur les mots-clés, comparant des périodes, ne sont pas exploitables
 
WRInaute discret
WebRankInfo a dit:
jolm a dit:
Du coup j'en conclus aussi que lorsque je regarde (sur analytics) l'évolution du nombre de visiteurs venant d'un mot clé précis sur une longue période, la courbe doit baisser même si il y a une progression vers le haut, car le nombre de not provided grandit avec le temps ?
oui, ça fait entre 1 et 2 ans que c'est le cas : toutes les analyses basées sur les mots-clés, comparant des périodes, ne sont pas exploitables

A priori ça reste faisable de corriger les données avec l'augmentation de not provided.
(il n'y a pas, en général, de raison pour qu'un mot clef passe plus rapidement en "not provided" qu'un autre je pense, non ?)

Sinon pour revenir sur Bing, je n'ai pas l'impression que les résultats soient à ce point moins pertinents.
Surtout que mon site arrive plus en avant que sur google :mrgreen:
 
WRInaute passionné
Il faut un peu de patience, la concurrence a Google arrive, et croyez-moi, elle va se démultiplier, lorsque certains septiques verront que c'est possible. Pour Bing, il est quand même assez pertinent, le problème, c'est la notoriété et notamment vis a vis de monsieur tout le monde et pas chez les webmasters. Pour changer ces habitudes avec Google, il y a beaucoup de paramètres, ce n'est pas Bing qui pourra faire la différence dans l'état. Je pense que seule l'arrivée d'un moteur Français acceptable et innovant pourra faire le buzz suffisant pour commencer a faire bouger le géant.

En attenant cette arrivée, Google reste maitre et rien ne le fera changer.

Réagir sur les forums est nécessaire, mais pour faire bouger les choses, il faut adresser une lettre de contestation au ministère concerné :
ENVOIS DE VOS RECLAMATIONS : (précisez les problèmes et conséquences économiques causés par l'occultation du "REFERER")

-par courrier :
MINISTERE DU REDRESSEMENT PRODUCTIF
Télédoc 151
139, rue de Bercy
75572 Paris Cedex 12

à l'attention de Arnaud Montebourg, ministre du redressement productif
et / ou
Fleur Pellerin, ministre déléguée auprès du ministre du redressement productif, chargée de l'innovation et de l'économie numérique

- Par formulaire sur le site du gouvernement :
http://www.redressement-productif.gouv.fr/courrier/4222

Ce n'est pas tout, écrivez aussi a VOTRE SENATEUR et VOTRE DEPUTE (copier/ coller le texte envoyé au ministre)
- liste des sénateurs par départements (avec email)
- liste des députés par département (avec email)

Formulez poliment votre requête, énoncez vos soucis d'entrepreneur face a cette mesure de Google.

Avec quelques dizaines de milliers de requêtes, ca finira par bouger, les politiques se feront un plaisir de montrer qu'ils peuvent encore faire plier quelques géants qui vont un peu trop loin et font une forme de "racket public" pour mieux plumer les entrepreneurs ...
 
WRInaute occasionnel
@longo600 : Des nouveaux entrants il y en aura, mais je penche plutôt pour un entrant de taille mondiale.

Pour ce qui est de la seconde partie, l'action auprès des élus, je crains que cela ne suffise pas à infléchir les choses. Il suffit de voir l'histoire du fonds Google pour la Presse Quotidienne, qui est une belle manip' de la part de Google pour s'en sortir.

En effet, les arguments des webmestres seraient évidemment perçus comme corporatistes et se retourneraient contre eux, avec la rhétorique habituelle. Nous serions perçus comme des "espions d'internaute". Et la puissance de feu de la Firme en matière de comm' et de lobbying ferait le job.

Je reste par contre très optimiste sur les nouveaux entrants, les nouveaux algos ... même si la Firme achète tout ce qui est nouveau.

Mais cela nous éloigne du sujet initial : l'analyse du trafic mot-clé n'est plus gratuite désormais et est fausse depuis longtemps comme le disait fort justement Olivier. D'ailleurs, je n'ai jamais eu vraiment confiance dans la qualité des données fournies par GG Analytics. Par trop partielles et filtrées.

Pour l'instant, il faut construire sa stratégie dans le sens des clients (je parle pour les prestataires) : donc produire des sites qui leur amènent un vrai business, sans leur parler de SEO etc ... Le ticket d'entrée pour un top référencement pour le client lambda a un prix inacceptable pour eux. Il faut donc les convaincre autrement.

Quant aux webmestres qui gèrent leurs sites et qui essaient d'en vivre, ils n'auront pas le choix et devront apprendre à travailler sans les outils gratuits fournis par la Firme et s'habituer à ce que tout le monde navigue en https.
 
WRInaute accro
flyeric a dit:
90% des français utilisent google mais dans la majorité ne connaissent pas vraiment Bing ou ne l'utilisent pas parcequ'ils ont leurs habitudes (google).
Qui a fait la notoriété de "google ton ami" ? ....
Faut peut être commencer par dire "Bing est aussi votre meilleur ami" en attendant une présence européenne ....

Pour un peuple de résistant, les Français sont un peu a la rue sur le thème nouvelle techno de search, parfois j'ai honte de notre inféodation aux États Unis.
 
WRInaute passionné
flyeric a dit:
Internet explorer, je peux comprendre votre critique mais Bing ?
Internet Explorer + Bing = Microsoft
Chrome + Firefox + Google = Google

C'était ça la relation, après je ne peux pas trop m'étaler sur Bing, je ne l'utilise pas (comme tout le monde ^^)

+1 UsagiYojimbo, et je rajouterais que je ne vois pas comment il pourrait être pertinent en ayant aucune idée de l'existence d'un site ayant des backlinks depuis plusieurs mois si on ne va pas le déclarer dans Bing Webmaster Tools... on est loin des crawlers de chez Google !

Je pensais qu'ils concurrenceraient un peu plus Google en s'alliant (Facebook + Yahoo + Bing) mais au final ça ne bouge pas vraiment...

A quand le moteur de recherche de chez Apple, à 2€ la recherche ? :lol:
 
WRInaute accro
Concurrencer Google sera de plus en plus difficile sauf si google fait un jour une très grosse erreur aux yeux des utilisateurs. cela dit je trouve qu'il en prend sérieusement le chemin.

Mais sinon la machine google est bien trop énorme pour être concurrencée. Bien trop d'argent en jeu sans être certain de pouvoir avoir une moindre petite part du marché.
Non seulement il faut les infrastructures, mais il faut également être capable d'avoir des résultats pertinents (des années de recherche chez google) et surtout changer les mentalités.
Hormis Bing (microsoft) si il met un bon coup de boost, je vois difficilement comment google pourrait être concurrencé et inquiété.

Et c'est bien pour cette raison qu'il se permet tout ça.
 
WRInaute discret
lambi521 a dit:
...
A quand le moteur de recherche de chez Apple, à 2€ la recherche ? :lol:
LOL, elle est pas mal celle-là !
Non plus sérieusement, si facebook met un moteur intégré à son interface ça risque de faire mal à google ... Nombre d'utilisateurs resteront dans l'univers facebook sans jamais en sortir. Pour moi c'est le seul concurrent possible pour le moment.
 
WRInaute accro
noren a dit:
il faut également être capable d'avoir des résultats pertinents (des années de recherche chez google)
La pertinence il l'on eu très vite ... ces dernières années leur recherches portent sur le "filtrage" (au détriment de la pertinence parfois justement) mais pas sur une augmentation de la qualité des recherches ...
Tout ça pour dire que fournir des serps "pertinents" n'est pas hors de porté, les rendre "non manipulable" en est une autre ...
Bref un concurrent peut "très vite" égaler le search, le temps que les mentalités changent il aura largement le temps de se rendre "SEO blindé".
Après pour l'infra les universités Européennes pourrait avoir le jus necessaire pour lancer le concept ...
 
Nouveau WRInaute
Bon ben ça y est, j'ai l'impression d'avoir les yeux bandés dans un labyrinthe, ici ou là que certains préconisent des solutions comme ne plus utiliser les outils Google ou faire des Adwords, voir écrire au ministre, c'est très bien mais cela ne change rien au problème.Google est devenu un mastodonte qui a su se servir des professionnels du web pour parvenir à ses fins, maintenant il se comporte comme Atilla et écrase tout sur son passage et ne veut plus partager avec personne, cette situation c'est nous professionnels du web qui l'avons créée en aidant Google à acquérir son hégémonie.
Quelles solutions pour s'en sortir ?
Personne ne fait le poids face à Google pour le moment, il faut donc trouver des moyens d'équilibrer la balance et de taper là où ça fait mal et pour y arriver, il faut se regrouper en France mais aussi en Europe (Utopique peut-être) de la façon la plus large possible afin de faire des actions concertées ponctuelles qui peuvent être de différentes natures :
- grève des Adwords pendant une journée.
- Incitation des internautes à utiliser d'autres moteurs de recherches
...
Bref il faut taper au porte-monnaie de Google, il y a certainement beaucoup de possibilités d'actions à mener et là des milliers de cerveaux valent mieux qu'un seul mais l'important et d'abord de se regrouper car sinon point de salut.
C'était juste la pensée d'un tout petit acteur du web, l'union fait la force.
 
WRInaute passionné
avec la trésorerie qu'a google il va falloir s'accrocher avant de leur faire changer de politique. Les rebelles seront mort avant eux.
 
WRInaute discret
Pour un peuple de résistant, les Français sont un peu a la rue sur le thème nouvelle techno de search...
+1 zeb

En fait ce qui m'inquiète dans tout ça (comme je l'ai déjà évoqué), ce n'est pas tant la suppression des stats sur les mots clés mais plutôt ce qui va se passer dans l'avenir?
Aujourd'hui les mots clés, mais demain ce sera quoi?

Comme dit précédemment, ils ont une fortune énorme, pas de concurrent à part Bing et comme peu suivront l'idée de pseudo grêve ou de plainte, je ne vois pas ce qui va les arrêter et dans cette mesure, jusqu'où iront-ils?

Un jour ils franchiront les portes de l'abus de position dominante... Peut-être! ahah!
 
WRInaute discret
Je suis peut-être béte mais je ne comprend pas le problème... En fait, pire, je ne comprend rien à ce post.

Ce que je comprend :
Quand quelqu'un cherche sur https://www.google.fr les mots clés ne sont pas enregistrés dans analytics alors que si il cherche sur https://www.google.fr alors la c'est affiché ?

Ma question est surement bete mais je comprend pas alors je demande ;)
 
Nouveau WRInaute
gwt

Effectivement cela devient impossible de tracker correctement nos visiteurs,
heureusement qu'il reste gwt, cela nous donnera quand même encore quelques données intéressantes.
 
WRInaute passionné
iomgui a dit:
Ma question est surement bete mais je comprend pas alors je demande ;)
C'est simple; dans le protocole HTTP normal, il est transmis une donnée de l'origine qui s'appelle le "REFERER", celle-ci contient l'url détaillée de la page qui a donnée le lien.

Venant d'un moteur comme Google par exemple,
le REFERER = https://www.google.fr/search?q=mes+mots+cles+tapes+sur+le+moteur
Ainsi, dans les logs, ont peut savoir que MAPAGE.html a reçue une visite venant de Google et avec comme mots clés à l'origine "MES MOTS CLÉS TAPÉS SUR LE MOTEUR".

Dans un premier temps, google a changé le protocole et a remplacé cette zone REFERER avec la mention identique "NOT PROVIDER" , ce qui fait que l'on ne peut plus connaitre les mots clés. Pour sûrement ne pas se faire taper sur les doigts en changeant les données normalisées du protocole http, Google le change en protocole sécurisé (HTTPS) qui dans ce cas ne transmet plus le REFERER. Un jeu de passe passe qui n'est pas bienvenue pour nombreux sites qui travaillent sur l'optimisation.
 
WRInaute impliqué
Beaucoup parlent de riposte. Il n'y en aura pas.

D'abord, quel droit faire valoir auprès des autorités dans le cas présent? Il n'y en a aucun. L'info était gratuite, elle devient payante. Faire cela n'est en rien interdit.

Ensuite, quand il y a eu des cas où il y avait matière à infraction ou en tout cas à litige, avez-vous réagi ? non.

Il y a depuis 1-2 année(s) un dossier d'abus de puissance de Google à la Commission européenne, les propositions de celui-ci et les demandes de la Commission de lui fournir vos avis ? Y avez-vous participé? non.

Espérez-vous la naissance d'un autre moteur? Oui, mais vous attendrez encore longtemps.

La force de Google, c'est qu'avec le cookie lors des recherches, Google adsense, google analytics, la Google barre, etc... , Google en sait, plus que quiconque, sur l'internaute et même sur votre propre site. Avec ses innombrables messages (liens factices, liens payés, etc...) et les réactions des intéressés, il a une info que personne d'autre (y compris les autres moteurs) n'a.

Quand bien même un petit nouveau moteur aurait une idée géniale, combien de temps faudra-t-il, croyez-vous, pour que Google intègre l'idée (voire l'entreprise) chez lui ? Pas longtemps.

Oui, un jour, la position dominante de Google sautera comme toutes les autres avant lui. Par ex. on peut imaginer que, à force de lutter contre les spams et le black hat, il finisse par avoir un algorithme qui se mélange les pieds et ne tienne plus debout (à mon sens, ce processus a commencé). Mais quand cela arrivera-t-il ?

Si vous voulez faire quelque chose pour hâter le processus:
-- soyez solidaires (un véritable challenge dans un métier où chacun ne voit que son propre pré et ironise sur les échecs de ses voisins)
-- réagissez chaque fois que vous pouvez (le dossier à la Commission européenne n'est pas clos), mais faites-le quand il y a réellement infraction ou litige réel (pas pour pleurer quand le parrain ne vous donne plus des pralines).
-- chaque fois que vous le pouvez, utilisez un produit alternatif. S'il y a un outil équivalent à Google analytics, utilisez-le.
-- pour le reste, patientez, subissez et restez zen.
 
WRInaute discret
jolm a dit:
J'oublie de dire que ça risque d'être très difficile pour les référenceurs de travailler .... Ils ne peuvent même plus mesurer les performances ou presque. En gros ils travaillent à l'aveugle maintenant ?

Oui je pense que c'est exactement ce que veux Google. Je pense qu'il en a marre de ses référenceurs qui essayent de duper le moteur. Et ils ont raisons, aux risques de vous énervé tous.
Vous êtes les premiers à dire qu'il faut faire des sites naturel et ne pas trop se soucier du moteur google mais tout le monde s'empresse de récupérer les expressions clés qui ramènent le plus de monde (c'est humain mais loin d'être naturel). Alors sans les mots clés là il n'y a plus personne alors qu'il y a beaucoup d'autres choses plus essentiels comme la longtail ou le champ lexical ... Et le plus important pour moi est de créer un site qui à de l'intérêt ... le reste suivra. Aurevoir les petits sites pourri.... :lol:

Attention vous allez m'en vouloir :evil: loll
Pour moi le référencement est la continuité du développeur web. C'est à dire qu'un bon développeur web est un bon référenceur et que le métier de référenceur n'existera plus. Aujourd'hui on a de plus en plus besoin de toucher au code source du site ... et je pense que ce n'est que le début.
 
Olivier Duffez (admin)
Membre du personnel
iomgui a dit:
Je suis peut-être béte mais je ne comprend pas le problème... En fait, pire, je ne comprend rien à ce post.

Ce que je comprend :
Quand quelqu'un cherche sur https://www.google.fr les mots clés ne sont pas enregistrés dans analytics alors que si il cherche sur https://www.google.fr alors la c'est affiché ?

Ma question est surement bete mais je comprend pas alors je demande ;)
c'est expliqué dans mon dossier sur le passage au tout "not provided", notamment la partie "analyse de logs"

longo600 a dit:
iomgui a dit:
Ma question est surement bete mais je comprend pas alors je demande ;)
C'est simple; dans le protocole HTTP normal, il est transmis une donnée de l'origine qui s'appelle le "REFERER", celle-ci contient l'url détaillée de la page qui a donnée le lien.

Venant d'un moteur comme Google par exemple,
le REFERER = https://www.google.fr/search?q=mes+mots+cles+tapes+sur+le+moteur
Ainsi, dans les logs, ont peut savoir que MAPAGE.html a reçue une visite venant de Google et avec comme mots clés à l'origine "MES MOTS CLÉS TAPÉS SUR LE MOTEUR".

Dans un premier temps, google a changé le protocole et a remplacé cette zone REFERER avec la mention identique "NOT PROVIDER" , ce qui fait que l'on ne peut plus connaitre les mots clés. Pour sûrement ne pas se faire taper sur les doigts en changeant les données normalisées du protocole http, Google le change en protocole sécurisé (HTTPS) qui dans ce cas ne transmet plus le REFERER. Un jeu de passe passe qui n'est pas bienvenue pour nombreux sites qui travaillent sur l'optimisation.
désolé mais ce n'est pas vraiment ça..
s'il n'y avait plus du tout de referrer, Google n'apparaitrait nulle part dans nos stats Google Analytics, pourtant il apparait toujours en tant que Google Organic.

relis mes explications dans mon dossier, rubrique "logs"
 
WRInaute passionné
WebRankInfo a dit:
désolé mais ce n'est pas vraiment ça..
s'il n'y avait plus du tout de referrer, Google n'apparaitrait nulle part dans nos stats Google Analytics, pourtant il apparait toujours en tant que Google Organic.
relis mes explications dans mon dossier, rubrique "logs"

Merci de me reprendre Olivier, en effet, j'ai oublié un mot d'importance mais tout le monde aura compris je pense,
... google a changé le protocole et a remplacé "LE CONTENU DE" cette zone REFERER avec la mention identique "NOT PROVIDER" , ce qui fait que l'on ne peut plus connaitre les mots clés.... C'est vrai qu'il peut y avoir des novices qui lisent, même si la plupart des "WRIsiens" sont au courant. J'aurais pu donner le lien et faire + court ... Sinon, à quoi bon qu'Olivier se décarcasse? .... :mrgreen:
 
Olivier Duffez (admin)
Membre du personnel
tu avais pourtant écrit "Google le change en protocole sécurisé (HTTPS) qui dans ce cas ne transmet plus le REFERER."
bref... ce n'est pas grave
 
WRInaute passionné
WebRankInfo a dit:
tu avais pourtant écrit "Google le change en protocole sécurisé (HTTPS) qui dans ce cas ne transmet plus le REFERER."
bref... ce n'est pas grave
Exact, j'ai dis une bêtise, le HTTPS n'empêche pas le "referer" ... si si c'est grave, enfin moyen ... :oops:
Comme quoi, faut toujours lire les dossier de wri ... :wink:
 
WRInaute impliqué
Puisqu'on rectifie les réponses mal exprimées, j'en profite pour préciser qu'en disant "L'info était gratuite, elle devient payante", je voulais dire qu'elle reste (partiellement) disponible pour ceux qui paient des adwords.

Vous avez sans doute rectifié par vous-même. Et cela ne change rien à mon raisonnement.
 
WRInaute passionné
Bon je vais surement passer pour un fayot ou pire un gros nullos LOL .. mais vous trouvez ca naturel vous de construire des pages et des textes en fonction de la cible que google vous apporte ? Ce ne serait pas plutot l'inverse qu'il faut faire ? Le visiteur qui vient c'est parceque le contenu que vous rédigez l'interesse .. et non vous rédigez du contenu pour intéresser un certain visiteur.
Bref, ca en revient au débat de base.. construire des articles avant tout sur un sujet qu'on a envie de parler et non sur un suje que les internautes ont envie d'entendre.. ou alors tout le monde cherche à traiter des memes sujets "buzz".. pour moi une telle approche n'est pas naturelle.
Ou alors je suis à coté de la plaque (c'est fort possible) et je n'ai pas tout saisi le bienfait de connaitre ses mots clés. Je sais qu'on peut utiliser ce paramètre pour renforcer une autorité sur un mot clé ca ok mais pour le reste..
 
WRInaute passionné
BoboAsh a dit:
jolm a dit:
J'oublie de dire que ça risque d'être très difficile pour les référenceurs de travailler .... Ils ne peuvent même plus mesurer les performances ou presque. En gros ils travaillent à l'aveugle maintenant ?

Oui je pense que c'est exactement ce que veux Google. Je pense qu'il en a marre de ses référenceurs qui essayent de duper le moteur. Et ils ont raisons, aux risques de vous énervé tous.
Vous êtes les premiers à dire qu'il faut faire des sites naturel et ne pas trop se soucier du moteur google mais tout le monde s'empresse de récupérer les expressions clés qui ramènent le plus de monde (c'est humain mais loin d'être naturel). Alors sans les mots clés là il n'y a plus personne alors qu'il y a beaucoup d'autres choses plus essentiels comme la longtail ou le champ lexical ... Et le plus important pour moi est de créer un site qui à de l'intérêt ... le reste suivra. Aurevoir les petits sites pourri.... :lol:

Attention vous allez m'en vouloir :evil: loll
Pour moi le référencement est la continuité du développeur web. C'est à dire qu'un bon développeur web est un bon référenceur et que le métier de référenceur n'existera plus. Aujourd'hui on a de plus en plus besoin de toucher au code source du site ... et je pense que ce n'est que le début.

Ah bah je me sens moins seul, j'avais pas lu ce message .. je suis 100% d'accord avec. Vous voulez du naturel alors voilà vous en avez .. maintenant vous construirez vos pages sur un contenu qui vous passionne avec de la longue traine et non faire un site de 10 pages calibré au poil de c** .. pour optimiser votre trafic.

On n'a pas raison sur le fond ? sincèrement ? .. :oops:
 
WRInaute accro
Ce n’est pas aussi simple. la possibilité de voir les mots clés permet d'analyser de nombreuses choses. Comprendre comment et pourquoi les internautes viennent sur notre site, si ils sont en fin de compte bien ciblé etc.

Avec ces analyses on peut également améliorer notre contenu sans forcément penser à sur-optimisation etc.

On nous enlève tout simplement des outils qui nous permettent d'y voir plus clair pour s'améliorer.
 
WRInaute impliqué
Je pense quand même que la question sur la vie privée n'est pas fondée.
Après tout, si une personne arrive sur mon site de programmation, je sais très bien que ce n'est pas en tapant "annonce coquine" ;)
De même, si une personne arrive sur un site de c**, ce n'est pas en tapant "recherche développeur web".

Ce que je veux dire, c'est qu'à partir du moment où la personne arrive sur le site, peu importe ce qui est tapé dans sa recherche, on sait déjà pourquoi il vient.
 
Nouveau WRInaute
Blount a dit:
...à partir du moment où la personne arrive sur le site, peu importe ce qui est tapé dans sa recherche, on sait déjà pourquoi il vient.

ça c'est loin d'être sûr... on sait juste qu'il est venu mais pas pourquoi...

nous on vend des articles sexy... et si certaines personnes cherchent effectivement quelque chose à acheter on sait que c'est loin d'être le but de la majorité des visiteurs... (ce qui génère des coûts en pub sûrement plus importants,en tout cas moins rentables, que si on vendait des tournevis par exemple... même avec les mots négatifs d'Adwords)
 
WRInaute accro
WebRankInfo a dit:
Google va imposer la recherche avec le protocole HTTPS pour tous les internautes, ce qui va conduire à 100% de not provided et donc 0% de mots-clés fournis aux stats
pour moi les 2 choses ne sont pas étroitement corrélées : depuis des mois j'ai du http avec le query vide tout comme j'ai du https avec le query rempli. Même si ça représente très peu. Il y a plusieurs cas :
- le referer est juste http(s)://www.google.(com|fr) en http ou https, j'ai de tels referer. Sauf qu'en https ça représente plus de 95% des visiteurs gg.
- le referer est plus fourni, sauf que "q" et "oq" sont vides. Là, en http le referer vide représente 2/3 de referer semi-complet contre 3/4 pour le https
En fait, au début gg avait commencé via ses liens de tracking, on avait donc un referer contenant url= qui, quand on cliquait dessus nous renvoyait non dans les serp, mais sur notre page. Sauf que le plus fréquemment on pouvait récupérer quand même le q=

Et ceux qui disent (ou pensent) "vivement que FB nous ponde son moteur, ça sera mieux" n'ont jamais du regarder leurs referer FB, car, perso, sur plusieurs dizaines de milliers de visiteurs depuis FB il ne me semble pas avoir trouvé, ne serait-ce qu'une fois, la réelle provenance du visiteur.

Ne pas oublier qu'au début, exalead ne fournissait pas la requête dans son referer

parent44 a dit:
Quelqu'un connait des outils de statistiques qui n'ont pas de liens avec Google (transmission de données je parle) car j'aimerais désormais "garder" précieusement certaines informations pour moi et non pour GG car je sens qu'on va tous se faire avoir ^^
je suppose que sur tes sites tu n'as ni adsense ni même de badge G+ ?
jolm a dit:
J'oublie de dire que ça risque d'être très difficile pour les référenceurs de travailler .... Ils ne peuvent même plus mesurer les performances ou presque. En gros ils travaillent à l'aveugle maintenant ?
ou alors ils font du contenu pour les internautes, hein ? :wink:
flyeric a dit:
Mais en revanche, pourquoi Bing serait-il un mauvais moteur, has been ou inapproprié?
essaie le et tu comprendras :mrgreen:
B-vibes a dit:
En agissant ainsi, l'entreprise Google abandonne en quelque sorte sa vocation "search" encore plus.
même pas et, je pense, bien au contraire : ne sachant plus si les mots clés travaillés ont bien porté leurs fruits, les référenceurs arrêteront de travailler sur mots clés et travailleront plus sur le contenu.
De toutes façons, ça fait quelques années que les serp deviennent de plus en plus personnalisées et quand on clique sur le referer d'un visiteur, quasi en temps réel, on ne trouve pas son site dans les serp. Donc le travail par mot clé devient un peu has been.
jolm a dit:
Non plus sérieusement, si facebook met un moteur intégré à son interface ça risque de faire mal à google ... Nombre d'utilisateurs resteront dans l'univers facebook sans jamais en sortir. Pour moi c'est le seul concurrent possible pour le moment.
si FB savait faire de bonnes recherches, ça se saurait. Ils ont déjà du mal à gérer correctement leurs données, alors gérer celles des autres :roll: tu écris un message et tu veux le modifier. Sauf que ça ne fonctionne pas toujours. Donc tu supprimes ton messages et tu le ré écris, mais corrigé. Sauf que le lien vers ton ancien message (effacé) continue toujours d'apparaitre chez les amis / fans, qui te suivent.
De plus, les données chez FB sont surtout orientées buzz ou vacuité (l'un allant avec l'autre). Tu ne trouveras quasi aucun article sérieux dessus.
Pourquoi sur le web francophone gg est-il le maitre ? parce que la langue française est assez dure à maitriser et avant que les autres moteurs n'arrivent à une telle pertinence, de l'eau aura coulé sous les ponts.
longo600 a dit:
Pour sûrement ne pas se faire taper sur les doigts en changeant les données normalisées du protocole http, Google le change en protocole sécurisé (HTTPS) qui dans ce cas ne transmet plus le REFERER. Un jeu de passe passe qui n'est pas bienvenue pour nombreux sites qui travaillent sur l'optimisation.
euh, si, tu as toujours le referer, sauf qu'il ne contient plus le q= ou oq=
longo600 a dit:
... google a changé le protocole et a remplacé "LE CONTENU DE" cette zone REFERER avec la mention identique "NOT PROVIDED" , ce qui fait que l'on ne peut plus connaitre les mots clés...
pas vraiment ça non plus : du fait que le q= (query) devient vide, GA affiche not provided. Mais ces termes n'apparaissent pas dans le referer :wink: surtout que, de plus en plus, on ne voit plus de q= vide, on a juste https://www.google.com/ comme referer
 
WRInaute passionné
De toutes façons, ça fait quelques années que les serp deviennent de plus en plus personnalisées et quand on clique sur le referer d'un visiteur, quasi en temps réel, on ne trouve pas son site dans les serp. Donc le travail par mot clé devient un peu has been.

entièrement d'accord je l'ai constaté .. j'ai souvent des visites provenant de mots clés où je suis en 3eme page SERP depuis chez moi.. improbable .. ca prouve que les SERPS ne sont pas identiques chez l'un ou chez l'autre .. maintenant voir jusqu'à quel niveau c'est personnalisé ?
 
WRInaute occasionnel
avec la mise à jour d'analytics (je suis étonnée que personne n'ait relevé ce changement ce matin) ça va être encore plus obscur
 
WRInaute passionné
Ils ont remplacé source par acquisition mais les mots clés sont toujours consultables après donc ca change rien sur le fond ?
bon ok y'a de plus en plus de not provided cela je vous l'accorde.
 
WRInaute accro
j'ai 94% de requêtes "not provided" depuis Google, qui sont ces 6% qui ne sont pas encore en https ? vous êtes bien tous en https maintenant ?
 
Olivier Duffez (admin)
Membre du personnel
je crois que ça peut venir des accès directs de personnes préalablement venues sur le site par le SEO (du temps où il n'y avait pas 100% de not provided)
 
Nouveau WRInaute
ça y est je suis à 100% not provided, ç'est absolument scandaleux.
j'ai un site e commerce et je navigue à l'aveugle.
 
WRInaute passionné
e-kiwi a dit:
vous êtes bien tous en https maintenant ?
Non, sur un mac book avec safari et l'ancien systeme 10.6.8 (léopard), ca reste en http... Sur mes autres mac avec Lion, c'est en https. Donc, avec les mac book et imac avec un système Léopard, il est possible que l'ensemble représente 6%.
En utilisant Firefox et chrome sur ces machines, ca passe systématiquement en https.
 
WRInaute passionné
PS: c'est d'ailleurs super pénible d'avoir Google en démarrage du navigateur, car en tapant une url dans la barre de navigation, il faut toujours retirer le "S" de https .
 
WRInaute passionné
Leonick a dit:
quel navigateur ?
Quand j'utilise un navigateur qui passe en https sur mon mac (firefox, chrome, safari sur Montain lion) ; j'ai l'habitude de taper les noms de sites en .fr en double cliquant juste sur google et je change le domaine en laissant www + .fr, mais a chaque fois, ca me donne du genre https://www.hotmail.fr et sois j'enleve le S a chaque fois, soit j'ai un mess d'alerte du site ... Bref, c un peu agacant.
 
WRInaute occasionnel
Quel est l'avantage pour toi de naviguer en http et non en https ?
De mon côté les not provided ont largement augmentés sur mon plus gros site, mais ils stagnent encore à 50%...
 
WRInaute accro
dans google Analytics, il y a un sous menu, qui se trouve dans Acquisition, se sous menu se nomme "Optimisation du référencement" puis Requêtes, se menu est identique à GWT, ce pendant je le trouve légèrement plus précis que GWT, car on peut choisir une période ou un jour précis, aussi bien pour le nombre de visiteurs pour chaque requête, le nombres d'impressions et la positions moyenne dans google, le seul défaut pas de statistique sur les deux derniers jours.

je viens de créer une vidéo d'exemple:

http://mipc.fr/optimisation%20du%20referencement%20requetes.mkv
 
WRInaute accro
la perfection ça n'existe pas.

édit, si tu veux les pages de destinations exactes pour chaque requêtes c'est dans GWT:

Trafics de Recherche puis cliquer sur Requêtes de recherche, une fois dans Requêtes de recherche très légèrement en dessous vous avez Pages les plus populaires, en suites une fois dans pages les plus populaires sur certaines url ou page de votre site vous avez une petit flèche qui ressemble à ►, cliquer dessous pour développer et voila vous avez les requêtes associé aux pages de votre site internet, un fous ceci fait vous les insérer une par une dans SEOSOFT, normalement SEOSOFT peut vous dire pour chaque requêtes sur quel pages de destination est associé la requête, en survolant avec votre souris dans SEOSOFT le code de couleur associé à chaque requêtes.

c'est déjà un bon début.
 
WRInaute accro
C'est surtout extrêmement laborieux sur des sites à gros volume, vu qu'il n'est pas possible d'exporter cette liste autrement qu'en récupérant au fur et à mesure à la mano...
 
Discussions similaires
Haut