Annonces Google

Vous êtes ici : Dossiers référencement > Conseils en référencement naturel

Les tendances du référencement en 2009

Par , le 01 décembre 2008

L'année 2008 se termine, les ventes en ligne pour les fêtes de fin d'année montent en flèche - en tout cas c'est ce qu'espèrent tous ceux qui ont travaillé dur pour optimiser le référencement et les web analytics de leur site. De toute façon, c'est en général un peu tard pour faire encore des améliorations, à part sans doute la recherche de nouveaux backlinks. C'est donc l'occasion de s'intéresser à ce qui nous attend pour 2009 : quelles seront les tendances des moteurs de recherche et du référencement en 2009 ? Comment devez-vous vous préparer pour être devant vos concurrents, pour ne pas laisser passer des évolutions marquantes ? Voici quelques pistes pour vous aider...

On parle parfois d'une certaine lassitude dans le domaine du référencement (ce fut l'objet de discussions dans le forum WebRankInfo), de nombreuses personnes pensant avoir fait le tour des techniques à exploiter pour augmenter leur visibilité dans les moteurs. C'est vrai qu'à première vue il est de plus en plus rare de découvrir des nouvelles recettes efficaces en référencement. Pour en trouver, il faut effectuer de plus en plus de tests, d'expériences, de recherches et ceux qui découvrent des nouvelles idées les gardent logiquement pour eux ou leurs clients. Pourtant, je pense que nous sommes à une époque charnière :

  • du côté technique, le métier devient beaucoup plus difficile : ceux qui n'ont pas les moyens de faire des tests sérieux pour évaluer des nouvelles idées d'optimisation ne peuvent plus vraiment progresser. Pour ma part je ne regrette pas d'avoir créé un centre de R&D en référencement il y a déjà plusieurs années. Il m'aide à valider des hypothèses, à effectuer la partie technique des audits et également à donner des réponses aux participants de ma formation. Il ne faut pas oublier également que les nouveaux types de recherche (Google Maps, YouTube, Mobile, etc.) et l'intégration de la recherche universelle ouvrent de nouveaux pans entiers pour le SEO...
  • du côté marketing et relationnel, le métier poursuit son évolution : il est indispensable de réussir à faire parler du site sur le web, si possible sous forme de liens efficaces pour le référencement. Les nouveaux types de sites du Web 2.0, les réseaux sociaux, le buzz et bien entendu le carnet d'adresses du référenceur et du client : voilà des bonnes pistes !

Ce qui a changé en 2008

La détection du duplicate content

D'après les tests effectués chez Ranking Metrics Labs, nous sommes passés en moins de 2 ans d'une détection au niveau site à une détection au niveau page et même paragraphe. Baser une stratégie de référencement naturel sur du contenu non original (déjà publié ailleurs) me semble voué à l'échec à court ou moyen terme.

Balise meta description et positionnement Google

J'ai été surpris de constater aussi bien sur le forum WRI qu'en formation que de nombreuses personnes semblent avoir découvert en 2008 que la balise meta description n'avait pas d'impact sur le positionnement dans Google. Ca ne veut pas dire qu'il est inutile de la travailler, mais il me semble qu'il y a bien d'autres choses plus efficaces à faire avant ça.

La vulgarisation du référencement effectuée par Google

En 2008, nous avons assisté à un net accroissement de la communication de Google envers les webmasters et notamment ceux qui s'intéressent au référencement. Mise à jour des pages d'aide, développement d'outils, publication d'articles dans les blogs ou même de PDF d'initiation au référencement : Google teste tout. Pour autant, je ne trouve pas que cette vulgarisation extrême du référencement soit bénéfique aux personnes visées ; je pense même que certaines pratiques inefficaces sont en train de se généraliser à cause de Google. Je pense par exemple à tous ceux qui estiment que les sitemaps sont un élément essentiel du référencement, ou que l'utilisation du nofollow en interne est le summum de l'optimisation.

Je mets néanmoins de côté certains outils disponibles dans Google Webmasters Tools, qui s'avèrent intéressants (par exemple le dernier qui indique sur quelles pages Google a détecté des liens menant vers des 404).

La généralisation de chasse aux liens payés

Démarrée fin 2007 en France, la chasse aux commerce de liens effectuée par Google s'est généralisée tout au long de l'année. La technique de la peur semble avoir assez bien fonctionné, de nombreuses personnes ayant renoncé à acheter des liens. Je trouve pour ma part cette histoire assez ubuesque, dans la mesure où Google ne peut pas déterminer de façon sûre à 100% si un lien a été acheté ou vendu. J'ai mis quelques nofollow sur WRI pour éviter toute histoire, même si je n'ai jamais vendu de lien sur WRI...

L'extension de la recherche universelle

Suivant Ask ou Google, tous les principaux moteurs utilisent de plus en plus le concept de la recherche universelle. Peu présente fin 2007, la recherche universelle fait désormais partie de nos habitudes sur les pages de SERP. Certains ont commencé à travailler le référencement sur ces moteurs verticaux mais il y a encore peu de discussions à ce sujet.

L'apparition de nouveaux outils d'analyse des mots-clés

Des meilleurs outils d'analyse pour les stratégies de mots-clés (Trends, Trends for websites, Insight for search, Sktool, etc.) ont fait leur apparition en 2008 (malheureusement celui d'Overture a fermé). Ces outils permettent de mieux travailler les mots-clés et expressions stratégiques, que ce soit pour le référencement naturel ou les liens sponsorisés.

Ce qui va changer en 2009

Voici les principales tendances que je prévois pour 2009 (elles sont donnée sans ordre d'importance)...

Prise en compte de changements dans l'interface des moteurs de recherche

Certains changements dans les pages de Google peuvent avoir un impact sur les stratégies de référencement. C'est le cas par exemple de l'apparition du menu déroulant de Google Suggest par défaut en page d'accueil de Google, ou de l'apparition des liens vers des recherches apparentées. Je pense qu'il y en aura encore beaucoup d'autres et que certaines techniques pourront être développées pour exploiter tout ça. D'autres pourront être supprimées, il faudra être bien attentifs !

La recherche universelle

Je pense que la tendance va se poursuivre en 2009, soit avec de nouveaux types d'encarts de résultats spécifiques au milieu des résultats web classiques, soit simplement avec un plus grand nombre de requêtes qui déclenchent ce type d'affichage particulier. Il est donc urgent pour les responsables de sites web de s'intéresser aux techniques sous-jacentes à la recherche universelle : comment être référencé sur ces moteurs verticaux (actualités, cartes, vidéos, images, livres, etc.) ? Comment être bien positionné ?

Personnalisation des résultats

C'est loin d'être une nouveauté mais cela va poursuivre son chemin : les moteurs de recherche vont continuer à développer des fonctionnalités permettant de fournir des résultats personnalisés aux internautes qui effectuent leurs recherches en étant identifiés à l'aide d'un compte. Le développement impressionnant des produits ou services de Google contribue indirectement à cette personnalisation. En effet, les utilisateurs de ces produits doivent naturellement se connecter à leur compte Google, ce qui en général a pour conséquence qu'ils se mettent à faire leurs requêtes en étant connectés à leur compte Google, sans trop s'en rendre compte.

Ceci étant dit, il est assez difficile de mettre en place des stratégies visant à améliorer la visibilité d'un site pour les recherches personnalisées. On peut sans doute imaginer qu'en fidélisant les visiteurs d'un site, on contribue à améliorer sa visibilité dans les moteurs...

Réseaux sociaux

Le succès des réseaux sociaux ne faiblit pas, l'audience de sites comme Facebook continue de progresser fortement. Jusqu'à quand ? Il faudra bien qu'ils trouvent un modèle économique efficace, sinon le soufflé risque de retomber (comme ce fut le cas avec Second Life). Cela étant, ces sites sont intéressants en termes d'audience et de levier pour les campagnes de buzz et donc de backlinks (directs ou indirects). Là aussi nous aurons l'occasion d'en reparler sur WebRankInfo.

Démocratisation de l'Internet mobile

2009 sera peut-être (enfin) l'année de l'explosion du trafic généré sur le web mobile ! En tout cas c'est un thème qui m'intéresse et sur lequel je reviendrai dans les prochains mois sur WebRankInfo.

La valeur du contenu original et de qualité va fortement augmenter

Avec mes clients ou en formation, j'insiste sur l'importance capitale du contenu unique, original, à valeur ajoutée. En particulier, la vente de contenu va évoluer, les producteurs de contenu comprenant petit à petit qu'ils ne doivent pas subir la concurrence de leurs clients qui publient ce contenu (dupliqué). Au-delà, c'est la façon de rédiger du contenu pour le web qui va évoluer, car il est possible de concilier internautes et SEO ! J'ai un petit projet à ce sujet pour les prochains mois.

Découverte de l'importance des web analytics

L'objectif du référencement n'est pas d'être premier sur le mot-clé qui obsède le patron. Ce n'est pas non plus forcément d'être premier sur plein de mots-clés, de générer le plus de trafic possible. Le référencement est au service des objectifs du site :

  • augmenter la visibilité du site sur Internet (moteurs de recherche et autres sites comme les réseaux sociaux) afin de faire passer un message : c'est le cas par exemple de sites institutionnels
  • augmenter le nombre de pages vues et/ou de visiteurs uniques : c'est le cas des sites de contenu qui vivent de la publicité affichée sur leurs pages
  • augmenter le nombre de ventes, soit grâce à l'augmentation des visiteurs qualifiés, soit grâce à l'augmentation du taux de conversion, soit grâce aux 2 !
  • augmenter le nombre de contacts qualifiés (remplissages de formulaires, ou leads) : c'est le cas par exemple de compagnies d'assurance ou de conseillers fiscaux
  • etc.

Etes-vous certains de concentrer vos efforts de la façon les plus efficace ? Les outils de mesure d'audience (web analytics) sont précieux pour travailler efficacement. Trop peu de gens les utilisent encore, je pense que cela va fortement changer en 2009. D'ailleurs, le grand succès remporté par la journée de formation aux web analytics de Ranking Metrics est sans doute le signe que les choses évoluent : tant mieux !

Le référencement est de plus en plus internalisé

La part du chiffre d'affaires réalisé en ligne par les entreprises est en forte croissance depuis plusieurs années et elle atteint désormais des valeurs significatives, même pour des entreprises qui vivaient avant sans Internet (presque 50% du CA de La Redoute vient d'Internet : on imagine aisément à quel point le référencement est alors stratégique). Les responsables emarketing ou de l'audience de ces entreprises comprennent alors qu'il devient stratégique de développer des compétences en interne, de capitaliser sur les employés. De mon côté, je constate que les entreprises qui ont une bonne culture web sont également celles qui demandent précisément qu'un expert transmette son savoir aux équipes internes, plutôt que de continuer à acheter des prestations où les techniques de référencement sont cachées dans une sorte de boite noire... J'ai également beaucoup de plaisir à former des centaines de personnes au sein des formations Ranking Metrics, qui profitent il est vrai d'un bon bouche à oreille. Tant mieux car c'est passionnant !

Le référencement comme remède contre la crise

Ces derniers mois, j'ai lu plusieurs personnes s'exprimant à propos de la crise économique et du référencement. Le PDG de Google s'est empressé d'indiquer que ses liens sponsorisés AdWords étaient encore plus efficaces en temps de crise ; le très bon site SEOmoz tente d'expliquer pourquoi les demandes de consulting en SEO ont explosé depuis 2 mois ; enfin de mon côté, j'ai parfois du mal à répondre à toutes les demandes de consulting et à optimiser le site WebRankInfo dont le trafic a bien augmenté ces derniers mois (en consultations mais pas forcément en contributions sur le forum).

Je pense que la raison est assez simple : sur le web, tout est mesurable ! Un bon référenceur doit commencer par aider son client à fixer des bons objectifs et à mettre en place les outils nécessaires pour leur mesure. Ensuite, que ce soit grâce à ses conseils ou à ses actions d'optimisation, les progrès réalisés peuvent (doivent !) être mesurés à l'aide des web analytics. Le client peut alors juger sérieusement si l'investissement dans le référencement est rentable (SEO ou SEM), afin de l'accroître dans le meilleur des cas !

Et vous qu'en pensez-vous ?

Je vous ai donné quelques pistes de réflexion mais j'en ai peut-être oublié : n'hésitez pas à me faire part de vos commentaires soit dans ce blog, soit dans le forum WebRankInfo : Ce qui va compter en 2009 dans le référencement.

Cet article vous a-t-il plu ?
Cliquez pour voter !

A propos de l'auteur : Olivier Duffez Olivier Duffez sur Google+ Olivier Duffez sur Twitter Olivier Duffez sur Facebook Olivier Duffez sur Pinterest Olivier Duffez sur LinkedIn

Consultant en référencement, Olivier Duffez a travaillé pour les plus grands sites (Doctissimo, FNAC,...). Il édite le site WebRankInfo qu'il a créé en 2002, devenu la + grande communauté francophone sur le SEO (+300.000 membres, 1,5 million de posts). Il est aussi cofondateur de Ranking Metrics, leader des formations webmarketing en France (SEO, AdWords, Analytics, réseaux sociaux) et éditrice de la plateforme MyRankingMetrics (crawler et audit SEO en ligne).

Article publié par WebRankInfo dans la rubrique Conseils en référencement naturel. Si vous souhaitez publier un extrait de cet article sur votre site, assurez-vous de respecter les conditions générales d'utilisation de WebRankInfo.

23 commentaires

  • TOMHTML a dit le

    Ce n'est pas parce que les balises méta description ne comptent pas vraiment pour le positionnement qu'il ne faut pas les optimiser ! Car oui, aussi étrange que cela puisse paraître (sic), il y a des hommes et des femmes qui lisent ces descriptions, bien souvent affichées en tant que snippet... Et avoir les mêmes balises méta description partout sur son site, autant se tirer une balle dans le pied tout de suite... ;)

  • Olivier Duffez a dit le

    En effet, mais c'est pour ça que j'ai écrit ça : Ca ne veut pas dire qu'il est inutile de la travailler, mais il me semble qu'il y a bien d'autres choses plus efficaces à faire avant ça.

  • Audiofeeline a dit le

    La balise me semble INDISPENSABLE, même si GoogleBot ne semble pas la comprendre, les Internautes, eux, savent lire...
    Encore une fois il suffit de regarder comment vous faites vos propres recherches pour savoir comment optimiser vos metas.
    Se mettre à la place de l'utilisateur est selon moi LA vraie recette qui marche.

  • Yassine a dit le

    Il est vrai que la crise économique a pousser les entreprises à rechercher des canaux pour générer des contacts (des ventes...)
    mais il y a aussi la programme de suppression de la publicité dans les chaines télé du service publique.
    j'avais eu une petite réflexion à ce sujet : blog.referencement-ouest....

  • Nicolas F. a dit le

    Je plussoie TOMHTML car, comme il est dit dans cet article, le référencement va s'axer sur le contenu et notamment sa qualité. Donc, personnaliser les méta-description et les rendre cohérente s'inscrit dans cette démarche.

    Je m'étonne du fait qu'il n'y a pas de mention, dans les prédictions 2009, du fait que la qualité du site en lui-même (ergonomie, design, rédaction, mises à jour, clarté, rapidité etc...) sera LE critère référencement de demain.

    En effet, grâce à ses outils de plus en plus complet et l'utilisation des données personnelles des internautes, Google va, je pense, donner de plus en plus d'importance à la réaction des utilisateurs face à un site (taux de rebond, temps de consultation, nombre de pages visitées etc...).

    Et là, pas de secret, il faut un bon site et donc, un budget conséquent pour son développement. Du coup, les référenceurs auront peut-être moins de boulot. Ca deviendra peut-être plus des rédacteurs web, ergonomes, consultants en utilisabilité... etc...

    C'est en tout cas ce que je dis de plus en plus à mes clients : un site bien fait (et surtout, bien mis à jour) n'a pas vraiment besoin d'être référencé (sauf les sites e-commerce pour lesquels un coup de pouce n'est pas de trop).

  • Rick Hunter a dit le

    N'étant pas professionnel mais voulant avoir un minimum de visibilité sur le net pour mon blog, je trouve ce billet très instructif pour faire le point.

  • Entreprises et blogs a dit le

    Ne manque-t-il pas l'essentiel dans cette note, à savoir le CONTENU. Si l'on essaie de ressortir de tous les détails et de toute la mécanique de Google and co (par ailleurs très intéressante), Google a toujours proclamé que le but ultime, la pertinence, s'appuyait sur répondre aux demandes des internautes donc sur l'analyse du contenu. L'amélioration des algorithmes tend vers ceci et 2008 comme 2009 sont des années charnières. Les "techniques" de référencement ne sont plus suffisantes. Elles restent nécessaires mais de moins en moins. Le contenu, la façon d'écrire, les mots employés comptent de plus en plus.
    Autre point (à notre humble avis): le temps passé sur les pages web baisse de plus en plus car il y a de + en +° de pages et notamment de + en + de pages concernant des sujets d' "actualités", c'est- à-dire des choses ayant un "intérêt" limité et très limité dans le temps. Un "site", c'est à dire un ensemble de pages web se doit de + en + d'avoir ce type de pages sous peine d'être en dehors du "move" des internautes; Dit d'une autre façon via le prisme "google": être dans Google actualités rapporte et rapportera bientôt + de visites que d'être bien positionné dans Google "classique". non ?

  • Eric a dit le

    Si la balise META description ne sert à rien pourquoi webrankinfo ne nous le démontre pas en la supprimant.

  • Olivier Duffez a dit le

    @Entreprises et blogs : c'est pour ça que j'ai consacré une section La valeur du contenu original et de qualité va fortement augmenter.

    @Eric : je t'invite à relire l'article qui fait le point sur les balises meta, tu verras que la meta description ne sert à rien pour le positionnement mais qu'elle peut servir dans certains cas, uniquement pour le petit descriptif dans les résultats. Je le redis encore une fois : il y a beaucoup de choses plus stratégiques à travailler que les balises meta (mais libre à chacun d'y passer encore du temps).

  • Aïe au lit a dit le

    Les métas... beaucoup de clients me fond le reproche qu'elles ne servent à rien... pourtant il m'arrive encore de poistionner des site juste en changeant la title et la description.

    De plus cela permet de maîtriser une variable d'incitation au clic. Olivier à bien précisé, on ne l'abandonne pas, on perds moins de temps dessus...

    2009 : du contenu, du contenu, du contenu.... et du style. On travaille sur un média, jeter un œil aux efforts que font les publicitaires sur les messages en "Print". Nous sommes loin de ces exigences de communication en SEO. Mais aujourd'hui avec le "clic index", la possibilité de qualifier les SERP l'orsque l'on est loggué, Google qualifie son index par analyse de comportement humain. Il faut avoir des messages percutant.

    Contenu, contenu... message... call to action....

  • Oscar a dit le

    Tout à fait d'accord pour la recherche universelle, on n'en est qu'au début.
    Par contre pour les résultats de recherche personnalisés, plus besoin dans un proche avenir de s'abonner à un quelconque service ou de se connecter à un compte de moteur de recherches (voir le point de vue et interviews de Bruce Clay a PubCon : "ranking is dead")

  • romualb a dit le

    2009 : contenu, contenu, contenu....
    comme en 2008, en fait !

  • Didier a dit le

    Je pense qu'il faut garder en tête que le référencement est "un tout" : il faut optimiser chaque recoin de son site et toujours avoir une correspondance entre balises et contenu. Mais il est vrai que la pertinence d'une page se fera de plus en plus par rapport à son texte, sa mise à jour, sa rapidité d'affichage, avis des internautes... Le critère de la qualité du site reste un élément qui reste primordiale à mes yeux. Je suis donc tout à fait d'accord avec Nicolas F. Actuellement, je m'étonne encore de voir des sites "sapins de Noël" bien classés dans les réponses Google alors qu'ils fournissent un contenu médiocre rempli de publicité. De grandes évolutions restent à venir de la part des moteurs...

  • serge esteves a dit le

    je suis pas si certain que la balise meta description ne sert à rien, c'est utile surtout pour les internautes c'est sur, mais également certainement pour une petite part par l'algorithme de google, ne serait que pour voir que si les différentes pages d'un site ont des balises différentes. De plus, si google a déprécié ce type de balises, c'est pour contrer une méthode d'optimisation trop simple pour les référenceurs et meme l'individu lambda. Mais son algorithme évolue, qui sait de quoi sera fait demain, peut etre bien que ces balises seront revalorisées à l'avenir une fois que tout le monde pensera que ca sert effectivement à rien d'optimiser ces balises. Et Comme dit didier, il est important de garder une occurence et une cohérence entre tous les élements d'une page

  • Mute a dit le

    En tout cas, wikipedia ne l'utilise pas la balise meta description si je ne m'abuse.

  • Arnaud Levy a dit le

    Effectivement le référencement évolue très rapidement et il faut pouvoir comprendre les changements pour pouvoir adapater sa stratégie.
    2009 promet dŽêtre intéressant !

  • JerusalemStyle a dit le

    Oui, mais en même temps, Wikipédia n'utilise pas grand chose de SEO, puisqu'il n'en a pas besoin. Il doit avoir un statut particulier dans l'algorithme de Google.

  • patriceAB a dit le

    Google a un problème : il y a de plus en plus de pages sur la toile. 1 trillion selon son dernier comptage.
    Partant de cette problèmatique et de la nécessité de présenter les pages les plus pertinentes en premier, on peut sans hésiter prévoir que le contenu textuel va primer avant tout.
    Bien entendu le travail sur les balises Title et Description reste plus que jamais d'actualité. La popularité du site restera encore pour longtemps LE critère de classement sur un même mot clé.

    La question de base des moteurs de recherche sera plus que jamais : comment trier et classer une masse toujours plus importante de pages? Il est donc logique que les algorithmes s'affinent ....
    ----> à vous de jouer!

  • Paul a dit le

    Hello,

    En effet j'ai put m'apercevoir qu'en changeant la balise meta description je ne remontais pas en ref mais en revanche cela permet de mettre une bonne accroche et rien qu'avec ca j'ai gagné 50V/Jour en plus
    Par contre c'est clair que la balise TITLE est pour moi ce qu'il y a de plus important après le contenu et les échanges de liens.

    A bientôt

  • L&V LOCATION VACANCES a dit le

    Merci pour l'article,

    A en croire de nombreux tests menés en interne, la balise méta description reste un ingrédient à ne pas négliger, même si elle est effectivement moins importante que par le passé.
    Dommage que l’article ne parle pas de l’organisation du contenu, de la sémantique, et de la manière d’interconnecter les pages (architecture du site). La version actuelle de webrankinfo semble est très travaillée sur ces points, ce sont, à mon avis, des notions très importantes à prendre en compte dés à présent pour obtenir une bonne visibilité.

  • Olivier Duffez a dit le

    "la balise méta description reste un ingrédient à ne pas négliger, même si elle est effectivement moins importante que par le passé"
    => c'est dommage de rester aussi flou... On est tous pourtant bien d'accord qu'elle n'agit pas sur le positionnement ? Evidemment il faut la remplir si ça ne prend pas trop de temps, car ça permet (parfois) de maîtriser l'affichage du résumé dans les pages de résultats de recherches.

  • location vacances L&V a dit le

    Voici donc plus d’explications Olivier

    Pour être plus précis, nous pensons que lorsque Google constate une bonne adéquation entre la méta description et le contenu de la page, (dans ce cas il maintient l’affichage du résumé), il peut donc considérer que la page est une page qui mérite d’être mise en avant dans les résultats de recherche.
    En revanche si il y à détection d’une différence entre la balise méta description et le contenu présenté, il peut déprécier la page (c’est outil est exploité a l’affichage dans les résultats de recherche), pourquoi Google ferait il un comparatif « méta contenu » sans l’utiliser dans son indice de confiance.
    N’oublions pas que le but de la manœuvre est finalement de proposer une description en accord avec le contenu de la page pour que les internautes puissent accéder à l’information la plus pertinente.
    Si nous obligeons les moteurs à rectifier les éléments que nous proposons, il semble très étonnant que nous puissions bénéficier d’un indice qualité élevé.
    Bien entendu, négliger les balises méta description sur un petit nombre de pages n’est pas préjudiciable, c’est une question de proportion, suivant la taille de chaque site, mais a hauteur d’un site volumineux, le risque n’est pas a courir.

  • Olivier Duffez a dit le

    OK donc il n'y a pas eu de vérification ou de test... C'est juste une "idée" !
    Pourtant il est facile de prouver que Google ne tient pas compte du contenu de la balise meta description pour le positionnement. Même Google le dit !
    Bonne continuation ;-)

Postez un commentaire !

Les champs marqués du signe * sont obligatoires. L'adresse email ne sera pas affichée.

En postant un commentaire, vous acceptez les CGU du site WebRankInfo.

Catégories des dossiers

Consultez les dossiers par thématiques :

Annonces Google

Formation référencement et webmarketing

Venez chez Ranking Metrics vous former au référencement, à Google AdWords et Analytics ainsi qu'aux réseaux sociaux ! Plus de 4000 entreprises sont déjà venues (Dossier possible OPCA...).

Préparés et animés par Olivier Duffez (WebRankInfo) et Fabien Faceries (AgentWebRanking), 2 professionnels reconnus dans le domaine, nos modules sur le référencement naturel sont très complets tout en laissant une grande place à l'interactivité pour répondre à toutes les questions des participants.

Pour connaître le plan détaillé de chaque module, le prix, les dates et les lieux, consultez le site de Ranking Metrics (organisme de formation).

Hébergement web

Hébergement web mutualisé et dédié

Pour un bon référencement, il faut un bon hébergeur. Testez Sivit by Nerim, l'hébergeur choisi par Olivier Duffez pour son site WebRankInfo.

A partir de 3€ HT/mois.

Annonces Google