Annonces Google

Vous êtes ici : Dossiers référencement > Techniques de référencement

La suroptimisation du référencement naturel combattue par un filtre de Google

Par , le 26 avril 2012

Est-ce simplement une annonce de plus ou bien Google prépare-t-il réellement un filtre de détection des sites "sur-optimisés" d'un point de vue référencement naturel (SEO) ? En tout cas Matt Cutts a laissé échapper quelques infos. MAJ du 26/04 : conseils complétés, et informations mises à jour suite à l'officialisation de ce filtre par Google le 24/04.

Google avait annoncé travailler sur un filtre contre la suroptimisation du référencement

Matt CuttsC'était le 10 mars 2012, au cours d'une conférence SXSW où Matt Cutts (Google) et Duane Forrester (Bing) répondaient aux questions de l'auditoire. Matt Cutts se permet alors d'indiquer que son équipe travaille depuis plusieurs mois sur un projet visant à repérer les sites qui font de la suroptimisation de leur référencement naturel (over optimization or overly SEO). Il pense pouvoir sortir son nouveau filtre (faut-il appeler ça un filtre ?) d'ici quelques semaines ou quelques mois.

Vous pouvez écouter la version audio de cette conférence (l'annonce est vers le 1er tiers) :

Consultez aussi l'enregistrement audio de la déclaration de Matt Cutts.

Depuis cette annonce, les spéculations explosent ! Quelles techniques d'optimisation du SEO deviendraient ainsi "too much" aux yeux de Google ? Les référenceurs ont en ce moment la désagréable impression que Google cherche à les couler définitivement :

D'un autre côté, finalement cette annonce n'apporte rien de nouveau : fondamentalement, Google a toujours dit vouloir mettre en avant les contenus les plus pertinents pour l'internaute. Peu importe que la balise title soit optimisée ou non (retrouvez mes conseils pour la balise title).

Dans la première version de cet article, paru le 19 mars 2012, j'écrivais :

A moins que Google s'attaque enfin au nettoyage des techniques artificielles d'acquisition de backlinks ? Là en effet ça pourrait faire de très gros changements pour les sites qui abusent de backlinks "faciles" et peu naturels.

Et justement je pense que c'est une composante importante (pour ne pas dire majeure) du filtre de Google. D'ailleurs l'actualité qui a suivi a montré que je visais juste (avant même l'officialisation de l'update, voir ci-dessous). La nouvelle pénalité Google pour cause de mauvais backlinks est tellement importante (stratégique) que je l'aborderai dans un prochain article spécifique.

L'annonce officielle du SEO Webspam Update

Cet article avait été écrit initialement en mars 2012. Je l'avais ensuite mis à jour le 24 avril pour affiner les conseils, quelques heures avant que Matt Cutts annonce officiellement la mise en place de cet update. Je vous laisse consulter mon article dédié à cette annonce, mes conseils ci-dessous restant tout à fait applicables.

Comment éviter la pénalité de sur optimisation ?

Je pense qu'il faut s'engager vers une optimisation la plus variée possible, en utilisant toutes les facettes du référencement naturel d'aujourd'hui. Voici mes conseils...

Optimisation technique

Concevez une bonne architecture de site, organisez bien vos contenus, faites en sorte de ne pas changer vos URL sans arrêt (le moins possible d'ailleurs).

Vérifiez les technos utilisées (elles doivent être "compatibles SEO"), assurez-vous de faciliter le crawl et optimisez la vitesse de chargement du site.

Bref, tout ça peut se travailler sans crainte de suroptimisation. Ouf !

Optimisation de l'éditorial

Là il faut faire attention ! Il existe des techniques très efficaces de travail du référencement éditorial, conciliant les contraintes des internautes et des moteurs de recherche. Mais si on bascule dans une sur-optimisation des contenus, ça peut devenir contre-productif : incompréhensible par les internautes et inefficace en positionnement Google ou Bing.

D'après ce que je vois sur le forum ou dans mes formations (et parfois chez mes clients), il y a encore énormément d'idées reçues sur la façon idéale de rédiger pour le référencement. A mon avis le filtre de Google inclut certains critères liés à l'éditorial (je ne parle pas que de fichu indice de densité). Pour plus d'infos, relisez mes conseils de référencement éditorial ou inscrivez-vous au module A2 de ma formation qui traite à fond de ce sujet (prochaine session le 11 mai à Paris).

Optimisation du netlinking

C'est ici que l'algo de Google fait le plus mal ("a fait" pour certains qui sont déjà pénalisés) mais il faut bien avouer que Google avait beaucoup de retard sur le sujet. L'objectif du filtre de Google est ici de repérer les liens artificiels (factices comme ils disent dans les messages envoyés via Google Webmaster Tools).

En gros, il s'agit des liens obtenus uniquement pour booster le référencement. Je reviendrai prochainement en détails sur ce sujet, mais en attendant appliquez à 100% ce conseil : variez vraiment beaucoup les types de liens (j'insiste sur cet aspect depuis bien longtemps dans ce guide). Ou alors posez-vous ces premières questions :

  • est-ce moi qui agis directement pour avoir ces liens ou bien est-ce le webmaster du site qui me fait le lien ?
  • y a-t-il des chances que des internautes aient envie de cliquer sur le lien ?
  • et s'ils le font, vont-ils trouver à coup sûr ce qu'ils s'attendaient à trouver ?
  • ai-je utilisé des techniques qui non seulement sont automatiques mais aussi génèrent des gros volumes de backlinks ?

Les principaux types de liens jugés artificiels par Google : liens achetés bien sûr mais aussi liens issus de sites de CP (communiqués de presse), de digg-like, etc. Google vise ici directement certaines techniques que l'on qualifie de black hat.

Pour plus d'infos, relisez mes conseils sur le netlinking ou inscrivez-vous au module B de ma formation qui traite à fond de ce sujet (prochaine session le 29 juin à Paris).

Optimisation des aspects sociaux

Peut-être que dans certains cas (car ce n'est pas applicable à tous), il faut une reconnaissance sur les réseaux sociaux pour confirmer le SEO traditionnel : c'est l'enjeu du "référencement naturel social".

Conclusion sur ces conseils

Evidemment, celui qui a toujours respecté 100% des consignes de Google n'est pas vraiment concerné : il doit même sortir gagnant de ce filtre. Mais y a-t-il tant de sites qui entrent dans cette catégorie ? Chacun doit donc faire une analyse de son site, avec le plus de recul possible. Le "piège" le plus simple à éviter est celui de l'optimisation éditoriale et le plus dur est celui du netlinking artificiel... Si vous avez besoin de l'aide d'un professionnel du SEO, contactez-moi pour un audit.

D'une certaine façon, si votre référencement est anormalement optimisé sur un aspect et très peu sur les autres, ça pourrait être repéré par Google ? Que pensez-vous de cette idée (développée par le site SEJ) ?

Conseils en vidéos

Regardez également ces 2 vidéos sur le sujet des effets de la suroptimisation du SEO :

Une ancienne vidéo de Matt Cutts (en 2009) :

Les conseils de Rand Fishkin de SEOmoz :

A propos de l'auteur : Olivier Duffez Olivier Duffez sur Google+ Olivier Duffez sur Twitter Olivier Duffez sur Facebook Olivier Duffez sur Pinterest Olivier Duffez sur LinkedIn

Consultant en référencement, Olivier Duffez a travaillé pour les plus grands sites (Doctissimo, FNAC,...). Il édite le site WebRankInfo qu'il a créé en 2002, devenu la + grande communauté francophone sur le SEO (+300.000 membres, 1,5 million de posts). Il est aussi cofondateur de Ranking Metrics, leader des formations webmarketing en France (SEO, AdWords, Analytics, réseaux sociaux) et éditrice de la plateforme MyRankingMetrics (crawler et audit SEO en ligne).

Article (Comment gérer le filtre Google de sur-optimisation du référencement (SEO)) publié par WebRankInfo dans la rubrique Techniques de référencement. Si vous souhaitez publier un extrait de cet article sur votre site, assurez-vous de respecter les conditions générales d'utilisation de WebRankInfo.

79 commentaires

  • Vacances a dit le

    Pour ceux et celles qui désirent se faire une opinion du caractère abusif de certains référenceurs, tapez les mots clés "locations vacances" sur Google.fr. Vous aurez droit à une belle brochette ;-) Des fois je suis sur un site et je me dis "non !? il a osé faire ca ?"
    Vraiment je me réjouis que Google vienne donner un petit coup de balai.

  • lereferenceur a dit le

    Il serait normal que seuls les liens venant d'articles et des réseaux sociaux aient un réel poids.

  • lionel a dit le

    Bonjour,

    Je me demande sur quels critères ils vont fixer les limites. Imaginons qu'une page Web contenant les mêmes mots-clés dans l'"url", la balise "H1" et dans la balise "title" soit pénalisée. Je ne comprendrais pas forcément la démarche puisque vis à vis du lecteur, prospect où client c'est plutôt une visibilité cohérente.

    amicalement

  • Olivier Duffez a dit le

    @Lionel : ça m'étonnerait qu'ils visent ce genre d'optimisation. Il y a 1000 fois plus d'abus dans le netlinking par exemple.

  • Nico a dit le

    Quels sont les sites, autres que Blogspot et Youtube qui vont bénéficier de cette nouvelle mise à jour ? Donc, on s'attends à voir du mouvement d'ici quelques jours...

  • Olivier Duffez a dit le

    @Nico : ça n'a pas l'air d'être pour dans qq jours. Ca nous laisse le temps pour tout sabrer :-)

  • Nico a dit le

    Ah oui « d'ici quelques semaines ou quelques mois »... J'avais lu « d'ici une semaine ».

    Continuons de travailler avec les guidelines de Google. Qui sait... Avec cette amélioration, ça portera peut-être enfin ses fruits...

  • visite panoramique a dit le

    D'après la vidéo du bas, il n'est pas nécessaire de se soucier de notre quantité de nofollow, c'est déjà une bonne chose qui correspond à ce que l'on pensait déjà.
    Par contre, on risque de ressortir le sujet du meilleur indice de densité !

  • Blog Paradiseo a dit le

    Ce que disent de nombreux commentateurs des derniers propos de Matt Cutts (ex Vanessa Fox vient aussi de publier un article), c'est que ces nouvelles pénalités ou filtres pourraient notamment visés les profils de backlincks trop artificiels ex trop d'échanges de liens etc.
    De nombreux filtres et pénalités déclenchés algorithmiquement sont déjà en place depuis un bon moment (évident pour le KW stuffing et probablement aussi pour certains types de profils de liens) mais maintenant les écrans radar de Google pourraient balayer plus loin et analyser encore un peu plus les BL (le point faible historique de l'algo)ou abaisser les seuils de déclenchement des filtres, pour soit disant remettre tous les sites offrant un contenu pertinent sur un même pied d'égalité !?

    PS: Serait intéressant de répertorier tous les types de pénalités Google connus (ex un site positionné dans le top 5 sur la requête "referencement" vient de se prendre une +50 (ou qq. chose y ressemblant) d'après ce que j'ai compris à cause d'un "réseau" de liens un peu trop ... artificiel. J'ai vu aussi sur des requêtes relativement concurrentielles des sites à très faible notoriété (et vraiment très peu de BLs) remonter (du moins pour qq temps, le temps de tester les réactions des utilisateurs ??) en page 1

  • Oobby a dit le

    ho ca fait peur

  • jeux a dit le

    Assez perplexe ce filtre de suroptimisation, à quand la belle époque où il suffisait que des backlinks pour le referencement lol... !

    Quelles sont selon vous les suroptimisations qui peuvent être touchées par ça ? les com blog ? lien forum...?

  • Valbou Photographie a dit le

    Il semblerait effectivement que le linkbaiting soit une cible de choix pour Google. Avec probablement une tolérance réduite (tolérance zéro ?) à la proportion de texte masqué via display:none et autres text-indent:-5000px.
    Si Google fait effectivement une mise à jour de cet ordre ce sera peut-être 20% de changement sur la long tail mais 80% sur la short tail !
    Vivement la mise à jour ^^ peut-être que Google retrouvera sa pertinence sur les requêtes de plus de 7 mots clés en français...

  • Plurimedia a dit le

    D'après mes constatations, tout référencement "non naturel" s'expose déjà à des pénalités de la part de Google.

    La vraie question est : Est-ce que le phénomène va s'amplifier dans les mois qui arrivent ?

    Je pense que c'est une certitude car la stratégie actuelle de Google va plutôt dans le sens de la fermeté ...

  • Last Video a dit le

    En ce moment il ne se passe pas une semaine sans que google promette des changements dans son algo qui visite directement ou indirectement le travil des référenceurs. La chasse aux sorcières est lancées...

  • Drupal a dit le

    Google veut faire disparaître le reférencement naturel ?

  • Olargues a dit le

    @Drupal, Matt Cutts commence par expliquer que dans un monde idéal, on n'aurait pas de coach comme il les appelle pour optimiser le référencement car tous les sites seraient tellement bien fait qu'on n'aurait pas besoin d'optimiser.
    C'est une annonce importante effectivement. Ca va chauffer sérieux sur WRI ! Sur ce que j'ai compris, Matt Cutts insiste sur la moyenne entre une sur-optimisation et une sous-optimisation du référencement, signifiant qu'ils travaillent sur un algorithme identifiant la valeur d’optimisation moyenne et calculant la différence pour une sur ou sous-optimisation. Il a d'abord dit que le filtre sortirait dans quelques mois pour tout de suite corriger en disant dans quelques semaines. La conférence est très intéressante. Alors je vais écouter la suite...

  • immobilier-internet a dit le

    Ça fera pas de mal et laissera une chance aux sites qui sont biens travaillé, mais pas "sur optimisé".
    Google donne vraiment du boulot au référenceurs professionnels et OUT les référenceurs du dimanche.

  • Anémone de mer a dit le

    La suroptimisation du linking pourrait être détectée comme artificielle par une longue période de non-obtention de lien après un acquisition rapide et courte de liens externes de toute nature. Quoique là, on irait à l'encontre des faveurs accordées par GG aux sites, je cite, à contenus ultra-frais : ces sites/pages obtiennent des BL sur une très courte période puis n'en obtiennent plus.

    Mais encore une fois, GG fait des annonces sur le linking à propos du classement dans les serp, ou des arguments techniques, mais toujours rien concernant le contenu et sa qualité. Quand on voit les pages en "ébauche" de wikipedia truster les premières positions avec 3 lignes (inutiles dans 99% des cas) devant d'excellents sites, véritablement informatifs, c'est risible.

    Doit-on vraiment se résigner à faire des pages pauvres mais passer beaucoup de temps sur le linking pour acquérir du traffic?

  • Jean-Michel a dit le

    Bonjour,

    suis-je le seul à trouver que cela devient bien trop compliqué pour le commun des internautes ? Et onéreux ? Quand je pense qu'on parlait à une époque du référencement naturel comme du référencement "gratuit" (par opposition à Adwords et cie pour le référencement payant)...
    Quand on voit aujourd'hui les devis proposés par les agences spécialisées SEO on est pas loin de l'antagonisme !
    Et certains résultats de recherches reflètent selon moi un vrai manque de pertinence et une réelle injustice pour certains annonceurs...

    Jean-Michel

  • Immo-One a dit le

    Cela suit la logique initiée par Panda : la qualité avant tout. Fini la génération automatique de pseudos phrases bourrées de mots clés n'ayant ni queue ni tête. Place à la construction de véritable contenu pertinent et travaillé.

    @Jean-Michel, Certes le référencement naturel est gratuit dans l'absolu. Mais il ne faut pas se leurrer, cela demande certaines analyses et compétences de professionnels. Il y a certainement des abus sur des devis mais globalement, mieux vaut investir sur cette technique au lieu de baser toute sa croissance d'entreprise uniquement sur les Adwords. Au final, les Adwords, si on y goûte trop, deviennent un poste de dépenses considérable.
    Mathieu

  • Bruno a dit le

    Eh ben wikipedia est très mal sur ce coup là !!

  • Olivier Duffez a dit le

    Wikipédia ? Au contraire, car ce site n'optimise pas outre mesure son SEO...

  • belcanto a dit le

    Le SEO a toujours été l'art de ne pas basculer de l'autre côté de la crête des vagues (les surfeurs me comprendront). La position de cette crête varie au grès des courants et des changements d'algorithmes de Google. Il faut garder le pied marin. En clair/ savoir une fois de plus s'adapter en observant, en réfléchissant, en testant, en apprenant et en s'adaptant plutôt que de vouloir bêtement appliquer des recettes vite éculées. Pour ma part, je verrais bien une importance encore plus grande donnée à la cohérence sémantique des contenus d'où sont originaires les liens...

  • Chasseur d’appartement a dit le

    Il semblerait que certaines modifs d'algo aient été déjà mises en place concernant notamment les ancres multiples # .....

  • Véhicule utilitaire a dit le

    Si Google apporte toutes les réponses, les internautes n'auront pas besoin de visiter les autres sites web. Dans ce cas là, les sites web ne pourront plus financer Adwords?

  • Lentilles de couleur a dit le

    Moui, comme d'habitude on peut s'attendre à tout et à rien...

    J'ai une question : je vois ici dans l'article et dans certains commentaires parler de "netlinking artificiel" et d'obtention de liens faciles. Comment d'après vous Google peut détecter ça ? (c'est une vraie question).

    Car d'un côté l'algo a évolué et peut détecter notre profil de liens, la vitesse d'acquisition, les périodes de creux et bien d'autres choses certes mais les pratiques de "netlinking artificiel" ont évolué également. On ne se fait plus 1000 backlinks/jour pendant 1 mois et basta, on fait ça "naturellement". On peut obtenir des liens follow/nofollow, des liens de mauvaise et bonne qualité, des liens de différentes plateformes/sources. Comment l'algo peut vraiment faire la différence à ce niveau ? C'est bien la question que je me pose.

  • Vos réponses a dit le

    Les filtres Google sont pour moi toujours une bonne nouvelle ! Le jour où un site ne pourra ranker qu'en ayant un contenu intéressant, propre, un profil de visites qualitatifs, avec un taux de rebond faible, un temps de visites long, des liens de qualité etc... Ce jour là, ça ne voudra pas dire qu'on ne fera plus appel à nous, ça voudra dire au contraire que le métier de référenceur sera encore plus pointu et intéressant !

  • lolo38340 a dit le

    on se demande comment cela va finir !!! car pour les petit e-commerce cela est très déroutant.

  • Siti Palermo a dit le

    Une fois de plus GG se joue des effets d'annonces car concrètement cela ne veut rien dire !

  • Yorik a dit le

    En tout les cas récemment j'ai vu une énorme différence sur mon mot clé principale (forex), des sites sur-optimisé au niveau du backlinck mais ayant un contenu minable se sont fait jeter de la première page (ce qui m'a permis d'y apparaitre :D).

    Pour moi cela concerne donc principalement l'acquisition de backlink, qui est devenu tellement bête et méchant que la qualité du site ne rentre plus tellement en compte dans certain cas (enfin depuis samedi la page 1 est nettoyé de ce genre de sites).

    J'ai en tête un exemple assez parlant (forexland.net) qui en moins de deux mois était passé d'inexistant à la troisième place en passant même devant wikipédia alors que le contenu ne valait rien. Et là il a disparue d'abord quelques jours, puis est revenu, puis a disparue encore une fois, et jusqu’à présent complétement.

    Ce site avait un nombre de BL vraiment impressionnant par rapport aux autres sites du mot clé.

    En tout les cas cela n'est pas un mal à mon gout !

  • Drupal a dit le

    J'ai eu de nombreux résultats positifs aujourd'hui sur tous les sites de mes clients, la MAJ a t-elle été effective ?

    En tout cas chez moi j'ai une progression sur environ 30% de mes expressions, j'ai ouvert un sujet sur le forum pour en discuter : http://forum.webrankinfo.com/maj-google-dans-nuit-t152898.html n'hésitez pas à y mettre votre retour

  • serishirts a dit le

    Oubliez pas que google c'est une société qui est là pour faire de l'argent, donc toutes les techniques de SEO sont pour eux plus ou moins artificielles.
    Ce que google veux c est qu'un site qui est en 1ere position se doit d'etre populaire point barre, pour pouvoir faire raquer les autres un max.
    Avec le seo ont peu etre bien placer sans payer les pubs google et ca ils aiment pas et c est surement pas pour rendre le net plus propre ^^.
    Juste une question de thune et vu leurs moyens ils peuvent y arriver.
    C'est flippant quand même...

  • Lesannuaires a dit le

    Le problème des ces punitions appliquées sans contrôle se situe au niveau de ce qu'on pourrait appeler les dégâts collatéraux .. Il y a trop de sites qui disparaissent du jour au lendemain de leur requête principal sans aucune raison valable. Il suffit de regarder la requête sur le mot "annuaire" pour voir que la plupart des répertoires de qualité ont été envoyés au delà de la 40em page ... Et le plus remarquable, c'est que Bing sur une requête aussi polluée s'en tire bien mieux que Google ...

  • Olivier Duffez a dit le

    Et ces sites n'ont-ils pas suroptimisé leur netlinking sur cette requête ?

  • Chasseur immobilier a dit le

    Oui je vais finir par l'aimer ce Bing, car c'est exactement ce qui se passe en ce moment, des pages filtrées pour je ne sais quelle raison par Google sortent "normalement" sur Bing...

  • Olivier Duffez a dit le

    Je te vois sans arrêt faire des liens dont l'anchor text est "Chasseur immobilier", c'est tout sauf naturel !

  • Chasseur immobilier a dit le

    Effectivement car c'est mon métier et mon expression clé je ne vois pas pourquoi je procéderais différemment, est ce bien plus "naturel" de varier les ancres pour travailler sur la longue traîne ?.....

  • Olivier Duffez a dit le

    @Chasseur : parce que tu pars du principe que tes backlinks c'est toi qui les fais. Mais justement, les liens naturels, ceux que Google incite à créer en tout cas, ne sont pas forcément créés par le propriétaire du site qui les reçoit. Dans ton cas, surtout pour des liens vers la home, il devrait y en avoir une très grande partie qui utilise ta marque ou des variations de ta marque.

  • chambre d’hotes Jolivet a dit le

    Ah non, il y a aussi chasseur d'appartement !!! ;-)
    Moi je suis pas certain que Olivier Duffez fasse plus naturel...;-)

  • Olivier Duffez a dit le

    @chambre d'hotes : mettre mon prénom et mon nom dans le champ auteur d'un commentaire, je ne vois pas bien ce qu'il y a de plus naturel !!!

  • Lesannuaires a dit le

    @Olivier Duffez. Je ne sais si tous ces sites ont abusé du netlinking, mais pour certains ce n'est pas le cas. En fait, j'ai l'impression que l'important pour Google est surtout de faire passer le message qu'il a du pouvoir... Mais les méthodes punitives sont souvent un aveu d'impuissance et sources d'injustices...

    Pourtant Google a les moyens de positionner un résultat en fonction de son contenu, son originalité, etc ... sans attacher trop d'importance au linkage. Alors pourquoi, punir aussi sévèrement, alors qu'il serait bien plus logique de simplement ignorer le poids des liens à partir d'un certain seuil, quand ceux-ci semblent un peu trop artificiels .. ? Des liens d'ailleurs dont personne ne peut contrôler l'origine... Je pense par exemple au vieux sites, comme mon annuaire pour qui WMT annonce 145,359 links alors que j'ai du en échanger 5 ou 6... Donc une punition injuste qui s'est encore accentuée avec Panda.

  • Olivier Duffez a dit le

    @Lesannuaires : moi non plus je ne sais pas s'il y a eu des abus de netlinking, mais c'est ce que je suppose pour expliquer ce que tu nous indiques (des pénalités sur cette requête). Il est clair que Google pourrait simplement ignorer les liens factices, mais en effet l'objectif est (entre autres) de faire peur pour que l'usage de techniques artificielles de netlinking diminue.

  • Jean a dit le

    Le grand problème avec le filtre de liens artificielles c'est qu'il ouvre la porte à de nouveaux techniques Nseo.

    un échantillon ce poste sur trafficplanet http://trafficplanet.com/topic/2369-case-study-negative-seo-results/
    ou des blackhat en profite de ce nouveau filtre pour donner une raclette aux concurrents !

  • Olivier Duffez a dit le

    En effet Jean, c'est un sujet de discussion important, que je compte aborder dans mon prochain article.

  • Chasseur immobilier a dit le

    @Olivier :
    Bien sur que les liens c'est moi qui les fais, je n'ai pas encore la notoriété suffisante pour engendrer de nombreux articles spontanés, excepté récemment dans le Journal du net et la Vie Immo, mais ça viendra, en attendant c'est le seul moyen...
    C'est une question de temps, par la suite, comme toi, je pourrais me permettre de renseigner ma marque en pseudo et même en tête de ma balise Title.

  • Octavius a dit le

    Qu'est ce que c'est une technologie "SEO compatible" ? Vous faites référence aux normes W3C ?

  • Olivier Duffez a dit le

    Non pas au W3C mais à l'état actuel des capacités des moteurs à crawler et indexer les contenus.

  • olivier a dit le

    Moi, je fais comme Olivier, j'utilise mon prénom pour ancre (et même celui des autres!)

    Pénalisé fortement ce matin, je recherche de l'info et je trouve quoi : Google veut faire peur. C'est gagné ! Mais qui y gagne ? Je ne comprends pas cette logique dans ce domaine comme dans tout domaine (la paire de baffes est une erreur, toujours).

  • Octavius a dit le

    "L'état actuel des capacités des moteurs" ? Vous parlez de l'algorithme ? Je n'arrive pas bien à comprendre ce que vous entendez par "SEO compatible"... Un site c'est du code. Le seul moyen de ne pas être "SEO compatible" serait de ne pas coder en HTML, PHP, CSS, Javascript. Mais auquel cas vous entrez dans des langages de traitement... Et ça ne s'affiche pas dans un navigateur, un langage de traitement.

  • Olivier Duffez a dit le

    Par exemple Javascript peut être en frein - ou pas, selon les scripts et les moteurs.
    Idem pour AJAX, les sessions, etc.

  • FinanceAZ a dit le

    Salut Olivier, ton article est très intéressant, tout autant que la vidéo présentée par Rand Fishkin de chez SEOMoz. Depuis plusieurs mois je fais justement attention à différents points soulevés dans sa présentation. C'est notamment le cas des échanges de BL directs, ou encore des liens depuis des plateformes de mauvaise qualité.

  • Dominique Levesque a dit le

    Lors de la formation que j'ai suivi avec Olivier en décembre, tu avais suggéré de, lorsque que cela s'y prête, scinder un site en plusieurs sous-domaines pour optimiser le référencement, tout en utilisant une redirection 301 pour les pages actuelles. Ce que je m’apprête à faire, gagnant ainsi plusieurs milliers de liens en une seule opération.
    J'hésitais à le faire, mon site étant déjà un sous domaine.
    La lecture de cet article m'en dissuade : il me semble jouer à l'apprenti sorcier et que le remède pourrait se révéler pire que le mal.
    Que faut-il en penser maintenant ?

  • Olivier Duffez a dit le

    Non Dominique, je n'ai pas dit que scinder en plusieurs sous-domaines pouvait optimiser le référencement. En tout cas ce n'est pas une "technique" ou une "astuce".
    Je ne sais pas dans quel cadre on en avait parlé avec toi, peut-être dans le module sur Panda ? Dans ce cas on peut scinder son site en sous-domaines à condition de s'assurer de bien séparer le bon grain de l'ivraie. Sinon ça ne sert strictement à rien.

  • Dominique Levesque a dit le

    Oups, merci beaucoup. J'ai l'impression qu'une séance de rattrapage sera nécessaire !

  • Octavius a dit le

    Mais le javascript ne fournis pas d'informations particulières sur le contenu à indexer, il s'agit essentiellement d'un codage descriptif et "esthétique", donc peu utile pour le référencement. Quand à l'AJAX, c'est juste un concept qui agence plusieurs langages... Donc le javascript. Mais ok pour les sections. On peut en fait dire que Google considère les formats génériques des sites, sans transformation lié à l'intervention humaine (bref, sans input)...

  • Soul a dit le

    La maj de hier est quand même assez violente, pas mal de sites propres ont été tout simplement virer et des sites mois propre rank bien, je trouve que ce n'est pas du tout une réussite. Et aucun lien que vous faite est naturel...

  • MasterImpact a dit le

    oui, ce qui c'est passé hier pour moi c'est le désordre, aucune logique derrière, on voit des sites bien linkés et naturellement se dégrader alors que des sites qui n'ont rien à voir avec tt ces conseils de ref prennent les premières positions..alors on croisent les bras les référenceurs!!

  • Emmanuel a dit le

    Comme beaucoup d'entre vous j'ai abusé de CP. La question que je me pose est est-ce que cela maintenant une négative SEO ou tout simplement annihile les effets antérieurs offerts par les CP ?

    Concrètement pour les sites qui ont plongé, faut-il essayer de les récupérer par des CP ou justement éviter.

  • Tonton ref a dit le

    Ne crions pas à la mort du référenceur, plus les updates seront stricts, plus notre travail sera ample. Notre métier évoluera, comme toujours et c'est ça qui le rend si passionnant. Avec tous ces filtres justement, qui pourra encore se passer d'un conseiller en visibilité Web ?

  • fredodo13 a dit le

    Bonjour à tous,
    Marre des états d’âme de google et de ses changements d’algorithme tous les mois, google est devenu trop puissant.
    Je pense que le blackhat peut-être considéré comme une technique comme une autre et à porter de tous après tout....

    Pour ma part et heureusement pour moi, mon site est toujours 1er sur ma requette par contre mes concurrents que j'estimé très bien fait ont dégringolé pour avoir à la place un article de wikipedia (je vois pas l'interêt!).

    @Oliver, alors désormais il faut varier les ancres finalement ? à moins que que l'ancre correspond au nom de domaine du site après tout qu'est ce qu'il a plus de naturel ?
    Ou limite il faut faire un gros popup à l'entrée de nos sites avec marqué : "plz ne faites pas de lien vers mon site!!".
    Apres tu parles de mettre un lien avec ton nom et tu dis que c'est naturel... oui ok mais avec 10 liens vers WRI avec la même ancre et sur la même page c'est plus trop naturel!

    Bonne journée

  • Olivier Duffez a dit le

    @fredodo13 : tu écris

    @Oliver, alors désormais il faut varier les ancres finalement ?

    c'est peut-être de l'humour ? Car ça fait des années qu'on conseille de varier les ancres, relis mon tutoriel du netlinking qui insiste énormément sur l'impératif de tout faire varier.

  • Florian a dit le

    Je blogue sous WordPress et je suis conscient d'avoir sur-optimisé mon site avec des backlinks et des contenus enchiris en mots-clés pour obtenir un bon positionnement dans les résultats de recherches sur un nombre important de requête et j'en paye le pris fort depuis la mise en place de ce nouveau filtre par Google.

    Je me retrouve depuis peu derrière certains sites qui sont mal rédigés, mal structurés, peu présentables et qui ont peu de backlinks (quelques échanges de liens croisés uniquement). Ma home a perdue quelques places sur certaines requêtes très importantes à mon activité. Certains de mes articles se retrouvent complémentement perdus dans la masse des résultats et ne sont plus accessibles par l'utilisateur. Devant mes articles, se retrouvent des résultats qui sont tout à fait inutiles à l'internaute vis à vis de la requête effectuée. Certains de mes /tag/ se retrouvent devant mes articles, alors que ces pages ne contiennent aucun contenu. Comment pouvons nous considérer que Google mets tout en oeuvre pour proposer radicalement à l'utilisateur l'information qu'il recherche ?

    Pour remédier à ce problème, dans un premier temps je pense alléger mes contenus de certains de mots clés répétés pour que la rédaction soit la plus naturelle possible.

    Est-ce une bonne idée ?

    Dans un second temps, quand je m'aperçois que certains sites sont passés devant moi et qu'ils n'ont aucun backlink et un PR 0, pensez vous qu'il faut que je modifie mes URL afin que ces liens n'existent plus ?

  • web agency a dit le

    Belles paroles "tonton ref", entre-temps qui explique à son client le fait d'avoir perdu la moitié de ses visites ... alors que le site ne fait usage d'aucune sur-optimisation ? Les effets de bords de Google sont terribles dans ce cas, et la lenteur de réaction de Google est désastreuse.

  • Muriel a dit le

    Google valorisera de plus en plus les contenus utiles aux internautes. Optimiser le référencement pour Google, fournir les bonnes informations et une expérience utilisateur agréable à l'internaute ne semblent pas incompatibles. L'internaute n'est pas une contrainte, il est le véritable public d'un site.

  • Judicael a dit le

    Bonsoir à tous,

    Qu'en est des commentaires sur les blogs. Cela pourrait il pénaliser le blog ou le commentateur ?

    Merci de vos avis.

    Salutations

  • Olivier Duffez a dit le

    Comme toujours il faut modérer les commentaires et dans ce cas je ne vois pas de problème. Vous pensiez à quels problèmes pour le blog et/ou le commentateur ?

  • CA-Booster a dit le

    @ web agency : Aujourd'hui, il faut expliquer au client pourquoi son site a perdu des visites...
    Demain, il faudra lui expliquer pourquoi le coût par visite via le référencement naturel est aussi cher qu'en payant, et avec moins de garanties. Parce que c'est bien joli de rendre le métier du SEO "passionnant" mais le temps de recherche et de retouches et linking "à la mano", c'est le client qui le paie. Et lui, il n'est pas prêt à payer plus cher que son CPC moyen...
    Voici donc la stratégie de Google: rendre le SEO moins concurrentiel par rapport à AddWord.

  • web agency a dit le

    Oui, je crois malheureusement bien qu'il y a du vrai dans ton analyse. Déjà, sur analytics les clients ne comprennent plus pour quelle raison absurde les keywords ne sont plus présentes et de se retrouver avec des pourcentages très élevés de "not set" ou "not provided" ... GG doit bien avoir quelques idées derrière la tête pour revendre ce service dans un futur proche (je tombe dans le HS, veuillez m'en excuser !).

  • Iceranking a dit le

    Le nouvel algorithme a causé de gros dégâts sur des sites avec plusieurs sous-domaines. Est-ce que vous pensez que les sous-domaines ont été pénalisés avec Penguin ?

  • Olivier Duffez a dit le

    @Iceranking : je n'ai pas vu de corrélation forte entre la présence de sous-domaines et la pénalité Penguin. Si un site avec des sous-domaines s'est fait pénaliser, n'est-ce pas parce qu'il a utilisé de nombreux sous-domaines dans l'optique d'une optimisation du référencement avant tout ?
    Peut-être qu'en donnant des exemples on pourrait aller plus loin dans l'analyse ?

  • Annuaire Français a dit le

    Pour info, je n'ai eu aucune sanction avec les sous-domaines, même un leger UP avec pinguen.
    Ce n'est pas forcément représentatif car il me semble que j'ai des sanctions légères et un trafic en dessous de la normale. Probablement le dépassement des 100 liens par pages auquel je vais remédier.
    Mais en tout cas, pas de sanction sur le passage de l'animal à ce jour...

  • Olivier Duffez a dit le

    Google n'est pas contre les pages qui font plus de 100 liens...

  • Agence web id meneo a dit le

    J'ai coutume de dire que ceux qui réussissent dans la vie ce ne sont ni les gens les plus beaux ni les gens les plus intelligents mais les plus malins.
    Il va falloir devenir de plus en plus malin pour naviguer avec Google et ça, ce n'est même plus une question d'investissement...

  • ClaireG a dit le

    Merci pour cet article et les vidéos partagées !
    Depuis ce matin je me promène sur votre site et sur vos articles Olivier et j'en apprends toujours plus dans ma manière d'optimiser mon référencement et de corriger mes erreurs ! Je suis toute jeune embauchée dans une agence de communication après un long stage et j'ai appris par moi-même les techniques d'une stratégie web de référencement pour répondre à une stratégie proposée à un client.
    Merci pour tout !

  • Trouvannonces a dit le

    Bonjour,

    Il est clair que les concurrents ne sont pas toujours des sites de la thématique envers les mots clés recherchés par l'internaute, il y a encore ici, des abus de spam, soyons le plus naturel possible pour ressortir au mieux, et que la mise à jour de pingouin puisse faire un peu de bien aux sites internet qui ne font pas de spam..

  • Rémi a dit le

    La fin du métier de référenceur ? Peut-être pas !
    Un gros chamboulement ? peut-être !
    Un web plus homogène et pertinent ? Surement !

  • Detectimmobilier a dit le

    Au vu des résultats, la pertinence n'est surement pas de mise, on trouve en 1ère page :
    plusieurs pages d'un même site,
    des descriptions 3 ou 4 fois dupliquées,
    des sites en sommeil
    des annuaires qui ne prennent pas d'inscription
    ......
    j'en passe et des meilleures.....

  • Hafid a dit le

    C'est abusé ce que l'on trouve parfois sur les premières pages de google en tapant un mot clé. Dans beaucoup de cas les sites ne correspondent pas du tout à la recherche de l'internaute. Il faut aller en 3 ou 4ème page pour enfin trouver un site en rapport avec le mot clé.

  • john a dit le

    C'est abusé ce que l'on trouve parfois sur les premières pages de google en tapant un mot clé. Dans beaucoup de cas les sites ne correspondent pas du tout à la recherche de l'internaute. Il faut aller en 3 ou 4ème page pour enfin trouver un site en rapport avec le mot clé.

Postez un commentaire !

Les champs marqués du signe * sont obligatoires. L'adresse email ne sera pas affichée.

En postant un commentaire, vous acceptez les CGU du site WebRankInfo.

Annonces Google

Catégories des dossiers

Consultez les dossiers par thématiques :

Annonces Google

Formation référencement et webmarketing

Venez chez Ranking Metrics vous former au référencement, à Google AdWords et Analytics ainsi qu'aux réseaux sociaux ! Plus de 4000 entreprises sont déjà venues (Dossier possible OPCA, DIF...).

Préparés et animés par Olivier Duffez (WebRankInfo) et Fabien Faceries (AgentWebRanking), 2 professionnels reconnus dans le domaine, nos modules sur le référencement naturel sont très complets tout en laissant une grande place à l'interactivité pour répondre à toutes les questions des participants.

Pour connaître le plan détaillé de chaque module, le prix, les dates et les lieux, consultez le site de Ranking Metrics (organisme de formation).

Hébergement web

Hébergement web mutualisé et dédié

Pour un bon référencement, il faut un bon hébergeur. Testez Sivit by Nerim, l'hébergeur choisi par Olivier Duffez pour son site WebRankInfo.

A partir de 3€ HT/mois.