Utilisation d'un service... 1700€ plus tard inquiétude...

WRInaute discret
Bonjour,

PETIT RAPPEL HISTORIQUE

Je fais du référencement depuis, ouf..

Sans être l'expert des experts, j'ai quand un peu l'habitude statistique de ce qui marche ou pas. Bref, pour la rentabilité je travaillais essentiellement sur des annuaires de qualité, un réseau de site que je gère, un très gros investissement onsite et ça suffit pour 80% des cas vu que je travaille avec soit des niches soit des petits entrepreneurs locaux et c'est tout à fait durable.

Dans les 20% restants, souvent des PME, il y a déjà des liens et on peut travailler sur leur réseau assez facilement.

Pour mes projets personnels et en entreprise bien sûr je vais du content marketing, du rich snippet, du cocon sémantique, du réseau social, des partenariats, du réel, de la presse.. c'est pas faute de ne pas savoir (et dans ce domaine j'ai aussi une grande expérience que je ne vend qu'à une minorité de PME vraiment intéressée).

LA SOLUTION QUE J'AI CHOISI EN TEST POUR 3 DOMAINES QUI PEINENT

Donc pour 20% de projets qui peinent bien qu'étant souvent arrivé en bas de première page, j'ai décidé d'investir dans un service qui propose de créer des liens, un test sur trois domaines dont un m'appartenant, un copain et un client pour test stabilisé depuis des mois en position 9/11

J'ai investi 1700€ les liens ont été créé sur la deuxième quinzaine de juin (ça fait court je sais pour un retour).

J'ai choisi le mode campagne de l'entreprise je n'ai pas fait des demandes à l'arrache pour que cela soit naturel.

RÉSULTAT AU BOUT D'1 MOIS APRÈS MIS EN LIGNE PREMIERS LIENS

Résultat : à mon grand étonnemment, notamment parce qu'un seul lien aurait du suffir (vu que malgré tout, mes liens à moins bien que fonctionnant sont quand même pas en or...) aucun résultat sur MyPoseo sur les mots clés (niveau 1 et 2). Sur mon site à moi, avec 4 liens de "qualité", rien. Idem sur les 3 liens du copain, et le super lien du client.

Il faut savoir que j'ai été très déçu des sites qu'ils ont proposé : malgré le fait qu'ils ont de bons score SEO (Majestic), ce sont tous des sites de domaines rachetés pour les faire revivre (en gros que des articles, pas de mentions, conservation des bons backlinks qu'ils avaient et conservation de la catégorie d'information pour les articles)

L'entreprise me dit : il faut attendre 6 mois.

Sérieusement : en deux mois je fais décoller des sites avec de l'annuaire, et ils me disent qu'avec leurs liens de qualité je dois payer autour de 300€ par projet pendant 6 mois pour avoir des résultats ?????

J'ai l'impression un peu de me faire enf... si vous voyez ce que je veux dire...

Il faut savoir que quand ils ont vu les sites que je leur ai proposé, ils ont compris qu'il n'y avait pas de soucis point de vue qualité...

MES QUESTIONS

Qu'en pensez-vous ?

- Est-ce que je n'ai pas été patient et qu'il faut attendre 2/3 mois que Google digère ces nouveaux liens qui peuvent lui paraître étonnant dans le référencement actuel ?
- Est ce que je dois abandonner leur mode campagne et choisir uniquement les liens les plus cher ?
- Refuser qu'ils choisissent des sites de noms de domaines rachetés ?
- Arrêter bien qu'il soit reconnu comme leader du secteur ?
- Penser que Google à blacklisté (à la main) les sites surlesquels je suis référencé (des petits sites, ça me paraîtrait bien étonnant alors qu'ils laissent des annuaires pourris depuis 15 ans...)


Car vous comprendrez que je n'ai pas envie d'aller jusqu'à 3000€ pour comprendre que ça marche pas !

Ce qui m'a poussé à m'y inscrire (bien que connaissant ces services depuis longtemps) :
  1. Un article d'une collègue sur Nantes ;°)
  2. Le directeur d'un service très connu (concurrent Majestic) qui disait que oui ça marche et que c'est redoutable
  3. L'absence d'articles contradictoires sur le sujets : ce qui m'a fait penser à deux possibilités voir plus bas (ça marche vraiment ou dégainage d'avocat à chaque critique)

Sûrement certains d'entres vous ont des expériences avec ce type de prestataire, ce serait sympa de me donner votre avis.

Je vais partir en Vacances pendant une semaine, donc je ne vais pas pouvoir vous répondre (pas de connexion, pas d'internet sur le téléphone, c'est un choix pour un mot qui n'existe plus en 2019 mais qu'on appelai le technostress en 2006).

Mais retrouver des conversations sur ce sujet serait bienvenue. Il faut savoir que j'ai évité de citer le service, vu que je l'ai vu nulle part à mon grand étonnement je me suis dit : soit c'est un secret bien gardé et ça marche, soit ils ont un très bon avocat pour faire taire les dissidents (et là ça crains... car ils ont plutôt l'air sympa y compris le directeur que j'ai eu au téléphone). Donc je ne nommerai pas le service mais comme vous le savez il y en a plusieurs.

PS: Ceux qui veulent me répondre pour me donner leur avis que ça sert à rien et qu'il faut du naturel, sans avoir d'expérience sur ce type de service, sérieusement, épargnez-moi ça et aux lecteur du fil... à ce titre si on écoutait Google on travaillerai tous gratuitement pour eux !
 
Dernière édition:
Olivier Duffez (admin)
Membre du personnel
Donc la seule chose qu'on sache de ce que tu as fait, c'est "un service qui propose de créer des liens". On n'en saura pas plus pour des raisons de confidentialité je suppose (ça peut se comprendre). A part qu'il s'agit d'expirés sur lesquels des articles ont été publiés, afin de vendre des liens. Pas de mentions légales. Bref, ont-ils vraiment un intérêt ces sites ? (je parle pour les internautes, petite précision !)

Donc c'est pas évident de te répondre.

Tu sais bien qu'il y a toutes sortes de liens, et certains ne valent strictement rien (car le site est trop pourri) ou sont repérés par Google (et n'ont donc aucun effet).

Plutôt que de vérifier l'impact sur quelques requêtes, pourquoi ne regardes-tu pas d'autres indicateurs pour la page qui reçoit les liens tels que :
- le nb d'impressions dans GSC
- le nb de clics dans GSC
- le nb de requêtes différentes sur lesquelles la page se positionne (via GSC)
- le trafic envoyé par le lien

As-tu vérifié à partir de quel jour Google a indexé la page avec le lien ?

Sinon quand tu parles des "annuaires de qualité", c'était quand cette stratégie ? En 2019 j'ai du mal à croire à leur réelle efficacité. Je n'ai pas l'impression d'être le seul.

Voilà quelques réactions, en attendant celles des autres du forum
 
WRInaute accro
Peut-être que ce système marchait bien mais ne marche plus.

Ca se rapproche un peu de mon post d'hier soir où je me demande un peu ce qu'il reste comme critères à google autre que l'authoring et l'autorité du domaine car quand on fait de gros efforts sur l'ux et les performances il n'y a strictement aucun résultat.

Jusque là j'étais toujours un inconditionnel de Google et un fervent défenseur. Jamais je n'avais été sanctionné par ses mises à jours et si parfois j'ai eu un ou deux sites qui ne décollaient pas j'arrivais toujours à trouver une raison logique à cela et ça s'expliquait. C'est moi qui avais tort et non google.

Mais en mars 2018 j'ai été touché par la mise à jour qui m'a fait perdre 50% du trafic. Les requêtes principales étaient toujours bien positionnées mais la longue traine avait disparu (ça sert de regarder les requêtes différentes chaque jour qui mènent vers le site). Mon nombre de requêtes différentes avait été divisé par deux du jour au lendemain.

Puis en août tout est revenu à la normale. J'ai alors pensé à deux solutions possibles :
- google a corrigé sa mise à jour de mars
- et/ou google a fait un retour arrière sur tout ou une partie de sa mise à jour de mars 2018 (peut-être le temps d'en corriger les défauts et de la remettre)

Cette année, toujours en mars, j'ai été retouché de plein fouet par la mise à jour. De nouveau perte de 50% du trafic mais cette fois même les requêtes principales ont été touchées et pas uniquement la longue traine. C'est général. Ce que j'en pense c'est que c'était donc bien un retour arrière en août, le temps de corriger les défauts de la bête, avant de la renvoyer dans l'arène.

Comme les choses se passent actuellement je crois de moins en moins à un rétablissement lors de la prochaine mise à jour (en août ou plus tard). Tous les efforts que je fais sont vains. J'ai l'impression que pour avoir du trafic il faut s'appeler wikipedia, amazon, google, apple, être un grand média d'information ou un grand vendeur sur le web. Qu'il faut avoir de la notoriété reconnue depuis longtemps, même si le site n'a plus trop été maintenu depuis 5 ans, la notoriété du passé joue en votre faveur. On voit remonter des sites qu'on avait presque oublié depuis 10 ans, certains ne sont même pas responsives.

Je crois tout simplement que google a introduit un ver dans le fruit, quelque chose qui s'appelle l'IA.
Ils font leurs tests en se basant sur des requêtes populaires et ça marche bien pour ces requêtes. Mais ils ont simplement oublié de faire des tests sur les sites de niche et ça ne fonctionne pas du tout dès qu'on s'écarte des requêtes populaires.

Leur IA n'accorde presque plus d'importance au contenu et préfère mettre en avant l'autorité du site. C'est pour cela qu'on retrouve en première position des pages de wikipedia qui contiennent 2 lignes effectives et absolument rien de plus. Mais c'est le domaine qui est réputé alors on accorde énormément de crédit à ses pages, quel que soit le contenu.

Les solutions je les cherches. Obtenir une énorme quantité de liens (ça ne va pas faire naturel), augmenter sévèrement le nombre de publications pour miser sur la quantité plutôt que sur la qualité (la moindre qualité risque de plomber le site). Apparemment, avec ton expérience, obtenir quelques bons liens ne sert plus à rien. Miser sur les réseaux sociaux.... pourquoi pas. Mais c'est un travail à part entière alors que dans l'ancien google on travaillait sur notre contenu et google s'occupait du reste.

Webrankinfo est mal placé pour se rendre compte de ce qui est en train de se passer car webrankinfo traine derrière lui une énorme réputation et n'est donc pas affecté par ces changements commencés en mars 2018. Tous les gens qui ont un lourd passé avec des sites vivants depuis près de 20 ans n'ont rien vu venir non plus. C'est souvent les webmasters qui réalisent des sites pour leurs clients qui s'en rendent compte, ou les nouveaux venus sur la toile avec un nouveau site qui ne décolle pas alors qu'ils appliquent à la lettre toutes les recommandations de Google.

Je ne sais plus quel crédit accorder à ces recommandations, ces Guidelines, qui semblent à présent totalement désuètes.
 
Olivier Duffez (admin)
Membre du personnel
Webrankinfo est mal placé
je n'ai pas qu'un seul site ;-) j'étudie aussi les cas de clients ;-) et je peux même prendre du recul...

mais c'est clair que les choses évoluent avec Google et que tout n'est pas comparable à avant, même y'a pas très longtemps
 
WRInaute occasionnel
Il est possible que Google dans un avenir proche (ca à p-e déjà commencé) donne moins de poids aux liens externes (liens à partir d'un site indexé hors réseaux sociaux).

Avec l'utilisation croissante des mobiles (portables et tablettes) on fait de moins en moins de liens de façon naturelle (site à site) et de plus en plus de partages vers les réseaux sociaux.

Est-ce que quelqu'un ici a déjà fait un lien d'une page qu'il a trouvé intéressante sur un autre site à partir de son mobile ?

Techniquement parlant c'est pas si évident non ? C'est plus simple et plus rapide de cliquer sur un bouton de partage Facebook ou Twitter. Dans les années 2000 on faisait facilement des liens sur ordi; on mettait des liens sur des forums, blogs, etc ... On était un peu geek, c'était une autre époque ... Mais Google tenait compte de se comportement c'est d'ailleurs ce qui a fait son succès (pagerank). Aujourd'hui même sur ordi on a surtout tendance à cliquer sur un bouton de partage FB/TT.

Donc le poids dans le SEO de ces partages devraient augmenter à l'avenir au détriment du poids des liens site à site... C'est un peu comme ça que je vois les choses.

De plus Google devrait chercher à contrer les PBN... Le meilleur moyen c'est de donner moins de poids aux liens venant de sites surtout ceux qui n'ont pas de mentions légales, récents, réactivés avec des articles peu partagés et consultés, ...

Miser une grosse partie de son budget SEO dans l'achat de liens de ce type me parait "risqué" pour une stratégie long terme au delà du fait que c'est interdit par Google :).

Après je suis p-e complètement à coté de plaque :)

En attendant les liens externes on encore un gros poids dans l'algo de Google. Enfin certains comme le dit WRI ^^

A la place d'auteur du topic j'attendrai un peu de voir (1 mois c'est court en référencement) les résultats et j'utiliserai la GSC comme le suggère WRI.

Il faut aussi savoir si le domaine est récent et si les 8 liens (c'est bien ça ?) ont été fait dans un délais très court ?
 
Dernière édition:
Olivier Duffez (admin)
Membre du personnel
ah ok, je pensais qu'en écrivant "Webrankinfo est mal placé pour se rendre compte de ce qui est en train de se passer", tu faisais référence à une personne (moi). Un site a du mal à "se rendre compte" ;-)

je peux te dire que la notoriété "du passé" ne suffit pas toujours. J'ai en tête un gros site de plus de 15 ans, assez connu, qui souffre des derniers updates en raison de manques de qualité on-site. Le off-site ne le sauve pas.

@Nicolas : bien d'accord avec toi qu'il y a moins de lien créés, mais le mobile n'a fait que l'amplifier. Ce qui a bcp changé c'est l'arrivée des réseaux sociaux (à l'époque on avait des blogs).
Le pb est qu'il y a trop de "bruit" dans les signaux liés aux partages sur les RS, si bien que ce n'est pas forcément exploitable par Google. C'est d'ailleurs leur position officielle.
 
WRInaute accro
@NicolasH : je ne suis pas trop d'accord avec tout ce que tu dis car c'est vrai qu'on laissait plus de liens auparavant mais c'était dans des forums ou des commentaires et ces liens sont depuis longtemps en nofollow.
Pour ce qui est des partages sur FB ou Tw ils ne comptent plus pour le SEO depuis longtemps.
Et si on voit remonter des sites anciens qui étaient populaires à une époque c'est justement parce qu'ils reçoivent beaucoup de liens donc je pense au contraire que les liens ont plus d'importance qu'avant et que c'est presque un retour du pagerank avec la course aux liens. Mais bizarrement les liens ne semblent plus se soucier de la page d'origine mais uniquement du domaine de destination. En gros, si tu as une bonne réputation, tes BL sont pris en compte, si tu n'en as pas ils comptent pour du beurre même si c'est un .gouv qui te fait le lien.
Et toutes les nouveautés apparues ces dernières années (la vitesse de chargement, l'UX, etc...) pour lesquelles tous les webmasters ont travaillé dur.... plouf ! on jette à l'eau et on oublie tout. Le contenu, pareil, on s'en balance. Le duplicate content idem. Souvent ce sont des pages entièrement en duplicate qui arrivent en tête.
Et chaque fois qu'il y a des mises à jour de l'algo, plusieurs mois après on trouve toujours des webmasters qui ne comprennent pas les raisons de leur déclassement. Ils ne savent pas quoi améliorer.
Je crois que les updates depuis le 9 mars 2018 ont ceux qui ont fait le plus de mal depuis la mise en place de panda et penguin. D'autres ont été particulièrement méchants mais ils ciblaient une population bien précise et identifiée alors que depuis début 2018 les cibles sont plus générales (il n'y a pas que les YMLF).
On voit même des abérations où c'est en ne respectant plus certaines guidelines qu'on voit une remontée dans les positionnements.

Le point positif dans tout ça c'est que si c'est une IA qui est en train d'apprendre, avec le temps les choses vont s'arranger d'elles-mêmes.
Mais le point négatif c'est que si l'IA pense que c'est bien comme ceci, ça risque d'empirer.

Et autre chose que je remarque, c'est que les derniers updates ne visent pas seulement des pages mais les domaines entiers. C'est comme une pénalité qu'on reçoit mais sans savoir pourquoi.

Pour en revenir à Nantesweb, si les sites stagnent et peinent à percer en première page, il peut s'estimer heureux car stagner c'est plus positif que plonger.
 
WRInaute occasionnel
@Nicolas
Le pb est qu'il y a trop de "bruit" dans les signaux liés aux partages sur les RS, si bien que ce n'est pas forcément exploitable par Google. C'est d'ailleurs leur position officielle.

Tu veux dire que Google n'est pas toujours capable de crawler (voir) tout ce qu'il se passe sur les RS ? par conséquent il ne peut pas tenir compte de tous les partages ?

C'est vrai qu'il y a des pages difficilement crawlable sur les RS...

Indigene>> En fait je parlais surtout de liens de "mauvaises" qualités style des liens achetés venant de blog peu visités, avec peu de lien externes entrants et de faibles qualité, avec des liens posés très peu de temps après la mise en place du blog, etc ... Les bons liens sont toujours puissants en terme de SEO (achetés ou pas).

C'est sur l'avenir des liens que j'ai un doute mais WRI me fait douter du coup; j'attends sa réponse ^^
 
WRInaute accro
ah ok, je pensais qu'en écrivant "Webrankinfo est mal placé pour se rendre compte de ce qui est en train de se passer", tu faisais référence à une personne (moi). Un site a du mal à "se rendre compte" ;-)

Oui mais c'est une personnification, un peu comme quand tu écris "ce n'est pas forcément exploitable par Google." en voulant dire "ce n'est pas forcément exploitable par les algorithmes de l'entreprise Google." On assimile souvent les mastodontes à des humains (ou des monstres).

Je voulais donc dire que le site webrankinfo, de par sa position de mastodonte, de référence, de géant, n'est pas le premier à en subir les effets et reste sans doute inébranlable (il a déjà payé en son temps avec le désamour de google pour les forums). Ce sont les petits qui morflent. Et si quelques gros qui manquent de qualité en arrive à plonger, ça peut au moins se comprendre. Mais quand on voit l'inverse arriver ça laisse dubitatif.
 
WRInaute accro
Tu veux dire que Google n'est pas toujours capable de crawler (voir) tout ce qu'il se passe sur les RS ? par conséquent il ne peut pas tenir compte de tous les partages ?

C'est vrai qu'il y a des pages difficilement crawlable sur les RS...

Non seulement il ne peut pas forcément les crawler car ça lui prendrait d'énormes ressources mais il y a aussi des partages fictifs ou achetés, des followers achetés, etc... Google a donc décrété il y a nombreuses années que les RS ne seraient plus pris en compte pour le calcul du PR et le positionnement. Google utilise uniquement quelques signaux (nombre de partages, nombre de followers pour une page, liens associés à la page mais pas dans le fil, etc...). Ce sont les RS eux-mêmes qui apportent du trafic et google ne s'en sert pas pour calculer le positionnement. Et Bing et Yahoo avaient dit la même chose à l'époque.
 
WRInaute occasionnel
@NicolasH : je ne suis pas trop d'accord avec tout ce que tu dis car c'est vrai qu'on laissait plus de liens auparavant mais c'était dans des forums ou des commentaires et ces liens sont depuis longtemps en nofollow.

Ce que j'ai voulu dire dans mon message c'est que le comportement des internautes de façon globale a changé en matière de partage de l'information. Les liens ne se font plus comme avant (utilisation du mobile par exemple). Google a donc aussi changé son algo en fonction de cela (prise en compte des RS, ...).

Je pensais avant de voir vos réponses (à toi et WRI) que ca allait encore évoluer dans ce sens. Mais si Google ne peut pas interpréter tout ce qu'il se passe sur les RS alors mon raisonnement tombe à l'eau ^^.
 
WRInaute accro
Sujet intéressant et merci pour vos observations explicites.
Je pense aussi que depuis un bon petit moment, GG a perdu de sa réactivité.
A hauteur de ce forum, on peut lire très souvent que les webmasters font de nombreuses modifs pour respecter son guideline, mais ils observent la chute de leur site !
A ne rien y comprendre...
Je pense qu'effectivement, GG mise plutôt sur leur IA au détriment de tests à faire sur l'algo et filtres actuels.
Nous subissons des dommages collatéraux. On ne peut plus aussi s'investir de trop sur les RS au risque de se faire fermer le compte sous prétexte d'un usage trop intensif. Pinterest, twitter, etc... on vraiment durci leur politique rendant le travail du community manager plus difficile. Donc même là, on est assujetti à devoir subir les foudres.
Avoir un site de nos jours, est devenu vraiment compliqué.
A moins d'avoir un projet vraiment innovant pour garantir la primeur.
 
WRInaute occasionnel
On ne peut plus aussi s'investir de trop sur les RS au risque de se faire fermer le compte sous prétexte d'un usage trop intensifOn ne peut plus aussi s'investir de trop sur les RS au risque de se faire fermer le compte sous prétexte d'un usage trop intensif

cad ? tu peux développer stp ?
 
WRInaute accro
Effectivement, pour la réactivité il n'est réactif que pour les médias d'actualité.
En ce moment j'ai une page qui m'apporte pas mal de visites. Elle est arrivée à maturité. Page publiée en novembre 2018. Il me faut donc 7 mois pour ranker. Pour l'instant, tout ce que j'ai publié depuis janvier je ne l'ai jamais aperçu dans les requêtes qui mènent à mon site.
 
WRInaute passionné
Heureusement que Google ne tient pas compte des RS, sinon ce serait les conneries puteàclic sans intérêt et sans contenu qui primeraient sur les pages de fond réellement utiles. Sur les RS les liens ne sont pas de qualité, ce sont des buzzs, des fakes, des putaclic et autres déchets du Web.
 
WRInaute discret
Bon, je reviens de vacances.

Déjà plusieurs points :
  1. Merci d'avoir pris le temps de me répondre
  2. Merci d'avoir développé vos idées
  3. Merci d'avoir été honnête et faire tomber certains masques, quand on est ancien difficile de dire qu'on peut se retrouver perdu...
Il faut savoir que J'ai une grosse expérience sur des sites limités partant à chaque fois de 0 et dont je maîtrise le code à la moindre ligne (je code encore mes templates responsive - sous Wordpress maintenant - pour pouvoir rajouter des éléments de codes au détail près depuis 2001...)

Donc pour faire court : je sais immédiatement ce qui marche ou non la plupart du temps vu que je construits le référencement par brique.

J'ai eu très tôt le sentiment que Google voulait savoir qui était derrière chaque site. J'essaye à chaque fois non pas de deviner, mais de me mettre à la place de Google, de l'entreprise et de ses intérêts. Ca aide tout de suite à comprendre. Et sur pas mal de points je ne me suis pas trompé.

Pour clore le chapitre du prestataire, il faut claquer 200 euros pour avoir droit à un vrai lien sur un vrai site. Mais je pense que ceux-là valent le coup.

Pour parler de mon expérience, développé sur plusieurs sites en parrallèle je peux vous donner mes conclusions personnelles :

1. GOOGLE RÉFÉRENCE SELON LE BUSINESS MODEL DES REQUÊTES

Cela veut dire que derrière chaque site, il doit y avoir un modèle économique. Cela a été presque impossible de se positionner sur des requêtes encyclopédique même avec un site capable de dégager tout le monde.

Derrière chaque site, Google veut une entreprise. C'est pourquoi depuis 2006 je met un brique en bas avec les mentions légales (indépendamment que ça rassure aussi les prospects).

Sur chaque requête il va faire ressortir surtout des entreprises capables de répondre à la demande.

Si on cherche un artisan + ville ou un corps de métier (avocat + ville) cela va être pris en compte.

Après pourquoi c'est le bordel sur certaines requêtes ?

Mon avis est que l'algo est là, mais que quand les concurrents sont mauvais dans un secteur, c'est l'algo "général" qui reprend le dessus pour ne pas classer tout et n'importe quoi.

Être sur MyBusiness, LesPagesjaunes/Mappy et ce genre de site sur lesquels GG à confiance est un impératif pour géolocaliser l'activité.

C'est pourquoi moi qui respecte parfaitement le cahier des charges est très bien classé mais à côté de mauvais.

De plus j'ai une page vie privée, mentions légales, conditions générales de vente, contact, à propos sur tous mes sites... avec un balisage schema de toutes les données de l'entreprise.

Rappel des éléments important où on peut retrouver l'entreprise dans le À propos avec des liens.

2. GOOGLE EST PARESSEUX

Facilité la tâche à Google est un impératif.

Avoir un code source propre, a toujours été payant et m'a toujours permis d'avoir de la stabilité. Soit c'est bon ou pas bon mais mes sites ne yoyotent quasiment jamais depuis toujours.

La raison ? Je code tout le thème à la main la moindre ligne.

Les sites sont ultra léger (actuellement mes thèmes Wordpress passent le GG Speed à 100)

Moins de code HTML poubelle (quand on voit qu'avec les éditeurs depuis 2004 on a 15 divs et spans pour entourer un paragraphe... et c'est toujours le cas)

Ensuite je vais jusqu'à mettre des titles à tous mes liens.

J'indique tout ce que je peux, j'utilisais du Xhtml et j'ai toujours cette démarche. Le moindre tableau est codé en tableau avec toutes les balises (tbody, thead, labels....), ce qui m'a valu des richs snippets sur pas mal de requêtes.

Je refais le code de tous mes articles et pages à la main ( je vire les divs des images pour mettre des figure et figcaption)

La moindre info est bien balisée dans la mesure du possible.

J'utilise des Schema.org entreprise et de nombreux microdatas dans le texte.

Virer tout ce qui sert à rien dans le site :
  1. Les plugins
  2. Les thèmes
  3. Les fichiers et répertoires inutiles
  4. Etc....
Mettre un robots.txt drastique je vais jusqu'à refuser Google Images pour certains projets.

Je n'autorise que Bing et Google point barre.

Dégager le trafic étranger qui ne sert à rien à 95% des cas. Cela permet de qualifier le trafic et limiter les touristes ainsi que les sites à spam reprenant automatiquement le contenu ou faisant des liens bidons.

=> Geoip Htaccess, je dégage tous les pays.

Résultat site lisse ultra détaillé dans le code (Google ne lit que du code source) et trafic propre.

Je rajoute que Google est paresseux parce qu'il s'appuie aussi sur des sites qu'il a référencé comme sérieux. C'est pourquoi j'ai des stratégies clients de corporations et de réseau. Etre sur le site de l'ordre des experts comptable par exemple ce genre de chose...

3. MICHAEL JSON

Je met ce que j'appelle des Michael Json sur tout ce qui est possible : dernier en date sur des articles d'emploi le site à pris 5 places directes en première page en quelques jours. Je l'avais fait pour un gros site de recette de cuisine.

ET je ne n'utilise pas les directives Schema.org mais celles de Google Developper directement.

4. LA QUANTITÉ

J'ai des stratégies de baclinks qui reposent sur la quantité et la qualité.

Mais 30/40% de la quantité viens d'annuaires : et oui !

Ca marche encore et toujours... pourquoi ?

Parce que les annuaires se sont qualifié pour garder le modèle économique et qu'ils ont tellement de liens de qualité que Google est bloqué.

J'ai une 15zaine d'annuaire que j'utilise à chaque projet et qui cartonnent à chaque fois. C'est une page de rédaction unique à chaque fois avec un lien mais c'est payant.

Ensuite je peux passer à des couches supérieures : réseau de site, partenariat et enfin marketing de contenu et liens de qualité.

Il suffit de faire de la veille de première page pour voir que les annuaires se portent encore très bien !

Certes un seul lien en or peut tout faire basculer, mais 5/7 liens faciles pompés chez les concurrents par Maejstic ça marche très bien aussi...

Je vais même tranquillement me faire Paris et les autres grosses villes pour aller chercher du lien facile, comme par hasard on tombe toujours sur des annuaires et un bon lien bidon qui a été pris en compte (il suffit de regarder le positionnement vs les liens du sites pour savoir lesquels ont sûrement été pris en compte par GG)

5. LA QUALITÉ

Google dégage un peu tout le monde sur les requêtes généralistes. Pour les gros toujours de la place avec leur autorité.

Pour les petits la qualité va payer. Et la qualité n'est pas la quantité.

Avoir 40% de contenu en moins mais de travailler à fond celui qui est existant (dénommés pages zombies récemment) est un atout.

Mieux vaut avoir du poids dans sa niche que de vouloir être exhaustif.

L'architecture trois niveau en cocon est toujours celle que j'utilise. De même je fais attention à la qualité sémantique de mes textes mais aussi toujours de la qualité de la diversité des balises (un tableau, une image, une vidéo, des strong, etc...)

Des liens profonds même créé artificiellement sont très important je l'ai remarqué. J'ai dégagé plein de fois des gros sites uniquement parce que j'avais créé une dizaine de de liens profond venant de domaines uniques.

C'est un point pris en compte j'en suis sûr.

Dégager tous les liens bidons régulièrement avec l'outil de révocation.

Toutes mes pages sont créé sur des requêtes. Le moindre article de marketing de contenu est créé pour se positionner premier sur une requête même à 1/100 requêtes par mois.

Toutes les metas titles sont uniques et meta description. Elles ont toutes pour but de vendre du clic et faire du teasing afin d'augmenter le taux de clic.

6. UN POINT SUR LES RÉSEAUX

J'ai un article qui a été partagé 2600 fois. Résultat il a détronné l'accueil sur la requête (pourtant la requêtes principale est toujours sur l'accueil)

Donc je pense que seul les partages sont pris en compte dans une limite que je qualifie au doigt levé à 10/15%

AUTRE POINT : GOOGLE A CAPITULÉ

Avant on faisait de notre mieux pour se tirer vers le haut (qualité, code...) mais devant la paresse des nouvelles générations (outils tout fait et mal fait) et devant leur proiminence, Google à capitulé.

Cela veut dire concrètement qu'au lieu de toujours aller vers le haut, Google a été obligé d'accepter la médiocrité et de revoir ses critères de qualité des sites notamment.

Il a mis le hola avec Google Speed pour arrêter les Wordpress avec thème Premium ultra lourdingue, mais globalement je pense que Google a du s'habituer à avoir des sits de merdes à référencer.

Donc oui gros intérêt selon moi sur le contenu réel.

Mais également bons points à ceux qui font les bonnes pratiques. Voir je pense, classement en tant que critère de crédibilité.

La médiocrité de la nouvelle génération en terme de pas se faire ch... dans un domaine (le seo) ou c'est du travail, du travail et du travail à des conséquences...

C'est surtout un avantage concurrentiel : tout ce que j'investis dans la qualité du onsite, c''est autant de liens en moins à créer pour la crédibilité du site...

CONCLUSION

Voilà, comme vous voyez j'ai toujours travaillé le onsite à fond, et c'est ce qui m'a toujours valu d'énormes taux de stabilité sur des centaines de sites.

Stabilité n'empêche pas stagnation. Mais j'ai jamais eu de perte même sur des sites à 100 000 visites par mois (pour mois c'est du gros).

Cette volonté de tout faire propre m'a même autorisé à faire des pratiques bordeline, du fait que justement je pouvais me permettre une ou deux infractions.

Aujourd'hui je pense que je rencontre des difficulté sur la qualité de mes liens. Mais on est qu'en 2019, là où certains me parlaient d'annuaires mort depuis 2010....

Je vais donc monter en gamme pour cette partie mais je pense que cela suffira.

J'ai remonté des sites clients avec les mêmes techniques et il s'est produit toujours la même chose à chaque fois.

Donc je sais que le OnSite pour moi c'est 40% du réféncement. Et avoir un code parfait est la clé et un avantage concurentiel que beaucoup ne peuvent s'offrir à l'heure des thèmes tout fait Wordpress lourdingues et mal référencé.

Après il faut un développement de linking qui soit en relation avec le business model d'un entrepreneur.

Son réseau est là clé. On peut avoir un site de gestion locative qui n'a aucun rapport avec l'activité en lien... mais qui peut être celui de la ZAD dans laquelle on est hébergé. Il faut trouver des hubs sur lesquels GG peut se raccorder pas toujours facile avec certains sites.

Sur un site de formation je me suis mis en tant que formateur sur des plateformes bien que je ne travaille que sur mon site. Pour apporter la cohérence de mon modèle économique.

Je pense qu'en terme de liens c'est encore : 50 /50 (bidon / réel)

@indigene : tu as l'air de paniquer je l'ai vu en faisant la veille sur le forum. Donne moi l'url de ton site, j'aimerai bien y jeter un oeil asymétrique pour te donner mon point de vue et te remercier de tes interventions.
 
Dernière édition:
WRInaute discret
Bon après un mois et demi : bilan.
  1. Les liens ont bien été pris en compte dans Console Search et Majestic
  2. Concrètement : aucun résultat sur quatre camapagnes sauf sur un site où il y a eu 8 liens de créé. Mais juste un petit bon en quatrième page et un repositionnement sur l'accueil pas de quoi non plus exploser le compteur

Du coup je ne vais plus commander que des liens d'un certain montant avec l'assurance d'avoir des sites derrières qui ont du répondant...
 
WRInaute occasionnel
Bonjour,

Les liens sont affichés dans Console Search et Majestic mais cela ne veut pas dire qu'ils te donnent à ce jour "le jus". Il faut encore attendre pour voir les effets ou alors il y a un soucis dans ton profil de liens.

Bon courage!
 
WRInaute occasionnel
Lol la question pour me piéger alors que tu sais très bien que ca dépend de plusieurs critères...

Dans mon cas (gain de quelques liens sur une période d'un mois) ca a pris 15 jours pour voir une amélioration (+20% trafic) mais le site à plus de 13 ans et n'a reçu que des liens naturels !!
 
Olivier Duffez (admin)
Membre du personnel
c'est en effet une question piège. Je n'arrive pas à comprendre que certains acceptent le discours "soyez patients, il faut parfois attendre 3 voire 6 mois pour que les liens achetés aient un impact".

sérieusement, comment voulez-vous savoir à quoi est due l'évolution du référencement quand on attend des mois ? Le site a eu le temps d'être modifié, l'algo de changer 53 fois, les concurrents idem.
 
WRInaute occasionnel
Alors pourquoi il y a ce genre de questions ? ;-)

Tu es capable de donner un durée toi ? Donc oui il faut patienter. Je ne vois pas ce que l'auteur peut faire d'autre ?!!

Patienter ca ne veut pas dire rien faire sur le site sauf si on veut voir les effets des liens. Dans mon cas le site est resté volontairement statique justement pour voir les effets.
 
Olivier Duffez (admin)
Membre du personnel
Je laisse répondre celles et ceux qui achètent des liens et attendent des mois pour voir l'impact
 
WRInaute occasionnel
Perso je n'ai pas dit que 3 mois c'était normal et encore moins 6 :).

Il faut analyser son profil de liens (entre autre) et les liens qu'il a reçu. Ils sont p-e pas de bonnes qualités ? trop spammies ? ... ?

P-e que son site est trop récent et qu'il n'avait pas reçu beaucoup de liens et d'un coup il y en a eu 5.

Le prestataire doit établir une stratégie (délais entre 2 liens, type de liens, metrics des sites, nombre de liens, ancres, ...) avant le début de la prestation en fonction du profil de liens du site de son client. Sauf si c'est une plateforme d'achat de liens sans "assistance".

Mais comme tu le dis tout bouge autour de ça (algos, concurrents, contenu du site etc ...) donc le client ne peut pas non plus exiger un délais exact et une garantie de résultats à court terme.
 
Dernière édition:
WRInaute impliqué
@WebRankInfo , je ne vois pas où tu veux en venir avec la durée d'attente...

Pour toi un lien acheté (ou pas) doit avoir un résultat quasi immédiat dans le ref ?

Pour moi, il est évident que ça dépend juste de la concurrence.

Si on fait abstraction des autres signaux, imaginons même pour le cas d'école que seuls les liens font la différence entre deux sites et qu'ils sont à égalité sur les autres signaux.

Si le concurrent est "meilleur" en liens selon GG, il faudra en avoir/acheter des nouveaux jusqu'à le battre sur ce signal et attendre juste le temps de la prise en compte globale par GG de tout ça... Temps dont on ignore le délai, et qui finit par faire dire "il faut attendre...". Mais si on n'a pas atteint le niveau du concurrent sur ce signal on peut attendre longtemps....
 
Olivier Duffez (admin)
Membre du personnel
Un lien devrait en effet avoir un impact dans les jours qui suivent la nouvelle indexation de la page faisant le lien, ou au pire dans les 2 ou 3 semaines.
Sinon, je pense que c'est qu'il est ignoré par Google.

Evidemment, il ne faut pas mesurer l'impact en regardant uniquement le positionnement sur 1 requête (liée à l'anchor text par exemple). Je pense qu'il faut essayer de trouver d'autres métriques, par exemple concernant l'URL recevant le(s) lien(s) :
  • nb de clics selon GSC
  • nb d'impressions selon GSC
  • position moyenne selon GSC
  • nb de requêtes générant des impressions / clics, selon GSC
  • position moyenne ou indice de visibilité moyen sur 20 à 50 des principales requêtes de la page
sans compter bien entendu le trafic généré par ce(s) lien(s)

Et vous ?
  • en combien de temps jugez-vous qu'un lien doit avoir un impact (sinon c'est qu'il est ignoré par Google) ?
  • quelles métriques surveillez-vous pour juger les résultats ?
 
WRInaute impliqué
Ou la la , j'ai lu tout le post, félicitation à @nantesweb pour son long post très bien fait.Je m'aperçois que l'on parle de liens.

Dans ma boutique je ne met presque jamais de liens. Lorsque j'en met c'est juste pour que le visiteur puisse lire un mode d'emploi mieux détaillé que je ne ne pourrais le faire concernant un produit électronique par exemple.
J'ai aussi appris à prendre des fichiers PDF trouvé sur internet et à proposé en téléchargement sur ma fiche produit.

C'est vrai que je suis toujours aussi réfractaire aux liens qui seraient tous artificiels si je ne n'avait que ça en tête. Les liens ne m'intéresse pas vraiment.

Viennent dans ma boutique internet ceux qui veulent venir. Je ne fais pas de compétition.

De toute façon je n'ai jamais rien compris aux liens et à toutes leurs déclinaisons. Ou tout du moins, je sens l'utilité ou non de faire un lien.
 
WRInaute accro
Et vous ?
  • en combien de temps jugez-vous qu'un lien doit avoir un impact (sinon c'est qu'il est ignoré par Google) ?
  • quelles métriques surveillez-vous pour juger les résultats ?

Pour répondre à cette question il faudrait connaitre la date d'entrée en fonction du lien fixée par google au moment où il a pris en compte le lien.
Et au moment où Google trouve un nouveau lien il peut très bien lui attribuer une date d'entrée en fonction = date du jour + random (x jours) avec x pouvant varier de 0 à 100.

Depuis 2006-2007 Google fait ce genre de choses (ou d'une autre façon) pour compliquer la tâche des SEO et éviter qu'ils ne percent les subtilités de son algo. Parce que si on fait une modification sur un site et que la modification est prise en compte aussitôt que la page est crawlée il serait trop facile de voir si c'est positif ou négatif. On pourrait donc faire des tests très facilement pour déterminer ce qui est le mieux et ce qui ne l'est pas. Google n'est pas né de la dernière pluie non plus. En ajoutant un délai aléatoire de prise en compte de toute modification rencontrée ça brouille les pistes et c'est pour cette raison qu'il faut attendre "un certain temps".
Mais si Google nous disait "1 mois" ou "20 jours", ça serait trop simple. Donc la formule
date de prise en compte = date du jour + random (x jours) avec x pouvant varier de 0 à n
me semble parfaitement adaptée.

En plus, l'impact du lien n'est plus du tout le même qu'au temps du pagerank où un lien venant d'un site à pagerank élevé avait forcément plus d'impact qu'un lien venant d'un site à faible pagerank. Aujourd'hui, on peut très bien recevoir un lien d'un site sans prétention et ça propulse la page dans le top 3 alors qu'un lien venant d'une page à très haute réputation peu n'avoir aucun effet. L'impact d'un lien est maintenant déterminé en fonction de la pertinence du lien. Un lien pertinent depuis un petit site peut facilement avoir plus de poids qu'un lien non pertinent depuis un gros site. Ça semble évident pour tout le monde qu'un lien depuis un site sans prétention qui parle de l'Alsace vers une page qui donne la recette de la choucroute avec une ancre "recette de la choucroute" aura plus de poids qu'un lien venant de la page d'accueil de francefootball avec une ancre "mp3". Non ? Vous n'êtes pas d'accord ?

Ensuite un lien n'a pas le même poids en fonction de l'endroit de la page où il est situé (dans l'article, dans le footer, etc...). Et ça, ça a toujours été il me semble. Bon, peut-être pas toujours, mais disons depuis 2005 environ.

Les seuls métriques à surveiller c'est bien entendu le trafic. Je ne vois pas ce qu'il y aurait à surveiller d'autre pour juger d'un résultat. Certains surveillent le taux de transformation mais ça n'a absolument rien à voir avec le SEO. Si le taux de transformation augmente c'est juste que le lien est placé sur une page et que les visiteurs de cette page cliquent sur le lien pour ensuite acheter sur notre site. Donc rien à voir à le trafic venant de google. Cette question concernant les métriques me surprend venant de toi...ou alors c'est que tu as une idée derrière la tête. Mais c'est un peu comme si tu nous demandais quelle chaine on regarde pour connaitre la météo du moment à l'endroit où on se trouve. Ben il suffit de regarder par la fenêtre...
 
WRInaute discret
Pour rebondir sur ce que tu dis indigène j'ai eu le même sentiment.

Le temps de latence de pise en compte des liens dépend à mon avis du "détecteur à connerie" de Google.

En fonction de la cohérence du lien et du domaine d'où il vient, l'historique de création de liens, l'âge du domaine, il va mettre plus ou moins de temps. Il peut à mon avis dans son algo finir par friser des liens en ne les prenant pas en compte.

Ce qui fait une différence entre Console Search et prise en compte du lien en SEO

Exemple : un lien venant d'un site racheté avec des articles vendus ayant eu une bonne notoriété peut-être pris en compte rapidement pour un bon site ayant déjà de bonnes références (contenu, ancienneté, qualité des liens)... et pas du tout pour un site qui a un an, peu de contenu et dont la majorité des liens est de faible qualité... Parce que des premières places avec des liens de sites identiques, j'en ai vu, pleuvoir. Alors que d'autres sans plafonnaient : cela veut-il dire que les liens pris en compte même s'ils deviennent bidon ensuite pour d'autres reste bon pour les premiers ? Ce serait bizzarre mais cohérent pour une certaine stabilité des résultats en première page. Cela reste un mystère :


C'est mon avis, on fini je pense par avoir de l'instinc à force de bosser toujours dans le même domaine...
 
WRInaute accro
Et si google se servait fortement des navigations des internautes pour donner du poids aux pages/liens ?

Avec chrome, android, GA, adsense, GMAP, recaptcha voire DFP, il n'a que l'embarras du choix pour obtenir des données sur les navigations, qu'importe que les liens soient en nofollow ou non.
si je suis sur une page d'un site A et que je clique sur un lien pour arriver sur un site B. Sur le site B, j'y reste plus de 5" voire plusieurs minutes. Le site parait donc intéressant. GG pourrait donc considérer que le lien était adéquat et donner du poids au site B voire, si ça arrive sur un certain nombre de bl sortants du site A, que le site A est aussi de qualité.
Même si il y a quelques années GG avait indiqué ne pas tenir compte des données GA pour classifier les sites, car cela induirait une différence de traitement avec les sites n'ayant pas installé GA, rien n'indique que c'est toujours le cas, surtout si on prend en compte ses autres canaux de données, la quasi totalité des sites mondiaux doit envoyer des informations à google.
Sans oublier que la grande majorité des liens des SERP google sont des liens trackés permettant à la fois de faire un suivi temps réel des liens de sortie et aussi de cacher le vrai referer serp aux sites.
 
Nouveau WRInaute
Bonjour, Me concernant, je navigue totalement à vue sur le référencement. Même si mon référencement n'est pas trop la, je ne sais jamais si ce que je fais contribuera positivement ou négativement. Ce qui est le plus facile, est de laisser un lien sur un forum, un blog, un annuaire. mais comment savoir son effet ? J'aimerais bien pouvoir obtenir des liens de qualité avec des sites bien cotés mais je n'ai pas forcément la bonne méthode... Bref, l'aléa le plus complet en multipliant des liens... Puis en les désavouant lorsque je m’aperçois qu'il s'agit de liens toxiques. Des conseils simples me seraient bien utiles pour éviter de perdre mon temps et d'agir contre mes intérêts....Bien cordialement.
 
WRInaute discret
Alors pour t'aider un peu :

  1. Utiliser Majestic SEO pour avoir une idée de la qualité des sites sur lesquels tu fais des liens (et leurs pages internes) et leur catégorie (éviter jeux vidéos, adulte, spirite et informatique référencement)
  2. Essayer de construire un SEO qui paraît naturel : quand tu démarres un site et que tu veux le promouvoir réfléchir comme une entreprise : tu t'implantes, tu te géolocalise, tu met en place ton réseau réel après tu fais des partenaires et de la promo sur des sites de ta catégorie (ex: offre d'emploi sur certains sites pour un cabinet de recrutement) et enfin des annuaires
  3. Les liens doivent venir de pages qui seront lu par des humains, et des sites à audience. Certains annuaires le sont, car ils ont un bon business model mais il n'y en a plus beaucoup
Autre point pour de la stabilité un site optimisé pour le référencement et irréprochable. En fait il faut avoir dans l'idée que si quelqu'un de GG venant à vérifier manuellement il ne trouverait rien à y redire.

A titre d'exemple, j'ai des félicitations systématiques et des validations immédiates même en gratuit sur certains annuaires quand je poste mes textes : 1500 mots, qualité rédactionnelle, images, titres, etc...
 
WRInaute accro
1. Pour commencer, évite de poser des liens toi même. C'est ce qu'on appelle des liens fictifs car ils ne viennent pas d'un internaute réel ni d'un webmaster. Il faut privilégier les liens spontanés
2. Si tu ne t'adresses pas à un public local, vise toute la France et essaye d'être le plus large possible sans jamais préciser des localités
3. Un bon profil de liens doit venir de partout. Il faut à la fois des pages de faible qualités, comme des blogs, et des pages de qualité. A la fois des liens directs et des liens no-follow. Si le profil, n'est pas équilibré ça sent le lien fictif à plein nez
4. Occupes-toi surtout du on-site. Le plus important c'est : title / h1 / contenu structuré / maillage interne / illustrations / vitesse de chargement / responsive design
 
Discussions similaires
Haut