Les backlinks : remise en question

WRInaute discret
On connaît l'importance actuelle des backlinks (BL) pour le classement dans Google. Ceci dit, je pense qu'une remise en question des BL est à envisager.

En effet, avant l'ère Google, les BL étaient volontaires et désintéressés : les webmasters mettaient un lien vers un site quelconque parce qu'ils étaient séduits par ce dernier et voulaient le faire visiter par leurs propres visiteurs. Le nombre de BL dont bénéficiait un site indiquait réellement que ce dernier était populaire et de qualité. C'était un vote populaire.

Les choses ont bien changé depuis. Les BL ne sont plus volontaires et désintéressés, mais sont le fruit d'âpres négociations mercantiles entre webmasters, ou d'échanges purement intéressés entre les annuaires et les sites. Les BL ont perdu totalement, ou presque, la signification de "popularité" et de "qualité" d'un site.

Dans ces conditions, ne pensez-vous pas qu'il serait temps que Google et autres moteurs de recherche bannissent de leur algo le "critère BL" ?
 
Nouveau WRInaute
et tu suggères quoi comme critère ?

si c'est uniquement des critères sur le site ca serait inévitablement "la foire à la saucisse"
 
WRInaute accro
boutiques a dit:
et tu suggères quoi comme critère ?

Déjà ne pas prendre en compte les liens depuis les annuaires
Ce serait la fin de la prime au bourinage par inscription massive sur n1000 annuaires
 
Nouveau WRInaute
Onthisplanet a dit:
boutiques a dit:
et tu suggères quoi comme critère ?

Déjà ne pas prendre en compte les liens depuis les annuaires
Ce serait la fin de la prime au bourinage par inscription massive sur n1000 annuaires

je crois que c'est déjà plus ou moins implémenté ça, enfin ça dépend peut-être du secteur.
 
WRInaute accro
boutiques a dit:
je crois que c'est déjà plus ou moins implémenté ça, enfin ça dépend peut-être du secteur.

Une bonne partie du problème serait alors en passe d'être résolue, non ?
 
WRInaute accro
boutiques a dit:
Ben non ça ne fait que déporter le problème vers de l'échange ou de l'achat de liens.

Ne pas accorder de crédit aux liens présents sur un site qui en contient plus de X ?
Ca réduirait bien le problème.
 
Nouveau WRInaute
Merci Brigitte2000 pour ta réflexion que je partage également. Mais que proposes-tu d'autre que la prise en compte des backlinks pour le référencement ?

Les robots des moteurs de recherche doivent bien se baser sur certains critères et pour l'instant, je ne vois pas de moins pire solution.

Il y a bien sûr la solution humaine ( je suis éditeur auprès de dmoz ), mais il ne semble pas que Google envisage cela pour l'instant.

As-tu mieux à proposer que la solution actuelle ??
 
WRInaute accro
Le Web n'est pas différent du reste de l'univers social.
La notoriété peut donc y être achetée et négociée et, bien entendu, usurpée.
Comme pour créer des vedettes.
Ça n'a rien à voir avec une quelconque objectivité : il s'agit de faire consommer et de drainer la consommation.
Pire : il n'y a pas besoin que la qualité objective soit au rendez-vous, la mode et le buzz imposent n'importe quoi que le consommateur finit par croire qu'il aime.
Il n'y a rien de plus à changer sur le Web qu'autre part.
 
WRInaute discret
André Baechler a dit:
Mais que proposes-tu d'autre que la prise en compte des backlinks pour le référencement ?

L'algo de Google compte, je crois, une centaine de critères : certains sont valables, d'autres moins, d'autres non-justifiés. Le critère BL, à mon avis, figure parmi ces derniers.

D'ailleurs il me semble que Google s'oriente peu à peu vers la suppression de ce critère en accordant de moins en moins d'importance à la quantité des BL au profit de la qualité. Mais ceci n'est qu'une demi-mesure : ce qui est non-justifié devra tôt ou tard être élimimé.

Mais je ne suis pas certaine que tout le monde soit d'accord.
 
WRInaute accro
Les BL constituent le fond de commerce de GG.
Pour les remplacer, on pourrait compter le nombre d'occurences d'un NDD ou d'un nom de personne sur la totalité des pages du Web.
Cela poserait des problèmes énormes : G.Clayton est-il Georges Clayton ou Gary Clayton ? (par exemple).
L'URL, c'est précis puisque unique par essence.
 
WRInaute passionné
Brigitte2000 a dit:
L'algo de Google compte, je crois, une centaine de critères : certains sont valables, d'autres moins, d'autres non-justifiés. Le critère BL, à mon avis, figure parmi ces derniers.

Les BL sont pris en compte dans le pagerank. Et les sites ne sont plus présentés dans google selon l'importance du pagerank. Donc c'est la preuve que les BL ne font plus tout dans gg.
 
WRInaute impliqué
Je trouve ce topic plutot inutile, c'est pas a nous de remettre en question google, si cela nous plait pas on va voir du coté de yahoo et msn ...
Mais comme google a le plus de traffic pour le moment on s'adapte et on fait comme on peu, meme si cela nous plait pas .
 
WRInaute occasionnel
Le pagerank mesure la popularité d'un site internet en fonction des backlink et de leur qualité.

Le système de google tient encore debout, et encore pour longtemps je pense.
 
WRInaute accro
Neoxy a dit:
Le pagerank mesure la popularité d'un site internet en fonction des backlink et de leur qualité.

Le système de google tient encore debout, et encore pour longtemps je pense.
C'est clair.
Tous ses efforts tendent à pondérer l'importance des liens, mais le principe ne doit pas être remis en question.
 
WRInaute accro
Avec les différents "outils webmasters" proposés, il n'est pas impensable non plus que la recherche de notoriété du webmaster influera sur son positionnement.
Il est évident qu'un spammeur n'aura pas pignon sur rue (éphémère) à la différence d'un webmaster traditionnel qui fait un site puis deux puis trois, avec compte google, sitemap et tout le tremblement.

La qualité des liens va dans ce sens : 1000 liens bidons ou un lien vrai ? échange de lien hors sujet ou partenariat thématique ?

Que ça nous plaise ou non gg mène la danse, à nous de suivre...
 
Nouveau WRInaute
Code:
Le Web n'est pas différent du reste de l'univers social. 
La notoriété peut donc y être achetée et négociée et, bien entendu, usurpée. 
Comme pour créer des vedettes. 
Ça n'a rien à voir avec une quelconque objectivité : il s'agit de faire consommer et de drainer la consommation. 
Pire : il n'y a pas besoin que la qualité objective soit au rendez-vous, la mode et le buzz imposent n'importe quoi que le consommateur finit par croire qu'il aime. 
Il n'y a rien de plus à changer sur le Web qu'autre part.

Je trouve cette vision triste, négative et fataliste. Le web n'est pas qu'une usine à fric destinée à faire vendre n'importe quoi à des consommateurs idiots et impuissants.

Pour moi, c'est un outil puissant me permettant de me documenter très rapidement dans de nombreux domaines riches et variés, sans que j'aie à cliquer sur la moindre annonce payante.

Finalement, le web a l'usage que l'on veut bien lui donner, et je trouve que Google s'en sort plutôt bien en terme de pertinence et de qualité, malgré sa taille.

Il est toujours facile de critiquer quand on a rien de mieux et de concret à proposer.
 
WRInaute accro
André Baechler a dit:
Code:
Le Web n'est pas différent du reste de l'univers social. 
La notoriété peut donc y être achetée et négociée et, bien entendu, usurpée. 
Comme pour créer des vedettes. 
Ça n'a rien à voir avec une quelconque objectivité : il s'agit de faire consommer et de drainer la consommation. 
Pire : il n'y a pas besoin que la qualité objective soit au rendez-vous, la mode et le buzz imposent n'importe quoi que le consommateur finit par croire qu'il aime. 
Il n'y a rien de plus à changer sur le Web qu'autre part.

Je trouve cette vision triste, négative et fataliste. Le web n'est pas qu'une usine à fric destinée à faire vendre n'importe quoi à des consommateurs idiots et impuissants.

Pour moi, c'est un outil puissant me permettant de me documenter très rapidement dans de nombreux domaines riches et variés, sans que j'aie à cliquer sur la moindre annonce payante.

Finalement, le web a l'usage que l'on veut bien lui donner, et je trouve que Google s'en sort plutôt bien en terme de pertinence et de qualité, malgré sa taille.

Il est toujours facile de critiquer quand on a rien de mieux et de concret à proposer.
Il est permis de rêver à un Web meilleur qui améliorerait le reste du monde.
Moi, je ne juge pas, j'observe et je constate.
Le fait est que le Web est devenue une gigantesque poubelle et qu'on y trouve juste, en libre accès, ce qui suffit à satisfaire le consommateur moyen - consommateur qui reçoit le respect qu'il mérite, ni plus ni moins : sans respect, pas de vente :)
Si tu ne vois pas la pollution des SERPs ... tant mieux pour toi.
Si tu admires les performances de vieux moteurs aux algos couverts de rustines ... tant mieux aussi.
Il faut des réalistes comme il faut des rêveurs.
 
WRInaute discret
Szarah a dit:
Il n'y a rien de plus à changer sur le Web qu'autre part.
Tout à fait d'accord : il n'y a pas que sur le Net qu'il y a des choses à changer, dans le reste de la société aussi.

Peut-être est-ce un peu plus facile d'effectuer ces changements sur le Net ; il faut bien commencer quelque part. :)
 
WRInaute accro
Arsène a dit:
Szarah a dit:
Il n'y a rien de plus à changer sur le Web qu'autre part.
Tout à fait d'accord : il n'y a pas que sur le Net qu'il y a des choses à changer, dans le reste de la société aussi.

Peut-être est-ce un peu plus facile d'effectuer ces changements sur le Net ; il faut bien commencer quelque part. :)
Le Web est né propre, il a été rapidement contaminé par les moeurs habituielles au reste du monde.
Ce n'est pas être pessimiste que penser que le nettoyer n'arrangera pas pour autant les choses à l'extérieur :)
Ni de penser que c'est perdu d'avance.

Edit : Pas étonnant que nous en soyons là si vous déprimez dès qu'on vous dit que ça va mal. Il est beaucoup plus facile de dire Ça ne va pas si mal, ça pourrait être pire :)
 
Nouveau WRInaute
Libre à toi Szarah de penser que le web est une gigantesque poubelle.

Pour moi il est bien plus que cela et contient également des merveilles. Il ne tient qu'à nous de choisir ce que nous en retirons.

Comme tu le dis si bien, le web n'est qu'un reflet de notre société, mais si j'en arrivais à voir notre monde comme une poubelle, je n'aurais plus de raison de vivre.

Malgré son coté obscur que je ne nie pas, la vie est merveilleuse et n'apporte que des richesses à mon quotidien que je consacre entre autres à des personnes en fin de vie et des détenus en milieu carcéral. Et oui, même là il y a de la lumière :wink: . Tu vois, ce n'est qu'une question de regard...

Pour moi le réalisme ne consiste pas à dépeindre un web en forme de poubelle, mais à relever également ses aspects positifs.
 
WRInaute accro
André Baechler a dit:
Libre à toi Szarah de penser que le web est une gigantesque poubelle.

Pour moi il est bien plus que cela et contient également des merveilles. Il ne tient qu'à nous de choisir ce que nous en retirons.

Comme tu le dis si bien, le web n'est qu'un reflet de notre société, mais si j'en arrivais à voir notre monde comme une poubelle, je n'aurais plus de raison de vivre.

Malgré son coté obscur que je ne nie pas, la vie est merveilleuse et ne m'apporte que des richesses au quotidien que je consacre entre autres à des personnes en fin de vie ainsi qu'à des détenus en milieu carcéral. Et oui, même là il y a de la lumière :wink: . Tu vois, ce n'est qu'une question de regard...

Pour moi le réalisme ne consiste pas à dépeindre un web en forme de poubelle, mais à relever également ses aspects positifs.
Je vais te rassurer : moi aussi j'ai bon espoir :)
Mais pas dans l'inaction et l'admiration béate.
Il s'agit d'être exigeants, toujours plus.
Et j'observe qu'il n'y a pas de progrès et que la pertinence n'est plus une priorité.
Sinon, c'est bien.
On s'amuse bien avec youTube.
On a de quoi acheter sans PayPal à présent qu'il y a la solution de télépaiement de Google.
Tout va bien.
Manque juste un moteur de recherches digne de notre siècle :)
 
WRInaute impliqué
Szarah a dit:
Les BL constituent le fond de commerce de GG.
Pour les remplacer, on pourrait compter le nombre d'occurences d'un NDD ou d'un nom de personne sur la totalité des pages du Web.
Cela poserait des problèmes énormes : G.Clayton est-il Georges Clayton ou Gary Clayton ? (par exemple).
L'URL, c'est précis puisque unique par essence.

En plus, on échangerait alors non plus des liens mais un bout de texte contenant le NDD....
 
WRInaute accro
André Baechler a dit:
Et dans ton action Szarah, que proposes-tu de concret ?? :wink:
1. Faire comprendre que les techniques d'optimisation dites soft, c'est encore du spamdexing, comme une incivilité reste un délit.

Je ne vais pas parler tout des suite des autres points, celui-là va déjà faire hurler :)
 
Nouveau WRInaute
Malgré tes 3695 interventions sur ce forum, tu afirmes être en totale contradiction avec ce site qui traite principalement des techniques d'optimisation ?
 
WRInaute impliqué
Szarah a dit:
1. Faire comprendre que les techniques d'optimisation dites soft, c'est encore du spamdexing, comme une incivilité reste un délit.

peux tu m'expliquer le mot "soft" en donnant des exemples de ces techniques d'optimisations ?
sinon une incivilité n'est pas toujours un délit, la première est une notion morale, la seconde est une notion pénale donc plus objective :wink: .
(mais ton "comme" ne l'infirme pas et nuance tes propos)
 
WRInaute passionné
Google est tout de même en train d'évoluer vers de nouvelles choses (cf son site en beta).

Sinon je ne comprends pas ce que tu veux dire dans ton dernier message Szarah. Pourrais-tu expliciter :- ?
 
WRInaute impliqué
Ben peut être j'ai mal compris, mais il me semble que szarah veut dire qu'à partir du moment ou tu optimises ta page pour les moteurs, c'est du spamdexing. :)

Si deux pages sont excatement identiques et qu'une des deux à une meta desc optimisé pour les moteurs uniquement (il n'y a que eux qui s'en servent à ma connaissance) on peut considérer cela comme du spamdexing.
Philosophiquement je suis assez d'accord, mais szarah doit aussi correctement remplir sa meta desc. :wink:

Pour en revenir au sujet du post, il me semble que google a déjà fortement diminué le poids des Bls non ?

J'ai des pages qui se placent par miracle il me semble.
Et j'ai juste "optimdexé" le contenu :lol:
 
WRInaute accro
André Baechler a dit:
Malgré tes 3695 interventions sur ce forum, tu affirmes être en totale contradiction avec ce site qui traite principalement des techniques d'optimisation ?

Ces forums autorisent les opinions à contre-courant et les réflexions alternatives.
On n'y est pas tenus de se contenter de valider et de renforcer un courant principal, tout plébiscité qu'il soit.
Sinon, je serais hérétique et même relaps depuis longtemps :)

st-antigone a dit:
Szarah a dit:
1. Faire comprendre que les techniques d'optimisation dites soft, c'est encore du spamdexing, comme une incivilité reste un délit.

peux tu m'expliquer le mot "soft" en donnant des exemples de ces techniques d'optimisations ?
sinon une incivilité n'est pas toujours un délit, la première est une notion morale, la seconde est une notion pénale donc plus objective .
(mais ton "comme" ne l'infirme pas et nuance tes propos)

J'ai peine à croire que tu n'as pas compris que ce n'est pas parce qu'un petit delit est renommé incivilité qu'il cesse d'être un délit.
De même qu'on a renommé certains petits délits en incivilités pour en édulcorer la gravité (et bientôt les dépénaliser ?), renommer certaines techniques de spamdexing en optimisation ne leur ôte pas leur caractère pernicieux : celui de tenter d'influencer les moteurs.
Cette forme d'incivilité est un délit deprecated :)

Une des techniques en question, soft parce qu'elle a vraiment peu d'importance, consiste à optimiser la fréquence des mots-clés dans une page.

Comme monsieur Jourdain faisait de la prose sans le savoir, beaucoup de gentils webmasters tentent de tromper les moteurs en modifiant leur contenu.
Cela s'appelle optimiser et non plus spamdexer, mais la nuisance est bien la même et l'intention aussi.

On fourre dans le même sac de l'optimisation les techniques de codage rigoureux (la hiérarchie des Hn, par exemple) ET les trucs et astuces qui permettent d'influencer les moteurs sans se faire pénaliser.

Quant aux techniques pénalisantes quand leur mise en oeuvre est repérée, et qui sont du spamdexing pur et dur et non plus soft, on les renomme suroptimisation.
Ainsi, il est permis de promouvoir l'optimisation, qui contient des éléments de spamdexing, et de déconseiller la suroptimisation.
Et de spamdexing, il n'est plus jamais question ...

Je ne suis pas un spamdexeur, je suroptimise !

Entre optimisation (techniques autorisées et techniques non pénalisées) et suroptimisation (ex-spamdexing), tout le monde il est beau, tout le monde il est gentil ... et tant pis pour le Web !
 
WRInaute accro
Szarah tu es bien pessimiste ce soir :(
Ca me rappelle l'histoire du verre à moitié vide pour les uns et à moitié plein pour les autres : c'est le regard qui change.
Pour moi il y a deux webs bien distincts : le web informatif et de loisirs, et le web commerçant.
Il est très dommage que faire un site web aujourd'hui soit lié à bien le préparer pour avoir un max de visiteurs. Sinon on se retrouve avec un beau site avec personne qui vient. Du coup, le web se professionalise, il faut être malin, optimiser, rentabiliser, bref la panoplie de l'économie de marché. Mais la manne est trop belle pour que celui qui voit son petit site monter, monter n'essaye pas de faire quelques euros. On dit que les français sont nombreux à vouloir créer leur entreprise : faire un site rentable est une possibilité.
Ca n'empeche pas de faire de la qualité :)

Pour le web commerçant c'est la jungle avec toutes les catégories d'une chaine alimentaire : les petits, les gros, les pacifiques, les charognards...
Notre google "à rustine" comme tu dis fait ce qu'il peut entre deux achats d'entreprise, mais je crois qu'il avance (malgré quelques lenteurs) en tout cas il est meilleur que ses concurrents connus ce qui fait qu'il reste encore le premier pour un moment.

On parlait dernièrement du web 3.0, eh bien c'est peut-être comme la vie d'une civilisation internet :
1- l'étape de création originelle pure (avant),
2 la phase de développement sauvage et sans pitié ou guerrière, (aujourd'hui)
3 l'avènement d'une société pacifique et évoluée... (demain)

je veux croire en cet avenir d'internet : une méga encyclopédie où depuis mon fauteuil je peux apprendre, voir, rencontrer, créer et partager...
 
WRInaute accro
C'est chouette de te voir intervenir, Thierry Bugs :)

Thierry Bugs a dit:
Szarah tu es bien pessimiste ce soir :(

Ca me rappelle l'histoire du verre à moitié vide pour les uns et à moitié plein pour les autres : c'est le regard qui change.
Pour moi il y a deux webs bien distincts : le web informatif et de loisirs, et le web commerçant.
Il est très dommage que faire un site web aujourd'hui soit lié à bien le préparer pour avoir un max de visiteurs. Sinon on se retrouve avec un beau site avec personne qui vient. Du coup, le web se professionalise, il faut être malin, optimiser, rentabiliser, bref la panoplie de l'économie de marché. Mais la manne est trop belle pour que celui qui voit son petit site monter, monter n'essaye pas de faire quelques euros. On dit que les français sont nombreux à vouloir créer leur entreprise : faire un site rentable est une possibilité.
Ça n'empêche pas de faire de la qualité :)

Le souci, c'est que ces deux webs bien distincts se retrouvent mélangés dans les SERPs, avec en tête les sites qui savent le mieux comment jouer avec les règles.
Ce qui oblige les autres à jouer le même jeu et à lutter avec des armes qu'autrement ils mépriseraient.
Ne pas jouer le jeu entraîne l'invisibilité.

Ce que je trouve dommage, c'est que l'usage des armes se banalise, qu'on finisse par trouver normal de s'armer.
Deux exemples pris au hasard du jour :

Code:
Une idée de software pour les nuages (ou "clouds") ?
et ce thread tout mignon :
https://www.webrankinfo.com/forum/t/densite-des-mots-cle.64122/

Aujourd'hui sur le Web, c'est la tendance guerrière qui s'impose en toute innocence.
Et effectivement, ça me rend pessimiste parce que beaucoup de jeunes ambitions vont se brûler les ailes aux feux du combat.
Ceux qui croient qu'il suffit d'être armé pour s'imposer.

Tu dis
Code:
Ça n'empêche pas de faire de la qualité  :)

Et le problème est là : la meilleure arme, la plus efficace, c'est le contenu.
Je ne dis pas qu'on ne le répète pas assez ici, je dis qu'il arrive qu'on oublie de le dire systématiquement, comme si cela allait de soi alors que pas du tout.

Thierry Bugs a dit:
On parlait dernièrement du web 3.0, eh bien c'est peut-être comme la vie d'une civilisation internet :
1- l'étape de création originelle pure (avant),
2 la phase de développement sauvage et sans pitié ou guerrière, (aujourd'hui)
3 l'avènement d'une société pacifique et évoluée... (demain)

Le troisième stade est souvent très court pour une civilisation, et il annonce la décadence et la chute.
Autrement dit : s'il veut voir survivre sa civilisation, son modèle, son mode de vie, l'humain doit poursuivre le plus longtemps possible la phase 2 et rester en guerre.
S'il accepte de changer de modèle, c'est autre chose.
Mais ça n'est jamais arrivé.

Et dans un contexte où la guerre (qui n'est pas autre chose que la concurrence) génère des profits immenses pour ceux qui l'organisent (les dirigeants, ici les moteurs), il n'y a pas de paix ni d'âge d'or à attendre ni à espérer.
Tu remarqueras que j'évite soigneusement de faire un parallèle avec des événements extérieurs au Web, vous le ferez vous-mêmes :)

Sur le Web, le modèle imposé par les moteurs avec leur système de classement dans les SERPs, ce modèle nous bloque en phase de combat pour l'éternité.
Ils n'y changeront rien : c'est dans ce combat que nous nous livrons entre nous qu'ils trouvent leur intérêt.

Et dire ça, c'est du réalisme.
 
WRInaute accro
Bonjour,
Pour continuer dans le troll, je dirais que l'optimisation soft n'est pas du spamdexing. Pourquoi ? Car tout simplement, remplir et utiliser les balises html quelles qu'elles soient et construire sa page autour d'un schéma et de titre qui mettent en valeur un texte n'est que la logique de construction du web et non une tentative de spam des moteurs.
Dans un exposé fait sur un sujet, on à un thème (qui devient le titre) et des sous parties qui doivent également être mises en valeur, on remplit ensuite les balises description et keyword selon les préconisations du w3c (qui tel l'enseignant du milieu scolaire nous donne une méthodologie).
Et quand le contenu est bidon, c'est au correcteur (le moteur de recherche) à le dire, c'est lui qui doit analyser la pertinence.
Tout ça pour dire que la condamnation des optimisations soft est une erreur, car ces optimisations n'existent pas dans l'absolu, le spmadexing est le spamdexing avec ses techniques habituelles qui visent à tromper les moteurs par des techniques spéciales (doorway, spam de masse, contenu repris sur d'autres sites...) rien de plus.

Pour recentrer sur l'observation de Brigitte2000, je dirais également que c'est faux, il y a encore plus de liens naturels que d'autres, le monde internet dépasse la simple sphère des webmaster aux sites de tailles petites à moyenne que l'on retrouve sur les forums de référencement, il ne faut donc pas s'attarder seulement sur l'analyse des pratiques de ces derniers.
 
WRInaute accro
Restons sur l'exemple bénin de la densité des mots-clés.
serval2a a dit:
Et quand le contenu est bidon, c'est au correcteur (le moteur de recherche) à le dire, c'est lui qui doit analyser la pertinence.
Il est bien incapable de le faire, ce qui permet aux gens de modifier leur contenu pour que ça aille mieux en fonction des limites qu'on connaît aux compétences du moteur.
Code:
Toute modification du contenu dans le but d'influencer le moteur est ... est quoi ?
Du spamdexing :)
On ne sort pas de là !
 
WRInaute impliqué
Szarah a dit:
Et le problème est là : la meilleure arme, la plus efficace, c'est le contenu.
Je ne dis pas qu'on ne le répète pas assez ici, je dis qu'il arrive qu'on oublie de le dire systématiquement, comme si cela allait de soi alors que pas du tout.

là je suis d'accord avec toi,
le web c'est un peu comme dans la vie, il y en a qui croit qu'avec du baratin (du spamindexing ) on peut toujours bourrer le mou aux gens et aux robots.
il y en d'autres qui se disent qu'il faut savoir dire, être présentable et tout pour qu'on nous croit (l'optimisation).
et certains qui croit qu'il suffit de dire pour être lu (les idéalistes).
le problème reste que les frontières sont flous et comme tu l'as dit aussi qu'on peut passer de l'une à l'autre sans vouloir le voir ....

il n'en reste pas moins que pour être lu il faut avoir quelque chose à dire et savoir le dire .... et que donc le référenceur à son utilité sur le web car il sait parler aux robots, être présentable pour les moteurs :lol:
 
Nouveau WRInaute
Je trouve ce topic interessant. Cependant un element m'interpelle. Vous omettez de parler de l'internaute, l'internaute lambda.

Un site a beau être optimisé pour goole afin de sortir premeir sur tel ou tel mot clé, mais si 'linternaute juge que ce qui lui est présenté, ne présente que peu d'interet, comment vas t il réagir? il ne reviendra plus sur le site.

Combien de fois avons nous fait une recherche sans pour autant cliquer sur le premier résultat de google simplement pare ce que le nom de domaine nous est connu est savons pertinamment que son contenu est ininteressant, mal foutu, pas pratique et que le lien ne mérite pas d'être cliqué.

En revanche quel mal y'a t il a optimiser, voire suroptimiser un contenu qui , par sa qualité, mérite d'être vu?

Or certains sites oublient cet élément fondamental, à savoir le jugement que porte l'utilisateur sur le site. Plus celui ci sera interessant, plus de BL qualifié il aura, ce qu'on appel le ROI ou le retour sur investissement...
 
WRInaute accro
je crois bien que tout est "dans la mesure", spamdexing c'est la répétion de combien de mots combien de fois ?
prenons un exemple :
j'écris un livre, j'y passe des mois. Il est enfin fini.
Mes amis me disent c'est super, tu devrais te faire éditer.
Bonne idée, alors j'envoie mes manuscrits, des dizaines qui me reviennent par la poste avec une lettre "désolé"
J'insiste en perdant mon temps et mon argent en timbre, ou bien je me remet en question, rewriting, meilleure écriture, action, sentiments, un peu de sexe...
Et la ça passe mieux, un éditeur me reçoit, on discute il critique encore et au final le livre est très différent de l'origine "optimisé pour la vente" : mais c'est ça ou rien...
Ensuite il y a toute la promo, les séances de signatures les salons pour se faire connaitre, les entretiens et interviews...
Mon exemple ne vous rappelle rien ?
Faire un site web est il si différent ?

A partir du moment où on fait un joli design, une belle orthographe, typo sympa, quelques photos accrocheuses : on optimise.
Si on fait des pages trop longues sur pleins de sujet c'est moins bien que faire plusieurs pages pour le lecteur : on optimise encore.

Alors oui à un web 3.0 où en posant simplement ses pages on est connu et là, c'est bien l'esprit web : les moteurs viennent gratuitement et c'est tant mieux.
Mais je doute qu'on empeche les gens de paufiner, optimiser, pour avoir plus de visiteurs, de clients, d'argent, ...
c'est tellement humain ;)
 
WRInaute passionné
Il me semble que les moteurs prennent relativement bien en compte la densité des mots clés et détectent également pas mal le "bourrage" éventuel, non ?
 
Nouveau WRInaute
Et puis depuis que la notion de référencement est apparue, l'algorithme de google n'a cessé de changer, et les référenceurs n'ont cessé de s'adapter en conséquence. Même si Google venait à changer la manière de populariser un site outre les backlinks, on s'adaptera forcément en conséquence.
 
Nouveau WRInaute
Le business des backlinks est encore d'actualité, certes, mais sérieusement, on peut dire maintenant que google est vraiment le moteur le plus pertinent. Justement par ce qu'il ne prend plus autant en compte le parerank.

J'ai été très surpris de voir des pages de mon site au PR0 passer en premiers sur certain mots clés juste devant des sites au PR bien plus élevé!!! Pourtant les mots clés sont autant cités dans ces pages. La "raison"? mes pages étaient plus pertinentes et google le savait!!!

je dois aussi noté que google ne renvoie jamais sur ma page d'accueil mais sur des pages beaucoup moins référencée mais plus intéressantes.

Donc, franchement, je trouve les techniques de positionnement de Google excellentes. D'ailleurs, je trouve toujours ce que je recherche sur Google. C'est moins évident avec Live Search.
 
WRInaute occasionnel
Pour ma part je pense que l'algorythme des moteurs de recherche tente de ressembler au maximum à des réactions humaines. Optimiser son site pour les moteur s revient donc à l'optimiser pour les visiteurs. Maintenant doit on mettre X% de mots clef dans son texte etc... je ne pense pas.

Je pense qu'il faut toujours garder en mémoire les méthodes d'optimisation mais ne pas en abuser tout simplement car l'algo des moteur de recherche est "secret" et en évolution constante. La technique d'aujourdhui ne sera pas la meilleur de demain. J'ai de plus des exemples de site qui sorte en première position sur des requetes (par exemple un site qui sort 3eme sur 1 millions de résultat sans aucun backlink, aucune optimisation rien, je cherche encore :p )

Les moteurs utilise sans doute des critères totalement inconnus, il possèdent par exemple tous une barre de recherche (googlebar et autre), je pense qu'elle leur permet de récolter de nombreuse informations du genre temps de visites, ajout dans les favoris, etc qui sont des statistiques basé sur le comportement humain et non sur un algorythme...

Je pense qu'il faut donc toujours créer son site dans le but de plaire au visiteurs mais garder en mémoire qu'il ne plaira au visiteur que si ce dernier finis par arriver dessus (donc un minimum de travail pour les moteur est necessaire).
 
Nouveau WRInaute
Puisque je vous dis qu'ils sont intelligents

Bonjour,

N'oubliez pas que Google est actuellement une des plus importantes concentration de cerveau d'élite de la planète. Ils pensent déjà à ce qui vous effleurera l'année prochaine.

Vous pensez bien qu'ils ont compris que le nombre brut de backlinks était obsolète.

Leur but est de trouver des algorithmes qui différencie les backlinks naturels et donc spontanés des backlinks initiés par le webmaster. Honnêtement, ce n'est pas très compliqué : comme souligné ici, la dynamique des liens et leur qualité est très parlantes pour qui sait l'analyser, mais automatiquement.

Et qu'est-ce-qui génère des liens spontanés et de qualité ??

Le contenu bien sûr :D :D

Et je passe sur l'analyse du comportemen de l'internaute sur une page de résultat, avec notamment le dernier lien visité, donc le bon ! Ca, typiquement, c'est difficile à spammer.

Bref, ma naïveté me pousse à penser que contrairement à ce qui se passe partout ailleurs, le bien peut vaincre le mal sur internet. Et souvenez vous que la devise de Google est "dont be evil".
 
WRInaute discret
Plusieurs types d'intérêt se confondent sur le web, comme ailleurs :
1/ des individus et / ou sociétés désirent présentés leurs services : sites "institutionnels",
2/ des individus et / ou sociéts désirent exploiter le web pour fair edu pognon,
3/ des indvidus et / ou sociétés désirent faire partager leurs connaissances par passion / conscience professionnelle / utilité pubique.

Les premiers pollueurs sont de catégorie 2/ : business is business, le Web n'est qu'un maillon.

Les seconds pollueurs sont de catégorie 1/ : ils s'y sont mis parce que les 2/ ont commencé à occuper la place et que ce serait quand même bien que sa société bien à soi soit bien visible elle aussi.

Les troisième pollueur sotn de catégorie 3/ : les 3/ en ont marre de voir des sites peu pertinents et inutiles et se mettent à tenter d'exploiter les mêmes techniques que les 1/ et 2/ pour essayer de contrer le système.

Le problème ce sont que les 3/ n'ont en général pas les moyens de lutter à armes égales avec les 1/ et 2/ et la qualité et la pertinence des sites "visibles" (dans le sens des moteurs de recherches) se dégradent.
 
Olivier Duffez (admin)
Membre du personnel
Ca fait déjà des années que Google ne se base pas sur le NOMBRE de backlinks, mais sur leur qualité. Chez Ranking Metrics notre dernière étude a porté sur 1,3 millions de backlinks, on commence donc à avoir certains statistiques plutôt fiables. Et bien on remarque que Google est le moteur qui analyse le plus en détails les liens pour comprendre ceux qui apportent un plus et ceux qui sont artificiels (cad créés pour le référencement).
Pour ma part je pense que le netlinking reste encore pour longtemps ce qui fait la différence (en référencement) entre plusieurs sites qui ont optimisé à fond leurs contenus.
 
WRInaute accro
Je pense auusi. Pourtant, je donne pas chère des annuaires dans les mois qui viennent comme référencement.

Je pense aussi que GG est plus difficile à berner avec des pseudo liens.

Mais sans tenir compte des liens (qualité, quantité, textes des liens). Comment départager automatiquement 2 pages sur une même recherche ??? En comptant le % de fois où le mot est intégré dans le texte? On va vite retrouver les titres à répétitions et les textes cachés.
 
WRInaute impliqué
Szarah a dit:
C'est chouette de te voir intervenir, Thierry Bugs :)


Thierry Bugs a dit:
On parlait dernièrement du web 3.0, eh bien c'est peut-être comme la vie d'une civilisation internet :
1- l'étape de création originelle pure (avant),
2 la phase de développement sauvage et sans pitié ou guerrière, (aujourd'hui)
3 l'avènement d'une société pacifique et évoluée... (demain)

Le troisième stade est souvent très court pour une civilisation, et il annonce la décadence et la chute.
Autrement dit : s'il veut voir survivre sa civilisation, son modèle, son mode de vie, l'humain doit poursuivre le plus longtemps possible la phase 2 et rester en guerre.
S'il accepte de changer de modèle, c'est autre chose.
Mais ça n'est jamais arrivé.

Et dans un contexte où la guerre (qui n'est pas autre chose que la concurrence) génère des profits immenses pour ceux qui l'organisent (les dirigeants, ici les moteurs), il n'y a pas de paix ni d'âge d'or à attendre ni à espérer.
Tu remarqueras que j'évite soigneusement de faire un parallèle avec des événements extérieurs au Web, vous le ferez vous-mêmes :)

Sur le Web, le modèle imposé par les moteurs avec leur système de classement dans les SERPs, ce modèle nous bloque en phase de combat pour l'éternité.
Ils n'y changeront rien : c'est dans ce combat que nous nous livrons entre nous qu'ils trouvent leur intérêt.

Et dire ça, c'est du réalisme.

La philosophie réaliste. Tout un programme. En fait on n'a pas le choix,
que le choix de garder son éthique personnelle. Le combat définitivement
est entre nous et nous et quand on l'aura gagné...pouf, le monde
disparait. J'ai mis longtemps à comprendre que ce n'était pas du pessimisme pur. En attendant, le web c'est un merveilleux outil de communication et de visibilité. Tout le jeu consiste à arriver à
accroitre sa visibilité. Si on le fait dans un esprit d'excellence: code,
ergonomie, choix judicieux des textes, l'optimisation n'est pas à mon avis
du spamming. C''est meme amusant de découvrir les choix d'indexation faits par les moteurs. Je comprend la difficulté de ce travail et
qu'il y ait de quoi
rendre fou les webmasters.

8) 8) 8)
 
WRInaute impliqué
Neoxy a dit:
Le pagerank mesure la popularité d'un site internet en fonction des backlink et de leur qualité.

Le système de google tient encore debout, et encore pour longtemps je pense.

suffit de regarder comment yahoo search est spammé sur les requêtes un peu concurentielles pour voir que la qualité des résultats de Google provient du fait qu'il donne de - en - d'importance aux backlinks ..
 
WRInaute accro
L'avenir de la pertinence des moteurs face au déluge de liens qu'on leur fourni est l'analyse contextuelle de la page qui fait le lien, ainsi que celle de son rapport réel ou supposé avec le site cible, dès lors les annuaires ont de beaux jours devant eux.
Google semble effectivement avoir pris un peu d'avance par rapport à Yahoo sur ce point.
 
WRInaute impliqué
L'avenir de la pertinence des moteurs face au déluge de liens qu'on leur fourni est l'analyse contextuelle de la page qui fait le lien, ainsi que celle de son rapport réel ou supposé avec le site cible...
+1 Je pense aussi qu'un texte riche sur le thème du mot clé visé est quasiment indispensable (+ que la densité de ce mot ou expression clé).

Il me semble aussi que l'afflux de liens n'est pas important pour le positionnement, mais pour l'indexation (surtout pour un site jeune) il faut encore en passer par là, à mon avis.

A moins de posséder déjà un site très fréquenté par les bots :)
 
WRInaute discret
je n'ai pas lu tout le topic, mais que le message initial...

je n'ai qu'une réponse:


Ce n'est pas pour rien si les webmaster parlent de l'existance d'un certain trustrank, ou comment google adapte la partie "bl" de son algo a la guerre aux bl que nous vivons aujourd'hui

pour moi, c'est claire, les bl ont toujours leur importance, mais, et matt cutts le souligne tres souvent: tous les bl n'ont pas la meme valeur ;)
 
WRInaute occasionnel
Le trustrank quand on est dans la profession on sait qu'il existe, il n'y a pas de doute.

Mais je pense que vous oubliez tous qu'un annuaire à la base c'est censé rendre service :roll:

Je ne vois pas pourquoi Google les élimine dans son algorithme d'indexation.

Vous oubliez aussi que la thématique est très importante et les annuaires servent aussi à définir ce détail. Mon site inscrit sur 3000 pages sur 3000 domaines différents et tous les liens de ces dites pages ayant des liens concernant la même activité, je peux vous assurer que ça sert.

Je serais Google j'essaierais surtout d'oublier les annuaires typiques spam genre mylinea qui sont tous sur le même serveur avec le même nom de domaine.
 
WRInaute accro
Bon, il y a beaucoup d'annuaire "à référencement"...
Le soucis est qu'il existe des annuaires utiles qui permettent de trouver des sites pas forcément bien positionnés... :roll:

Pour ma part je pense que le PageRank est une erreur mais c'est le business de Google alors ça n'est pas prêt de changer tant que commercialement ça sera rentable...

Il faut aussi noter la montée en puissance de ses concurents qui ont redoublés d'efforts cette année, je crois que les résultats de Google commencent à lasser les Internautes avertis car pas si pertinent que ça au final...

Nombreux sont les sites qui ont pris racines en première page des résultats et sont indélogeables...
C'est peut-être ça le problème au fond, le manque d'actualisation...
 
Olivier Duffez (admin)
Membre du personnel
la montée en puissance des concurrents ? elle ne semble pas se traduire en parts de marché en tout cas...
 
Olivier Duffez (admin)
Membre du personnel
ah peut-être mais pour l'instant c'est pas du tout le cas. Regarde dans mes dernières actus les parts de marché, notamment MSN/Live qui ne fait que baisser aux USA...
 
WRInaute accro
C'est sans compter sur Windows Vista qui va équiper les nouveaux PC vendus (De nouveaux Internautes qui vont découvrir le web via Live!)...
Ils font également de la publicité à la télévision, ça n'est pas rien...

Et Yahoo! qui mène une grande campagne de pub sur le net (via AdWords entre-autre)...
Je pense que ce sont des indicateurs qui nous montrent bien que la concurrence est entrée en guerre...

Ca me parait évident qu'ils vont séduirent les Internautes...

Les services proposés par ces moteurs sont équivalent et parfois supérieur à ce que propose Google...
 
Olivier Duffez (admin)
Membre du personnel
Audiofeeline, figure-toi qu'on est nombreux ici à espérer que les challengers de Google lui grignotent enfin des parts de marché.

Mais pour prendre l'exemple de Yahoo, depuis qu'ils ont créé leur propre moteur, et ajouté plein d'autres services, leur part de marché en France n'a fait QUE descendre.

La grande question concerne effectivement Vista : cela va-t-il suffire à renverser la tendance plongeante de Live ?

Mais j'ai l'impression qu'on s'est bien écartés du sujet initial sur les backlinks...
 
WRInaute accro
WebRankInfo a dit:
Mais j'ai l'impression qu'on s'est bien écartés du sujet initial sur les backlinks...
Pas tant que ça car les autres moteurs fonctionnent différemment et donnent des résultats tout aussi pertinents...
Donc on peut en déduire que les BL ne sont peut être pas LA solution...
Un jour vous verrez Google se remettra en question...
Je reste convaincu que leur moteur a un train de retard (Les lenteurs d'indexation par exemple)...
Je suis d'ailleurs en train de préparer un petit comparatif car je suis en train de référencer un nouveau site (WWW)...
 
WRInaute accro
Audiofeeline a dit:
C'est sans compter sur Windows Vista qui va équiper les nouveaux PC vendus (De nouveaux Internautes qui vont découvrir le web via Live!)...
Ils font également de la publicité à la télévision, ça n'est pas rien...

Et Yahoo! qui mène une grande campagne de pub sur le net (via AdWords entre-autre)...
Je pense que ce sont des indicateurs qui nous montrent bien que la concurrence est entrée en guerre...

Ca me parait évident qu'ils vont séduirent les Internautes...

Les services proposés par ces moteurs sont équivalent et parfois supérieur à ce que propose Google...
La concurrence profite généralement au consommateur, à moins qu'il y ait entente sur les prix entre les concurrents (ce qui est illégal).

Mais la question n'est pas là.
Les trois grands moteurs ne paraissent pas avoir la même sensibilité au niveau des paramètres des sites.
Et ça, c'est très ennuyeux.
Un webmaster qui a optimisé son site pour GG (par exemple) est-il un consommateur comme les autres ?
Certainement pas, c'est un partenaire officieux qui va espérer que les choses ne changent pas et ses dires sont suspects de partialité :)
 
WRInaute accro
Oui mais a force d'optimiser son site POUR Google cela posera problème à l'avenir car le moindre bousculement dans les parts de marché et c'est toute une économie qui s'effondre (change/évolue?)...
C'est pour ça que pour ma part je m'intéresse de plus en plus à ces nouvelles technos...
 
WRInaute accro
Bah, il n'y a pas de vrai souci.
Même si les trois grands faisaient un jour jeu égal en conservant des tolérances différentes pour l'optimisation, on multiplierait les sites et c'est tout.
Il n'y a pas de souci à se faire, juste penser à diversifier.
 
WRInaute accro
Audiofeeline a dit:
C'est sans compter sur Windows Vista qui va équiper les nouveaux PC vendus (De nouveaux Internautes qui vont découvrir le web via Live!)...
Ils font également de la publicité à la télévision, ça n'est pas rien...

Et Yahoo! qui mène une grande campagne de pub sur le net (via AdWords entre-autre)...
Je pense que ce sont des indicateurs qui nous montrent bien que la concurrence est entrée en guerre...

Ca me parait évident qu'ils vont séduirent les Internautes...

Les services proposés par ces moteurs sont équivalent et parfois supérieur à ce que propose Google...
Le gros boum a déjà eu lieu
 
WRInaute passionné
Hé bé !

Szarah a dit:
La concurrence profite généralement au consommateur, à moins qu'il y ait entente sur les prix entre les concurrents (ce qui est illégal).

Passons sur la fausseté de l'idée reçue (et abondamment matraquée) et concentrons-nous sur la fin du propos : sachant que les services de Google, Yahoo et Msn sont exactement au même prix, au centime près (0 € pile pour tous les trois ! Etrange coincidence non ?), n'y a-t-il pas là matière à soupçon plus que suffisante pour enquêter sur une éventuelle entente illégale ?

:lol:
 
WRInaute accro
Audiofeeline a dit:
C'est sans compter sur Windows Vista qui va équiper les nouveaux PC vendus (De nouveaux Internautes qui vont découvrir le web via Live!)...
Ils font également de la publicité à la télévision, ça n'est pas rien...

Et Yahoo! qui mène une grande campagne de pub sur le net (via AdWords entre-autre)...
Je pense que ce sont des indicateurs qui nous montrent bien que la concurrence est entrée en guerre...

ou en mode résistance, genre maquis . Ca ressemble plus à une guerre d'arrière garde, idem au niveau régies publicitaires (on attend encore Micro et yahooooo sur le chemin d'adsence en europe (du moins pour les petits sites).

Yahoo vient pas de restructurer niveau direction pour le plaisir de passes dans les actualités webmasters, mais parcequ'ils n'ont pas d'autre choix.
 
WRInaute accro
lafleur2004 a dit:
Hé bé !

Szarah a dit:
La concurrence profite généralement au consommateur, à moins qu'il y ait entente sur les prix entre les concurrents (ce qui est illégal).

Passons sur la fausseté de l'idée reçue (et abondamment matraquée) et concentrons-nous sur la fin du propos : sachant que les services de Google, Yahoo et Msn sont exactement au même prix, au centime près (0 € pile pour tous les trois ! Etrange coincidence non ?), n'y a-t-il pas là matière à soupçon plus que suffisante pour enquêter sur une éventuelle entente illégale ?

:lol:
Moi, je n'ai rien dit :)
 
WRInaute accro
Audiofeeline a dit:
...
Pas tant que ça car les autres moteurs fonctionnent différemment et donnent des résultats tout aussi pertinents...
Donc on peut en déduire que les BL ne sont peut être pas LA solution...
Un jour vous verrez Google se remettra en question...
...

J'espère que tu ne penses pas à msn/Live pour ce qui est de la pertinence
:roll:
ce n'est pas pour rien qu'ils font du ménage en ce moment...
Pourtant ce moteur crawle vite, donne plein de backlinks, le problème vient d'ailleurs.

"Google se remettra en question"
Vu les résultats récents médiamétrie : 70% des pages vues US et 83% des pages vues europe sont pour google. Des actions qui se portent comme un charme, une entreprise financière à très gros bénéf.
Achats divers et variés cette année.
Où est donc le problème ?

Certe, au niveau du moteur de recherche, comme dit Szarah c'est "moteur à rustine"
mais vu qu'il n'y a pas de vraie concurrence,
c'est surement qu'ils pensent qu'il n'y a pas d'urgence.
Nous sommes plus génés que l'internaute lambda,
mais rien n'oblige gg à se remettre en question (hélas)

Pour ce qui est d'optimiser son site pour google, j'ai envie de dire
et pour qui d'autres ? Combien d'entre nous fermeraient leur site
si google n'emmenait pas de visiteurs ? Google éternue et on est tous enrhumé...
Alors on peut critiquer et en etre désolé de cette suprématie,
c'est bien naturel, mais faut aussi rester réaliste.
 
WRInaute accro
Pour la pertinence je pensais plus à Yahoo! qui positionne les sites assez rapidement...
Live est pertinent à sa façon lui aussi, pas parfait mais apporte des résultats fort intéressants... Il mérite qu'on s'y intéresse...
 
WRInaute passionné
Brigitte2000 a dit:
On connaît l'importance actuelle des backlinks (BL) pour le classement dans Google. Ceci dit, je pense qu'une remise en question des BL est à envisager.

En effet, avant l'ère Google, les BL étaient volontaires et désintéressés : les webmasters mettaient un lien vers un site quelconque parce qu'ils étaient séduits par ce dernier et voulaient le faire visiter par leurs propres visiteurs. Le nombre de BL dont bénéficiait un site indiquait réellement que ce dernier était populaire et de qualité. C'était un vote populaire.

Les choses ont bien changé depuis. Les BL ne sont plus volontaires et désintéressés, mais sont le fruit d'âpres négociations mercantiles entre webmasters, ou d'échanges purement intéressés entre les annuaires et les sites. Les BL ont perdu totalement, ou presque, la signification de "popularité" et de "qualité" d'un site.

Dans ces conditions, ne pensez-vous pas qu'il serait temps que Google et autres moteurs de recherche bannissent de leur algo le "critère BL" ?
salut,
je pense que ta reflexion serait bonne si tous les webmasters etaient dans le chasse aux BL, malheureusement/heureusement par rapport au nombre de site existant sur la toile, le referencement ne doit concerner qu'un faible pourcentage en fait...
ce qui rend cette discussion totalement "bof"

ca part d'un point de vue completement subjectif avec comme énoncé "tout webmaster fait du referencement" alors que pas du tout (bien evidement tout lecteur de WRI, etant webmaster/apprenti referenceur en grande majorité)
 
Discussions similaires
Haut