Limite entre optimisation du référencement et triche ?

WRInaute passionné
Bonjour à tous,

Ce post https://www.webrankinfo.com/forum/t/spamdexing-qui-peut-me-repondre.13591/ m'a donné envie de mettre à plat les limites entre la tromperie de l'outil de recherche et l'internaute avec l'optimisation d'un site pour optimiser le référencement.
Je souhaite faire une page là dessus dans mon site, mais vos avis m'intéressent pour qu'on parle enfin (calmement) du sujet qui fâche :wink:

Je lance quelques questions, mais d'autres viendront sans doute :
1) On peut penser que l'utilisation de techniques "que la morale réprouve" soient nécessaires pour permettre de référencer un site difficile à indexer, mais où est la limite ?
2) Quelles techniques peut-on utiliser ?
3) Si certains site peuvent se permettre de telles pratiques pourquoi les autres ne le peuvent ils pas ?
4) La pollution du Web est un souci, mais le Web tel qu'il estpourrait-il fonctionner sans cette pollution ?
5) Quel terme pourrait-on employer à la place de "spamindexing" qui est trop péjoratif, vague et innaproprié ?
6) Quelles sont les solutions pour avoir des résultats de recherche nettoyés des sites pollueurs ?
7) Pourquoi Google (et les autres outils de recherche d'ailleurs) laissent ils les plus gros parasites du Web actifs aussi longtemps ?
 
WRInaute impliqué
Salut thick,
Bon, on peut ne pas être d'accord mais on ne se fâche pas hein? Alors dans le désordre:

- Google n'est pas une oeuvre de bienfaisance. Comme toutes les sociétés commerciales, il a un but: gagner de l'argent. Il n'est pas là pour faire le bonheur sur Terre. Satisfaire ses utilisateurs est pour lui un moyen de garder sa position dominante, mais pas une fin en soi. Le croire serait méconnaître ce qu'est un actionnaire :wink:

- Google a besoin des webmasters plus que les webmasters n'ont besoin de google. Le seul contenu de Google, ce sont les sites web: sans eux il ne serait qu'une coquille vide. En revanche, si demain google perd sa position dominante, les webmasters iront sans problème chercher des visiteurs sur les autres moteurs de recherche.

- A partir de là mon "deal" avec Google ne se place pas sur le plan de la morale, mais relève plutôt de l'alliance tactique et de l'intérêt commun. Tant qu'on reste dans le cadre de la légalité, mélanger morale et référencement est inutile et rend toute discussion stérile, tant cette notion est propre à chacun, et à géométrie variable.

- Mon seul souci est de ne pas décevoir mes visiteurs, et par conséquent de ne pas polluer l'index de google avec des pages non pertinentes. Mais là encore ce n'est pas une fin en soi. Je ne me sens aucune obligation morale envers google. Alors l'utilisation de techniques que Google réprouve officiellement ne me pose pas de problème, pour peu que les visiteurs que google m'envoie y trouvent leur compte.

- Faut il utiliser des techniques que google réprouve pour positionner une page? A partir du moment où la page est pertinente sur un sujet (et que la morale n'est donc plus le problème) le seul critère devient le risque. Google change son algo de temps en temps. Alors à chacun de voir s'il est prêt pour une grande descente aux enfers dans 6 mois ou si au contraire il veut que son site dure. Là encore, il n'existe pas de réponse unique: "efficacité vs risque".

- Le terme spamdexing serait avantageusement remplacé par "sur-optimisation". Mais entre optimisation et sur-optimisation ou est la frontière? L'exemple des échanges de liens est révélateur. Si google donne de l'importance aux backlinks c'est bien pour détecter les sites qui font autorité dans leur domaine. Mais ceci ne marche que si les liens sont naturels, pas si ils sont négociés. et pourtant tout le monde considère aujourd'hui qu'il est normal d'échanger des liens pour se positionner. Alors, tous des spameurs?

- Si j'ai un site commercial et que l'index de google est squatté par des sites qui utilisent des techniques un peu limites (oui ça existe), que dois-je faire? Utiliser moi aussi des techniques borderline ou fermer mon site?

Voilà quelques éléments dans le but de faire avancer ton schmilblick. On reste calme ok? :wink:
 
WRInaute passionné
140 lectures et 1 seule réponse.
Le sujet déclenche la passion de la foule à ce que je vois, mais personne ne semble concerné plus que ça pour participer à la discussion ?

Merci Jan pour ta réponse qui me donne une idée d'article à propos de ta remarque sur les échanges de liens. C'est clair que le deal de backlinks est très loin du concept de départ imaginé par Larry Page et Sergei Bin.

Pour ma part, je crois beaucoup aux outils capables de personnaliser les recherches, afin de se débarasser des spammeurs. http://www.google-filter.com/ est fantastique pour cela. Vous choisissez qui vous ne voulez plus voir dans vos résultats de recherche (en plus de ceux dans la base de google filter) et vous voilà devant des pages de résultats propres.
 
WRInaute impliqué
Mon humble avis...

De bonnes questions tout ça, mais un site, c'est avant tout du contenu...
Se prendre la tete pour son réf 3 heures par jours c'est bien, mais t'y met quoi dedans ???
Si tu as un gros site avec du contenu, les visiteurs te trouveront à long termes...
Et t'as pas trop envies de jouer les capitains kirk de l'optimisation réf (au frontière de l'optimisation, au bord du troue noir-le blacklistage-) pour te faire vider de gg ou autres comme un mal propre...
Autre truc rarement évoqué, eh!, y'a pas que le réf pour ammener des visiteurs sur un site !!!
 
WRInaute accro
thickparasite a dit:
1) On peut penser que l'utilisation de techniques "que la morale réprouve" soient nécessaires pour permettre de référencer un site difficile à indexer, mais où est la limite ?
2) Quelles techniques peut-on utiliser ?
3) Si certains site peuvent se permettre de telles pratiques pourquoi les autres ne le peuvent ils pas ?
4) La pollution du Web est un souci, mais le Web tel qu'il estpourrait-il fonctionner sans cette pollution ?
5) Quel terme pourrait-on employer à la place de "spamindexing" qui est trop péjoratif, vague et innaproprié ?
6) Quelles sont les solutions pour avoir des résultats de recherche nettoyés des sites pollueurs ?
7) Pourquoi Google (et les autres outils de recherche d'ailleurs) laissent ils les plus gros parasites du Web actifs aussi longtemps ?
La réponse partielle a 7 est du fait que la réponse à 1 n'est clairement définie nulle part donc pour répondre a 2 quasiment tout est valable sauf indications contraire sur la notice du moteur concerné. Pour 5 je suggère de laisser "spamindexing" c'est péjoratif et c'est juste.
Enfin pour 6 utiliser des annuaires fait par des évaluateurs humains sérieux : les résultats ne sont pas pollués :lol: c'est la mort des moteurs peut etre. A long terme qui sait ..
 
WRInaute passionné
J'ai un peu de mal à répondre à ton post, thick. Tu attends une position personnelle de chacun (du type "dans ce cadre, moi, je prends les choses comme ci et comme ça") ou bien des idées de fonctionnement général (du genre "si telle et telle pratique étaient interdites, ça se passerait mieux") ?
 
Nouveau WRInaute
Salut thick, :wink:

Je suis en parti d'accord avec "Jan".

Par contre "Théophraste" je te cite:
Se prendre la tete pour son réf 3 heures par jours c'est bien, mais t'y met quoi dedans ???

Peut etre pas 3h / site / jours, mais ca s'appelle le suivi.

Si tu as un gros site avec du contenu, les visiteurs te trouveront à long terme...

Bien sur :wink: et tu dis à ton client ,"Bon et bien votre site il sera positionné dans 3 ans, mais c'est du long terme ! "
Mais oui bien sur le contenu, et le mise en rubrique d'un site, est à la base de tout.

Google est une entreprise commerciale, et le "moteur" de son succès, ce sont les visiteurs, alors pourquoi voulez-vous que google pénalise les sites qui utilisent "les failles de google" pour ce positionner si le visiteur est satisfait du résultat de ses recherches ?

On peut encore re-parler de "cloaking, pages sat, duplicate.
pour le cloaking, si goolge voulait se donner les moyens, il ferait disparaitre cette technique dès demain.

Pour les pages sat si je vends des stylos et que ma page sat est optimisée sur d'autres mots cles à forte occurence ok ca c'est "mal" mais google a déja fait pas mal le ménage.

Mais pour une page sat qui correspond à la recheche d'uin internaute, lui ne s'apercevra même pas qui est sur une page sat, je ne vois pas où est le "bp" ?

Quand au duplicate, chacun a déja joué avec le feu :)

Mais ne pas oublier aussi les autres moteurs en particuliuer "yahoo et Msn" qui amènent des visites non négligeables, car à force de vouloir trop parler la "langue de google", les autres moteurs risquent aussi de ne pas comprendre vos pages.

Jeff, 8) :wink:
 
WRInaute passionné
Oki, réponse et positionnement perso aux questions. Je précise d'entrée aux écorchés qu'il s'agit de ma façon de voir et qu'elle ne contient pas de jugement sur ceux qui voient les choses différemment, pas plus que sur leurs pratiques. 8)

1/ Ma limite réside hélas dans ma faible compétence technique. Sinon, je ne me vois pas user du cloaking ou des pages satellites, j'aime pas. En revanche, la répétition de mots-clés dans une page ou les liens à but pangerankesques ne me rebutent pas, pas plus que la création de milliers de pages bidons avec des liens dessus si je savais les générer.

2/ Toutes celles qu'on aime, tant qu'on n'embête pas trop ses voisins. :roll:

3/ Parce que leurs webmestres ont des inhibitions différentes.

4/ Oui, mais différemment, nous aurions un web bien lisse bien policé bien fliqué. Certains préfèreraient peut-être, moi pas, mais peut-être que je dis ça parce que je n'ai pas d'intérêt là où c'est vraiment la zone.

5/ Sais pas. Arnaque au moteur ?

6/ C'est pas mon problème, mais celui des moteurs de recherche. Si j'avais de vraies idées applicables pour rendre leurs résultats meilleurs, je ne les divulguerais pas ici, je les leur vendrais très cher.

7/ Parce qu'ils s'interdisent au maximum des jugements de valeur, qui les entraîneraient dans des polémiques sans fin et qui nuiraient à leur image.

Voilà, je sais pas si ça t'aide, en tous cas l'échange d'idées est sympa :D
 
WRInaute discret
Enfin pour 6 utiliser des annuaires fait par des évaluateurs humains sérieux : les résultats ne sont pas pollués :lol: c'est la mort des moteurs peut etre. A long terme qui sait ..

Des évaluateurs humains pour quelques milliards de pages :!: :!: :!:
Ils n'ont pas intérêt à dormir les garçons ...
 
WRInaute passionné
Les moteurs ont encore une longue vie devant eux.
Par contre, je pense qu'un moteur avec des options de filtrage/personalisation avancées seraient un gros pas en avant. Même si le moteur ne peut pas penser comme un évaluateur humain, donner des options de personalisation aiderait ce moteur à coller au profil de l'internaute.
 
Nouveau WRInaute
Salut

je suis d´accord avec toi thick, la personnalisation d´un outil de recherche est la meilleure solution et il en existe deja de très pertinents. Le problème c´est l´habitude des internautes à n´utiliser "que" Google...
Mais pour en revenir au sujet, c´est aussi grace a ces "tricheurs" que les petits outils évoqués plus haut sont nécessaires. Et les avancées dans le domaine leur sont donc aussi en partie imputables. j´aurais tendance à dire merci :p

chris
 
WRInaute passionné
Tricheurs, mais tricheurs devant qui ou quoi ?
Si c'est tricher par rapport à Google, franchement qui est ce que ça regarde ?
Si c'est pour bluffer l'internaute, ça c'est moins bien.

Au passage, Fooxx est pas mal du tout et puis cocorico quand même !
 
Nouveau WRInaute
Tricheur était entre guillemets et reprenait simplement ton titre. et en ce qui me concerne, peu importe devant qui ou quoi, mon but étant simplement de rendre à l´internaute des pages pertinentes.
Si le webmaster d un site a du contenu interessant et que pour le mettre en avant sur google par exemple, il emploie des méthodes peu appreciées de ce dernier, ca ne me derange pas du tout, et je serai heureux de récompenser son site en le visitant et en le faisant partager. Si ce site n ést pas interessant, la personnalisation permettra simplement de l´écarter de mes prochaines recherches...

Merci pour el compliment au fait. par contre pour le cocorico ca sonne plutot kikiriki la ou fooxx est né ;-)
 
WRInaute passionné
chrisfooxx, mon commentaire était plutôt général et en suite à ton post plutôt qu'en réponse à celui-çi. J'avais bien vu les guillemets et je suis 100% ok avec toi ;)

Il semble d'après les réponses de chacun qu'on semble admettre que l'optimisation et la triche (non, non, je n'utiliserais pas le terme spamindexing) ont une frontière très fine. Le Web a tellement été pourri par des sites commerciaux aux moyens démesurés et des annuaires stériles que nos sites ont bien du mal à se battre pour arriver à gagner une place au soleil.
Les mentalités et la technique des Webmasters semble évoluer aussi. Pousser l'optimisation jusqu'à blouser un peu l'outil de recherche n'est plus symbole de mise au pilori systématique. Chacun doit se battre avec les moyens dont il dispose pour arriver à ses fins.
J'accuse directement ses mêmes sites commerciaux, dont nous sommes habitués à voir l'URL en 1e page de toutes les requêtes, de nous pousser à utiliser des techniques qui mettent en danger la perennité de nos sites.

On a bien vu pendant le concours "mangeur de cigogne" qu'il était facile et efficace de blouser Google. Cependant, un défaut dans la mise en place de la bidouille, un changement d'algo ou le travail d'un concurrent peuvent provoquer une chute dans les résultats de Google. Jouer avec la sur-optimisation est très délicat et demande une attention tout particulière. A ne pas mettre sous toutes les souris !
 
Discussions similaires
Haut