spam inadmissible

  • Auteur de la discussion Auteur de la discussion elios
  • Date de début Date de début
K
Kounte
Guest
Oui, j'ose même pas taper "pére noël" ?

Sinon, je vois dans son url "/photos-vente_de_jouets_-Jouets.html", or j'ai lu dans un autre topic qu'il vaut mieux mettre des - à la place des _ ? y a une raison particulière ou c'est un amateur ne lisant pas wri :wink: ?
 
WRInaute discret
ouawww 8O 8O 8O 8O 8O 8O 8O

Tout simplement halucinant...inquietant.. desesperant.. :? mais ou va le monde.. de google...
 
B
bjp
Guest
On peut en trouver des milliers comme cela
Recherche : webcam bangkok

Que des sites de c..., avec un super exemple de cloaking pour le second site référence (voyez d'abord la page mis en cache par gg).

Je ne sais plus quoi dire. La moitié de mes visites viennent de ce moteur (GG), mais je commence a avoir honte. Franchement.

J'ai envie de monter un site à la con, acheter un ndd juste pour m'amuser parfois et montrer comme il est facile, finalement, de bluffer ce moteur.

Je suis désolé pour les personnes qui ont une "morale" et déffendent un certain état d'esprit sur ce forum, mais là ...
 
Olivier Duffez (admin)
Membre du personnel
Malheureusement je ne vois vraiment pas à quoi ça sert d'énumérer comme ça des requêtes qui ne donnent pas les résultats attendus.
Google est le roi du trafic, il subit donc de plein fouet l'afflux de spammeurs qui veulent en profiter.
Merci donc d'arrêter de donner des exemples, cela ne fera pas avancer les choses. Vous pouvez remplir des spam reports ou envoyer des mails à Google, mais sur ce forum limitez-vous à un débat et non à une "foire à la délation".

Merci à tous pour votre compréhension.
 
B
bjp
Guest
au contraire, je pense que ce forum devrait le premier dénoncer ce type de pratique.
A moins qu'il y ait contradiction entre les dires et les faits, l'éthique et les pratiques !!!
 
WRInaute accro
bjp a dit:
au contraire, je pense que ce forum devrait le premier dénoncer ce type de pratique.
A moins qu'il y ait contradiction entre les dires et les faits, l'éthique et les pratiques !!!

Ce n'est pas la vocation première de WRI.

Si ce genre de pratiques et les résultats qui s'affichent dans google vous écoeurent... et ne vous en faite pas je n'apprécie pas non plus... alors... libre à vous de créer un site du genre spam-report.com et d'ouvrir un forum à cet effet :wink:

Mais méfiez-vous de la volée de bois vert que vous pourriez recevoir :lol:
 
WRInaute impliqué
Completement scandaleux j'en reviens pas

Imaginons un gosse de 12 ans qui recherche des photos de chiens !
Il tombe la dessus mais c completement deguellasse 8O

Y a des limites *****
 
WRInaute discret
webrankinfo > Je trouve au contraire que c'est plutot bien de prevenir les visiteurs que ce genre de pratique est possible

je suis sur le c*l de voir que ca va bien plus loin que des petites combines pour gagner des places.

Il y a des vies d'enfants en jeu !
C'est gerbant de jouer avec ca
 
B
bjp
Guest
Americas a dit:
bjp a dit:
au contraire, je pense que ce forum devrait le premier dénoncer ce type de pratique.
A moins qu'il y ait contradiction entre les dires et les faits, l'éthique et les pratiques !!!

Ce n'est pas la vocation première de WRI.

Si ce genre de pratiques et les résultats qui s'affichent dans google vous écoeurent... et ne vous en faite pas je n'apprécie pas non plus... alors... libre à vous de créer un site du genre spam-report.com et d'ouvrir un forum à cet effet :wink:

Mais méfiez-vous de la volée de bois vert que vous pourriez recevoir :lol:
Ce n'est pas la vocation de WRI de masquer ce genre de pratique j'espère et de ne dire que du bien de GG !!! Il est vrai que l'amour rend aveugle.

Perso, il m'apporte des visiteurs, de l'argent aussi, mais cela ne suffit pas à tout excuser.
 
WRInaute accro
WebRankInfo a dit:
Malheureusement je ne vois vraiment pas à quoi ça sert d'énumérer comme ça des requêtes qui ne donnent pas les résultats attendus.
Google est le roi du trafic, il subit donc de plein fouet l'afflux de spammeurs qui veulent en profiter.
Merci donc d'arrêter de donner des exemples, cela ne fera pas avancer les choses. Vous pouvez remplir des spam reports ou envoyer des mails à Google, mais sur ce forum limitez-vous à un débat et non à une "foire à la délation".

Merci à tous pour votre compréhension.
 
WRInaute impliqué
personnellement je ne vois pas pourquoi Google ne fait pas le ménage,
on est d'accord il y a des millions de dollars en jeu,
de plus Google c'est pas l'agence du coin, il a des dizaines d'employés,

alors pourquoi ne pas embaucher 5 ou 10 personnes qui ne font que nettoyer
le net, quel représenterait ce cout par rapport aux millions de dollars ???

ca va bouger ou alors Google c'est sur de gros problèmes, sans parler de toutes
les plaintes qui s'accumulent de jour en jour (pub,licences,...)
 
WRInaute discret
grave, mais le plus grave c'est

Ca :

http://www.journaldunet.com/chat/retrans/040114_dionisdusejour.shtml

Ca fait peur de voir un député être aussi sûr de lui et donneur de leçon (je cite, en vrac, "Franchement, j'éclate de rire en lisant cette question ...", "Personne ne croira que ...", "Non, trois fois non !...", "Ce serait vraiment un comble si ...", "Je répète ...", etc ...)

Alors qu'il dit des énormités plus grosse que lui :

"... Comment pensez-vous que Google peut vous proposer en quelques secondes l'identification de sites pertinents d'une de vos requêtes et que les FAI ne pourraient faire de reconnaissance textuelle. Franchement, cela ne tient pas debout ! ... "

Mais bien sur, ce député est heureusement bien informé : "... je surfe beaucoup ..."

Bref, independemment de la position que l'ont peut avoir sur la LEN, ce qui m'inquiète profondemment c'est que cette loi est défendue par des personnes manifestement pas insuffisament informées et ne connaissant pas la réalité d'internet :-(((

Je vous encourage donc :
- a lire cet interview de Jean Dionis (afin de vous faire votre propre opinion et ne pas vous arrêter aux extraits que je cite, qui sont, forcement, sorti d'un contexte)
- a envoyer, tout comme moi, une copie de ce post (ou un lien) a ce cher député, afin qu'il comprenne que son formidable exemple de la puissante technologique qu'est sensé être Google, renvoie des sites porno lorsque l'on recherche des sites de jouets ..........
quel pertinence !!!!!

Oui, tout ca ne tient effectivement pas debout :-((
 
WRInaute discret
caro a dit:
alors pourquoi ne pas embaucher 5 ou 10 personnes qui ne font que nettoyer le net, quel représenterait ce cout par rapport aux millions de dollars ???

Peut-etre tout simplement car cela n'est pas 5 ou 10 à personnes qu'il faudrait, mais plutot 500 ou 1000 :-((

La seule solution a ce probleme est "la concurrence". Lorsque Google ne representera plus qu'à peine 20% des affluents, ce probleme se resoudra de lui même.
 
WRInaute impliqué
Je suis d'accord pour dire qu'il ne faut pas faire une énumération mais je pense que c'est aussi le rôle d'un forum comme WRI de rester informé sur l'état des moteurs de recherche.

L'exemple de la recherche sur "Photos de chiens" est édifiant et proprement hallucinant.Chacun peut en tirer les conclusions qu'il désire, mais c'était un exemple intéressant à donner.
 
WRInaute accro
bon, loin de moi l'idée de lancer des polémiques a 2 balles mais par rapport a cette requete, le resultat n'est-il pas conforme aux termes de la requete ?

ok ok, pas taper.. Mais bon, on est d'accord que le theme des premiers de la liste est fort peu recommandable mais bon... continuons de reflechir...

ok pour mettre un filtre sur les animaux du zoo, ca prendrait 5 minutes...
ensuite ? allez, un filtre sur les themes pan-pan-cul-cul
ensuite ? ah bin je n'aime pas les sites commerciaux... allez, zou, un filtre.

ensuite
ensuite
ensuite

alors, qu'en pensez vous ? :mrgreen:

zen zen ok ? ;-)
 
WRInaute occasionnel
caro a dit:
personnellement je ne vois pas pourquoi Google ne fait pas le ménage,
on est d'accord il y a des millions de dollars en jeu,
de plus Google c'est pas l'agence du coin, il a des dizaines d'employés,

alors pourquoi ne pas embaucher 5 ou 10 personnes qui ne font que nettoyer
le net, quel représenterait ce cout par rapport aux millions de dollars ???

ca va bouger ou alors Google c'est sur de gros problèmes, sans parler de toutes
les plaintes qui s'accumulent de jour en jour (pub,licences,...)

5 à 10 personnes pour faire le ménage sur plus de 3 milliards de pages!

Nan plutôt une sorte de commision qui s'occuperait de référencer les sites ultra-XXX qui font du spamdexing sur des mots très courants...
 
WRInaute impliqué
mahefarivony a dit:
bon, loin de moi l'idée de lancer des polémiques a 2 balles mais par rapport a cette requete, le resultat n'est-il pas conforme aux termes de la requete ?

Pour toi peut-être... :)

Bon sérieusement:
Evidemment que c'est conforme... si ce n'était pas le cas, cela voudrait dire que le moteur est buggé.
Le problème n'est pas là, le problème est "est-ce que Google arrive parvient à détecter les utilisations détournées de ses critères de sélection"
Le problème est que de plus en plus il faut sauter les premiers résultats.
D'ailleurs, qui peut utiliser la touche "j'ai de la chance" aujourd'hui ?
 
Nouveau WRInaute
Les exemples de Google-Filter et plus récemment de Meceoo (métamoteur lancé par Abondance) montrent à mon sens une des voies possibles pour Google.

Au lieu de mobiliser ses développeurs sur de nouvelles fonctions à l'utilité discutable, Google pourrait fort bien proposer la possibilité de filtrage personnalisé des résultats.
Chaque utilisateur aurait une liste de domaines à exclure mentionnés dans ses préférences et enregistrés dans son cookie.
On pourrait imaginer la possibilité de partager les listes d'exclusion, de créer des listes normalisées (comme pour le spam) et de les appliquer par défaut aux utilisateurs n'ayant ecxclu aucun site.

Ca réglerait le problème, mais ça serait aussi le constat de l'échec des paramètres utilisés par Google pour juger de la pertinence des documents indexés.
On peut espérer que le débat soit en cours chez Google ou bien qu'ils soient en train de concocter un algo révolutionnaire qui évitera pendant un bon moment qu'on tombe sur des sites x spammeurs en tapant "photos de chiens".

Au fait, je ne sais pas si vous avez remarqué, mais les sites qui sont positionnés de cette façon émanent pour la plupart de peu de sociétés ou personnes (les déposants des noms de domaines utilisés).
 
WRInaute discret
Zorglub a dit:
Chaque utilisateur aurait une liste de domaines à exclure mentionnés dans ses préférences et enregistrés dans son cookie.
On pourrait imaginer la possibilité de partager les listes d'exclusion, de créer des listes normalisées (comme pour le spam) et de les appliquer par défaut aux utilisateurs n'ayant ecxclu aucun site.

Ca c'est la vision de qqu'un de "mobilisé". Que fais-tu de l'immense majorité des utilisateurs "moyens" ?
Sans parler du coté rébarbatif et quasi-innaplicable de la solution que tu avances (sauf si elle est directement intégrée par google), elle s'apparente au blacklistage des IP pour eviter les spams par mail. Or on sait bien que l'efficacité d'une telle méthode est très relative et qu'elle engendre des abus : blacklistage abusifs ou erronés .....

Non, je pense que l'unique voie logique est la concurrence : si google cesse d'être l'unique moteur, alors, en pratique, les "petits malins" ne pourront plus jouer à leur petit jeu car celui-ci n'en voudra plus la chandelle. Actuellement ca "vaut le coup" (malgré le risque potentiel de blacklistage) d'investir dans du spamdexing sur google car celui-ci truste 80% des recherches ....

De toute façon, spamdexing ou autre, une telle situation de monopole ne peut QUE conduire à des dérives.
Microsoft a bien été condamné pour abus de position dominante, alors pourquoi pas Google ?
 
WRInaute discret
mahefarivony a dit:
JC91 a dit:
Microsoft a bien été condamné pour abus de position dominante, alors pourquoi pas Google ?
comme si c'etait de sa faute.

Incroyable ! A t'écouter on croirais qu'ils n'ont rien fait, et que cette situation est arrivée par hasard, LOL ....

Personne ne l'ai a obligé a signer des accords ou a absober d'autres boites ;-)
Et à partir du moment où il n'y a pas de regulation, ils ont bien raison d'en profiter !

Heureusement, Yahoo, semble vouloir mettre le paquet pour réellement concurrencer Google. Deux acteurs ca sera deja mieux qu'un seul.

Quand Lagardère rachete Editis, la commission européenne étudie la situation pendant 1 an et oblige Lagardère à revendre 60% d'Editis afin de ne pas créer une situation monopolistique.
Quand Google signe un accord avec Yahoo ... personne ne dit rien: il n'y a aucune authorité pour réguler celà ...

Je ne dit rien d'autre que ca: les dérive actuelles sont la conséquences directe du monopole de Google. Alors vous qui êtes si prompt à cracher sur MSIE, pourquoi n'êtes vous pas aussi prompt à dénoncer le monopole de Google (dont la qualité devient insatisfaisante).
 
H
Haq
Guest
mahefarivony a dit:
oh la la, y a de quoi répondre la.. mais je m'abstiendrai :lol:

Moi je veux bien une réponse, parce que malgré la bonne opinion que j'ai de Google, on ne peut pas nier que leurs résultats ne sont plus ce qu'ils étaient et que leur quasi-monopole est inquiétant.

J'attends qu'un autre moteur prenne le relais, malheureusement les "nouveaux" moteurs qui apparaissent semblent tous pires les uns que les autres... à l'exception de Alltheweb, très peu utilisé par les francophones.
 
WRInaute accro
bon déja google est gratuit et ca..... ca le rend plus que sympathique :mrgreen: (allez, fin de la discussion sur ce point sinon on va s'embarquer dans les ecrans bleus, les services pack, les nid a virus , etc..)

je suis incapable de dire comment sont les autres moteurs dans la mesure ou je n'utilise que google. en ce sens, mon jugement est peut etre faussé parce qu'en tant que webmaster, je sais exactement quelle requete il faut taper pour avoir le résultat que j'attends.

mais effectivement, du point de vue de l'internaute "normal" les choses peuvent etre différentes.. mais bon, statistiquement parlant, au vu de la part de marché, on peut quand meme dire que la majorité y trouve son compte non ?
 
WRInaute passionné
La seule manière de pouvoir concurrencer GOOGLE c'est d'être meilleur que lui, et bon malgré tout ce que l'on peut entrendre je n'ai pas trouvé de moteur qui puisse me donner des résultats aussi précis et aussi rapidement.
après c'est sûr c'est comme à l'époque de ALTAVISTA il faut s'avoir utiliser les requêtes, on ne met plus de AND ou de OR mais on essaie d'imaginer les mots clés importants
 
WRInaute discret
mahefarivony a dit:
on peut quand meme dire que la majorité y trouve son compte non ?

Non, je ne pense pas.

Interroges autour de toi des gens de tous horizons (et pas que des gens familier avec l'informatique et internet): peut-être sera tu surpris, mais google est tout sauf "satisfaisant".

Effectivement, comme toi, en tant qu'utilisateur "chevronné", je sais quels mots-clés taper lors d'une recherche, je sais "interpreter" et "sauter" certains résultats, etc ...
Mais tout ca est loin d'être intuitif et évident, au contraire cela résulte d'une pratique relativement assidue et très spécifique de google.

Si je fais abstraction de cela, force est de constater que :
- google renvoi des tonnes de resultats
- les premiers resultats renvoyés sont souvent peu pertinents (qd ce n'est pas pire ... site porno et autres cochonneries)
- entre les 'liens commerciaux' en haut, sur le coté et tous les sites 'parasites', il faut visiter N sites inutiles avant de tomber sur le "bon"

Vous trouvez ca satisfaisant pour le commun des internautes ?
 
WRInaute discret
mahefarivony a dit:
doivent etre neuneu les 70% d'internautes qui utilisent google :mrgreen:

Tu peux voir les choses comme ca, si tu veux.

Ou peut-etre qu'ils font autres choses dans la vie que de passer leur temps derriere un ecran comme nous ;-)

Le temps moyen de surf, doit etre de l'ordre de 10h/mois (de memoire) ... pas de 10h/jour ;-)
 
WRInaute accro
JC91 a dit:

ah non, ca c'est quand il fait beau dehors :mrgreen:

bon, allez, sur le fond, je suis d'accord avec toi, y a des résultats de requete qui laissent plus qu'a désirer, on espere que le tir sera rectifié et plus vite que ca encore !
pourquoi ? bin avec le yahoo qui se pointe a l'horizon, ca va etre chaud :-)

:arrow: faut pas se leurrer non plus, si le yahoo décolle, il sera tres tres tres vite confronté aux memes problemes que google.

ce qui sera interessant de suivre ce sera la "défense" que chacun mettra en oeuvre pour lutter contre le fléau.
 
Olivier Duffez (admin)
Membre du personnel
on ne va tout de même pas condamner Google à cause de la médiocrité des résultats sur certaines requêtes (même si elles sont plus nombreuses aujourd'hui malheureusement) ???
sinon la plupart des autres moteurs devraient mettre la clé sous la porte ;-)
 
WRInaute discret
WebRankInfo a dit:
on ne va tout de même pas condamner Google à cause de la
médiocrité des résultats sur certaines requêtes (même si elles sont plus
nombreuses aujourd'hui malheureusement) ???
sinon la plupart des autres moteurs devraient mettre la clé sous la porte ;-)

Condamner non.

Mais arreter de l'encenser, oui

Et jouer le jeu de la concurrence, oui aussi : ne nous laissons pas endormir
dans nos habitudes d'utilisation ;-)

Oui, je sais, la plupart des autres moteurs sont pitoyables. Mais si des voix
s'élèvent pour dire que google n'est pas (plus) la panacée, cela ne pourra
qu'encourager d'autres acteurs à investir (qui a dit Yahoo ?) pour essayer de
supplanter Google (ce qui paraissait complétement utopique il y a seulement
qques mois).


Bon je sais, je ne suis pas sur le bon site pour dire ca ;-)
 
Olivier Duffez (admin)
Membre du personnel
JC91 a dit:
WebRankInfo a dit:
on ne va tout de même pas condamner Google à cause de la
médiocrité des résultats sur certaines requêtes (même si elles sont plus
nombreuses aujourd'hui malheureusement) ???
sinon la plupart des autres moteurs devraient mettre la clé sous la porte ;-)

Condamner non.
C'est pourtant bien ce que tu proposais :?
J'attends avec impatience que le "trio" Fast/AllTheWeb-Altavista-Inktomi accouche de quelque chose :roll:
 
WRInaute discret
WebRankInfo a dit:
JC91 a dit:
Condamner non.
C'est pourtant bien ce que tu proposais :?

Entre temps la discussion à légèrement évoluée ;-)

Donc pour résumer mon propos, je ne dis pas qu'il faut condamner Google pour la médiocrité de certains résultats, LOL !
Mais qu'il faudrait qu'il y ai des règles 'anti-trust' pour empecher sur internet les monopoles tel que celui de Google (et au besoin obliger Google a certaines cessions comme Microsoft doit le faire). Mais avant qu'il y ai une condamnation à ce niveau, il faudrait déjà qu'il y ai des règles .... Le problème c'est que quand il s'agit de livres ou de journeaux, un éditeur qui truste plus de 50% du marché ca fait réagir asssez rapidement, alors que si ca se passe sur internet ... c'est encore la jungle ...

Mais bon, j'arrete là, puisque la position hégémonique de Google ne choque apparement personne ...
 
WRInaute occasionnel
JC91 a dit:
Mais bon, j'arrete là, puisque la position hégémonique de Google ne choque apparement personne ...

En fait, tout le monde ici se sert de la position hégémonique de Google.
Et si 10 moteurs avaient 10% du marché, avec des algos différents, çà serait la merde pour notre référencement...

Que ce soit GG ou un autre moteur, il y aura toujours des spammeurs; cela ne changera rien aux résultats de certaines requètes...
 
WRInaute discret
tada a dit:
JC91 a dit:
Mais bon, j'arrete là, puisque la position hégémonique de Google ne choque apparement personne ...

En fait, tout le monde ici se sert de la position hégémonique de Google.
Et si 10 moteurs avaient 10% du marché, avec des algos différents, çà serait la merde pour notre référencement...

La merde ???? Mais c'est quoi ton but ?????
- avoir un site qui apporte un réel service aux internautes
- avoir un site "bien référencé"

Malheureusement, et particulierement ici, j'ai l'impression que beaucoup oublient la "base" et optent pour la 2eme reponse.

Alors evidement c rageant d'avoir un bon site et que celui-ci ne soit pas visible car relegué en 12e page de google à cause de sites 'minables' qui ont mis toutes leurs ressources (temps, argent, ...) dans le developpement de leur 'referencement' plutot que sur leur contenu ...
Alors la faute a qui ? au referencement, non ?

On sait bien que l'idée qui se cache derrière le "réferencement" s'est de "faire croire qu'un site est plus interessant qu'un autre en essayant de bien le "positionner" ....
et bien evidement, totalement independament de la qualité et de la pertinence du dit site :-(

Donc pour moi la solution (l'espoir) c'est qu'un jour les moteurs se baseront sur des critères qui rendront totalement inopérantes les "techniques de referencement".
Et la tout les problemes seront enfin resolus :-)

Hum ... je ne voulais pas en arriver là, mais pour moi, referencement et spamdexing c'est la même chose ... Et ne me faites pas dire ce que je ne dis pas ... je ne juges pas de la moralité des uns ou des autres .... C'est comme le "clonage therapeutique" et le "clonage humain", c'est la même chose sauf que dans un cas il y a des "gentils" qui veulent l'utiliser a "bon escient" et des "mechants" qui veulent l'utiliser pour faire du fric ....
 
WRInaute occasionnel
JC91 a dit:
Donc pour moi la solution (l'espoir) c'est qu'un jour les moteurs se baseront sur des critères qui rendront totalement inopérantes les "techniques de referencement".

ha, tu viens d'inventer ... Yahoo ! :lol: (sauf que çà s'appelle un annuaire)

Si tu considères que référencement = spamdexing, c'est que tu n'as pas dû lire le contenu de ce site...
 
WRInaute discret
tada a dit:
JC91 a dit:
Donc pour moi la solution (l'espoir) c'est qu'un jour les moteurs se baseront sur des critères qui rendront totalement inopérantes les "techniques de referencement".

ha, tu viens d'inventer ... Yahoo ! :lol: (sauf que çà s'appelle un annuaire)

Si tu considères que référencement = spamdexing, c'est que tu n'as pas dû lire le contenu de ce site...

N'importe quoi ... l'annuaire Yahoo c'est encore pire: le référencement humain est ponctuel donc non représentatif : de plus en plus de sites de l'annuaire Yahoo sont mort ... et les liens ne sont même pas retirés .... alors qu'avec un robot a 2 balles Yahoo pourrait "au moins" faire le menage ... mais bref, encore une fois ce n'est pas le sujet (apparement tu es le spécialiste de la 'déformation de propos'). C'est un procédé particulièrement désagréable (et intellectuellement malhonnête) d'attaquer qqu'un en déformant ses propos ...

Mais je persiste: référencement = spamdexing
C'est le même metier. De même que dans le sport, le medecin qui travaille dans la détection du dopage fait le même metier que celui qui met au point des produits dopants.
Et les deux gagnent de l'argent "grâce" au dopage ...
L'un est le "bon" l'autre le "méchant", mais ca c'est une autre histoire.
Alors si tu veux que je dise que tu es un gentil parceque tu fais du référencement et non du spamdexing, je peux le faire si ca te fait plaisir et te rassure, LOL.

Et s'il faut revendiquer, je revendique pour qu'il y ai des moteurs qui prennent en compte :
- la durée d'existance du site
- son nombre de visiteurs (approximativement)
- la fréquence de ses actualisations (approximativement)
- la durée des visites
- le taux clic parmi les réponses affichées lors d'une recherche
etc ...

Bref, d'une manière générale, AUCUN critère sur lesquels le webmaster du site puisse avoir un controle direct.

Donc tout, plutot que des balises H1 falsifiées, que des mots-clés savament disposés et autres artifices ... qu'ils soit"légaux" ou non. Et qu'enfin il n'y ai plus ce diktat du référencement ... que les designers n'aient plus a se torturer le cerveau avec des contraintes du style ... "oulala, mais si je mets du flash, des frames, du texte/image, du javascript, etc ... ca ne sera pas lu par google".
Et que la priorité soit accordée au contenu.

Aujourd'hui, je ne peux que constater qu'il est devenu parfois IMPOSSIBLE de trouver des sites contenant réellement de l'information, car ils sont relegués en 120e position et qu'a moins d'être déjà familié avec le sujet recherché, il est très ardu de faire le tri :-(
Il n'y a pas si longtemps un petit site perso pouvait émerger et se faire un nom si son contenu était pertinent. Aujourd'hui ce n'est plus possible, sauf si le webmaster passe des heures pour 'positionner' son site (au detriment du travail sur le contenu :-(
Je constate aussi que des gens sont prêt à se battre ou se mettent a pleurer ou hurler parceque leur petite position sur google a changée ....
Cette situation est tout simplement puante ... et les causes en sont l'hégémonie de Google et le référencement (dans son ensemble).

Bonne semaine quand même ;-)
 
WRInaute impliqué
JC91 a dit:
Et s'il faut revendiquer, je revendique pour qu'il y ai des moteurs qui prennent en compte :
- la durée d'existance du site
- son nombre de visiteurs (approximativement)
- la fréquence de ses actualisations (approximativement)
- la durée des visites
- le taux clic parmi les réponses affichées lors d'une recherche
etc ...

Et tu ne croit pas qu'a partir du moment ou ton usine a gaz sera en route les webmaster vont se mettre a :

-Racheter des noms de domaine existant depuis longtemps
-monter des robots qui visiteront automatiquement leur site
-y rester longtemps et visiter toutes les pages (en se faisant passer pour un I.E avec des IP différentes par ex)
-faire des proc de mises a jour automatiques
-et pourquoi pas payer des neuneus a cliquer chez eux pour faire grimper le taux de clic.

Le probleme c'est que lorsqu'il y a enjeux économique, il y a compétitivité, et a chaque nouvelle regle chaqu'un réfléchit a comment coller au mieux a cette regle - seulement certaines brebies galleuses réfléchissent a comment la gruger !
 
WRInaute impliqué
JC91 a dit:
Et s'il faut revendiquer, je revendique pour qu'il y ai des moteurs qui prennent en compte :
- la durée d'existance du site
- son nombre de visiteurs (approximativement)
- la fréquence de ses actualisations (approximativement)
- la durée des visites
- le taux clic parmi les réponses affichées lors d'une recherche
etc ...

Et tu ne croit pas qu'a partir du moment ou ton usine a gaz sera en route les webmaster vont se mettre a :

-Racheter des noms de domaine existant depuis longtemps
-monter des robots qui visiteront automatiquement leur site
-y rester longtemps et visiter toutes les pages (en se faisant passer pour un I.E avec des IP différentes par ex)
-faire des proc de mises a jour automatiques
-et pourquoi pas payer des neuneus a cliquer chez eux pour faire grimper le taux de clic.

Le probleme c'est que lorsqu'il y a enjeux économique, il y a compétitivité, et a chaque nouvelle regle chaqu'un réfléchit a comment coller au mieux a cette regle - seulement certaines brebies galleuses réfléchissent a comment la gruger !
 
WRInaute discret
ludoanimation a dit:
Et tu ne croit pas qu'a partir du moment ou ton usine a gaz sera en route les webmaster vont se mettre a :
-Racheter des noms de domaine existant depuis longtemps
Ca existe deja depuis longtemps ... à commencer par NSI qui fait de la retention de domaine expirés.
Dans ce cas, le gars doit souvent payer plus cher ou attendre un moment, et il y a alors changement du registrant => simple remise a zero du compteur temps, aucun pb !

ludoanimation a dit:
-monter des robots qui visiteront automatiquement leur site
Si ils ont du fric a depenser en gaspillant leur BP et leur CPU, libre a eux

ludoanimation a dit:
-y rester longtemps et visiter toutes les pages (en se faisant passer pour un I.E avec des IP différentes par ex)
Il va leur falloir une sacré collection d'IP, c'est une denrée qui devient rare !

ludoanimation a dit:
-faire des proc de mises a jour automatiques
Ca existe deja aussi, ca fait partie des critères de 'contenu', ce critère doit de toute facon être négligeable, c'est un mauvais exemple que j'ai donné dans la liste, effectivement :-(

ludoanimation a dit:
-et pourquoi pas payer des neuneus a cliquer chez eux pour faire grimper le taux de clic.
Parce que comme tu le soulignes fort justement, c'est une question de rentabilité economique.
Il y a qques années, certaines boites (respublica par exemple) payaient des gus pour animer leurs forums ... cela c'est vite revélé completement stupide et absolument pas rentable. Maintenant si des spameurs veulent reprendre ce concept, tant mieux pour eux, LOL

De tels critères rendraient 'ineconomiquement rentable' le spamdexing, mais pour ca, le mieux est encore que le monopole de google disparaisse.

Pour ce qui est de l'usine à gaz, je ne vois pas trop ?
C'est deja une usine a gaz, LOL
 
WRInaute discret
JC91 a dit:
Mais je persiste: référencement = spamdexing
C'est le même metier. De même que dans le sport, le medecin qui travaille dans la détection du dopage fait le même metier que celui qui met au point des produits dopants.
Et les deux gagnent de l'argent "grâce" au dopage ...

Bien que je ne sois pas du tout d'accord avec toi jc91, il y a une certaine logique dans ce que tu dit ;)


JC91 a dit:
Et s'il faut revendiquer, je revendique pour qu'il y ai des moteurs qui prennent en compte :
- la durée d'existance du site
- son nombre de visiteurs (approximativement)
- la fréquence de ses actualisations (approximativement)
- la durée des visites
- le taux clic parmi les réponses affichées lors d'une recherche
etc ...

Bref, d'une manière générale, AUCUN critère sur lesquels le webmaster du site puisse avoir un controle direct.

En tant que référenceur, je suis favorable à ce que chacun de ces critères soient intégrés aux algos des moteurs.
Par contre, tu ne fera jamais un algo pertinent à partir de ces seuls critères...
Il sera toujours nécessaire qu'une partie des critères soient liés au contenu (contenu des pages pour le moment, puis du flash dès que les "moteurs majeurs" daigneront s'en soucier)
Introduire ces nouveaux critères ne tuera donc pas le référencement, désolé jc91 ;)
Au contraire, ça en renforcera l'intérêt !

JC91 a dit:
Et qu'enfin il n'y ai plus ce diktat du référencement ... que les designers n'aient plus a se torturer le cerveau avec des contraintes du style ... "oulala, mais si je mets du flash, des frames, du texte/image, du javascript, etc ... ca ne sera pas lu par google".

Allons, allons... quel diktat des référenceurs ?
Pour ma part, je ne suis pas partisan de brimer la créativité des designers. Au contraire ! chacun son métier.
D'ailleurs aucune des contraintes que tu cites n'est un obstacle réel.
Mon propre site est en frames, avec du javascript, un peu de texte/image et même un chouia de flash, ce qui ne l'empêche pas d'être référençable :)

JC91 a dit:
Je constate aussi que des gens sont prêt à se battre ou se mettent a pleurer ou hurler parceque leur petite position sur google a changée ....

ça m'a toujours fait beaucoup rire, pareil pour ceux qui surveillent anxieusement leur Pagerank à chaque GD :lol:
Mais ce genre d'hystérie collective est bon pour le business, donc je vais pas m'en plaindre ;)
 
M
maxxxx
Guest
bjp a dit:
On peut en trouver des milliers comme cela
Recherche : webcam bangkok

lol, pour rechercher webcam bangkok, faut deja etre pervers lol dans ce cas precis je suis pas surpris ;-)
 
WRInaute discret
Merci pour ta réponse constructive et pertinente, Stéphane :-)
(ce n'est pas toujours le cas ici :-(

Je suis globalement d'accord avec ce que tu dis.

Juste un petite précision afin de ne pas passer pour un sauvage:
stephane a dit:
JC91 a dit:
Et qu'enfin il n'y ai plus ce diktat du référencement ... que les designers n'aient plus a se torturer le cerveau avec des contraintes du style ... "oulala, mais si je mets du flash, des frames, du texte/image, du javascript, etc ... ca ne sera pas lu par google".
Allons, allons... quel diktat des référenceurs ?

Je parle de "diktat du référencement", pas de "diktat des référenceurs", c'est pas pareil ;-)
Les gens qui bossent dans le référencement ne font que suivre l'evolution du phénomène ...

Ce que veux dire, on le trouve également dans l'argumentation sur ton site (je cite):
"des astuces techniques permettant d'améliorer le classement d'un site",
"rend plus que jamais nécessaire le recours à un prestataire spécialisé"

En clair, il ne devient donc plus possible d'utiliser "librement" toutes les techniques que l'on a évoquées, ni de créer un site sans intégrer dès la conception, les impératifs du référencement (et même plus spécifiquement, les impératifs du positionnement dans google) ....
Avant on voyait sur les sites "Designed for Netscape" ou "Optimized for 800x600", maintenant il faut plutot écrire "Designed for Google" ...........

C'est un peu comme si Renault savait que le journaliste d'Auto Plus aime tel ou tel chose sur une voiture et qu'il contruisait un modèle spécifiquement pour ce journaliste afin que celui-ci ecrive un tres bon papier et qu'au final pleins de client achètent la voiture sur ses conseils ........
C'est marrant, je suis sûr que cette comparaison va être réfutée par beaucoup ... pourtant c'est exactement ce qui est en train d'arriver pour les sites internet ....


stephane a dit:
ça m'a toujours fait beaucoup rire, pareil pour ceux qui surveillent anxieusement leur Pagerank à chaque GD :lol:

Finalement on dit un peu la même chose, sauf que dans ta position, tu exploites le phénomène, donc tu ne peux que l'accepter (même si tu sembles avoir un regard assez lucide sur la situation, assez .... gogolesque) :lol:
 
Olivier Duffez (admin)
Membre du personnel
JC91, tu trouves si étonnant que ça que l'on discute de techniques ou d'astuces permettant d'être mieux positionné sur les moteurs de recherche ? Et que ces techniques ajoutent des contraintes dans la conception ou la gestion d'un site web ?
J'ai un peu de mal à te suivre sur ce point.
On n'est pas obligé de construire un site "pour Google", là je suis bien d'accord...
 
WRInaute discret
WebRankInfo a dit:
JC91, tu trouves si étonnant que ça que l'on discute de techniques ou d'astuces permettant d'être mieux positionné sur les moteurs de recherche ?
Non, pas etonnant. Parfaitement logique au contraire !

Mais deja une 1ere remarque: aujourd'hui il s'agit dans 90% des cas de techniques (ou d'artifices) pour se positionner sur Google, et non plus de discussions pour améliorer un site en le rendant plus pertinent/interessant/attractif/lisible.

Tout cela est devenu très éloigné des regles 'logiques', comme par exemple, bien structurer ses liens, bien hierarchiser son contenu, etc ... qui elles ont un sens.
Mettre une balise H1, faire des pages sattelites, doser la présence d'un mot-clé, faire de l'url rewriting, etc ... cela n'a aucun sens ... et en tout cas aucun rapport avec l'objectif initial de publication sur le web.
Peu importe ou se trouve la limite 'technique' entre le "legal" (referencement) et "l'illegal" (spamdexing).
Aujourd'hui, la limite, c'est plutot: "comment exploiter au maximum les astuces de positionnement sans trop dégrader le contenu du site". La différence avec les spamdexers, c'est justement que eux n'en ont rien à foutre du contenu de la page (une fois que le visiteur a cliqué, ils sont contents, même si celui-ci se barre au bout de 5 sec.)

Je dis donc simplement qu'on se trompe de chemin ...
A jouer à ce petit jeu de "l'optimisation du positionnement sur Google", les spamdexers seront toujours les plus forts ...

WebRankInfo a dit:
Et que ces techniques ajoutent des contraintes dans la conception ou la gestion d'un site web ?
C'est indeniable !!!! non ?
Et c'est dommageable: encore qques temps et tu vas voir que certains demanderont à leurs rédacteurs (sur conseils des 'référenceurs' ?) de mettre 10% du mot-clé A et 5% du mot-clé B lorsqu'ils leur demanderont de pondre un papier. Pffff ....

Maintenant je ne suis pas stupide, moi aussi je me conforme à la réalité et je suis bien obligé de tenir compte de mon positionnement dans google (sinon, j'entendrais chaque semaine: 'olala, on a perdu 2 places sur google' .....).

Mais si les choses ne changent pas rapidement, à terme on va tous en crever de Google.

Florida, c'est vraiment un péripetie annecdotique. Si dans 1 an, Google devient inutillisable à cause du spamdexing (et ca en prends le chemin) et que d'ici là il n'y a pas eu d'autres moteurs qui se sont imposés en parallèle, ca va être la cata. Et pour tout le monde .....
 
WRInaute discret
J'ai lu avec intérêt les messages précédents.
Le manque d'efficacité des moteurs de recherche impose aux webmasters de passer du temps à écrire leur site de manière à être mieux référencé. Celà se fait bien sûr au détriment du contenu.
Le monopole de google dans les faits accentue le problème, puisqu'on cherche à être bien référencé dans un seul moteur. S'il y avait plus de concurrence, passer de la 5ème place à la 50ème place dans google ne serait plus une catastrophe pour certains webmasters : la dégringolade serait compensée par les visites issues des autres moteurs.
Mais malheureusement, je crois bien qu'on ne peut pas y faire grand chose, sauf peut-être de faire l'effort d'utiliser de temps en temps d'autres moteurs...
 
WRInaute discret
bah si, on peut faire quelque chose:

- prendre conscience du probleme
- en discuter pour que d'autres personnes en prennent aussi conscience
- etre 'actif' (être ouvert à decouvrir d'autres moteurs, depasser la premiere page de resultats lors d'une recherche, etc ...) et non pas passif (aller tjs sur les memes sites, cliquer sans reflechir, etc ...)
- denoncer cet etat de fait

Petit-a-petit tout ca devrait se reguler, comme tout les exces, sauf si personne ne veut ouvrir les yeux et continue a dire 'tout va bien' (comme certains ici) et pense qu'il peut 'gagner' en utilisant plein d'astuces de positionnement sur Google.
 
WRInaute discret
Franchement, j'ai un peu de mal à comprendre le procès sur le "monopole" de Google.
Un monopole, c'est une situation de marché sur lequel un unique offreur est confronté à une demande abondante, ex : la SNCF (définition trouvée grâce à ... google, mais j'ai fait un peu d'économie, et c'est exactement ça).

Or, s'il y a une demande abondante, on peut difficilement dire qu'il n'y a qu'un offreur (je n'ai pas fait le compte, mais on trouve au moins une dizaine de moteurs).

Et quoiqu'on dise, et malgré les exemples consternants cités au début de cette discussion (espérons que Google fera rapidement le ménage), ce moteur reste quand même le plus pertinent, et c'est pour cette raison qu'il est le plus utilisé.

Quant aux techniques de référencement donnés sur ce site, le premier est de faire du bon contenu (et ça marche, quoiqu'on en dise). Le reste n'est franchement pas très compliqué à mettre en place et semble surtout une question de bon sens (à condition, effectivement, que l'on ne passe pas sa journée à se préoccuper de son page rank et du gain ou de la perte d'une position)
 
WRInaute discret
Arf, si seulement tu avais raison, alors oui, il n'y aurait rien a dire, ca serait génial

PS1: des moteurs il y en a des milliers et des milliers

PS2: d'autres moteurs sont aussi pertinents que google (alltheweb) mais ne se sont pas imposés, pourquoi ?

PS3: pourquoi tout le monde regarde TF1 alors que c de la merde ? euh ... je m'égare
 
WRInaute discret
JC91 a dit:
d'autres moteurs sont aussi pertinents que google (alltheweb) mais ne se sont pas imposés, pourquoi ?

C'est vrai que je viens d'essayer alltheweb, et j'ai comparé aux résultats de Google, et ce n'est pas si mauvais, ce qui n'est pas le cas des autres. Il lui manque cependant quelques fonctions pratiques (cache).
C'est vrai aussi que lorsqu'on cherche à acheter des jouets ou à voir des photos de chien sur alltheweb, on trouve des vrais sites de jouets et des photos de chien !
Cela n'enlève rien au fait que Google n'est pas un monopole, car dans un monopole, alltheweb n'existerait pas et encore moins les " milliers et milliers " de moteurs.
 
WRInaute occasionnel
je trouve que alltheweb, au niveau images, est plus fourni que google mais c'est peut etre qu'une impression
 
WRInaute impliqué
il manque aussi la possibilité du choix de la langue à alltheweb.
j'utilise mozilla en anglais, et il ne me renvoie pas les résultats qu'il renvoie à IE fr...
 
J
JPC
Guest
désolé, je reviens en arrière,

JC91 a dit:
Et s'il faut revendiquer, je revendique pour qu'il y ai des moteurs qui prennent en compte :
- la durée d'existance du site
- son nombre de visiteurs (approximativement)
- la fréquence de ses actualisations (approximativement)
- la durée des visites
- le taux clic parmi les réponses affichées lors d'une recherche
etc ...

c'est bien joli en théorie !
mais bon, d'abord tu fais comment pour référencer un nouveau site avec un système comme ça ? durée =0 donc nb visiteurs=0 donc classement=dernier donc taux de clic=0 etc...

et puis, si le but c'est d'avoir des visiteurs pour monter dans les classements, le contenu, il risque de s'appauvrir, on va avoir du sexe, du divx et du mp3 dans toutes les pages pour générer du trafic...
 
WRInaute passionné
ne pas faire le ménage pour google lui évite de prendre parti humaienement dans le jugement. En se rangeant derrière leur alogorythme et en se défendant d'internervenir dessus, ils ont la protection de : "la machine a été réglée comme ça donc ce n'est pas de notre faute". Je pense qu'ils ont raison vu l'atrocité des avocats américains.
 
WRInaute discret
Tout d'abord, merci JPC pour cette illustration parfaite du problème.

En gros, aujourd'hui tu sembles être arrivé au point où tu ne raisonnes plus que par et pour google. Tu as arreté de réflechir et tu te conformes aux stereotypes, au modele unique, etc ... Donc au moindre changement tu es terrifié, tétanisé et tu ne sais plus quoi faire.
Ceci n'est pas une critique ni un reproche , c'est ce qui arrive fatalement quand tout devient uniforme et que tout le monde pense la même chose :-(

Heureusement la situation n'a pas encore atteind ce point de non retour (google ne fait quand meme pas encore 100% des entrees sur les sites) ... Mais le scenario catastrophe que tu decris serait exactement ce qui pourrait arriver si la situation ne change pas.

Aujourd'hui tu raisonnes en pensant que tu peux être plus fort que les autres au niveau de ton referencement (car tu connais WRI et tu penses être plus rusé que la moyenne) et tu ne veux donc surtout pas que les choses changent.

Mais quand le spamdexing aura pris ca pleine mesure, tu pourras toujours de cracher dans les mains, mettre des balises H1 partout, etc ... ton site seras relegué dans les profondeurs des classements.

Alors qu'avec les critères cités (et sans doute d'autres), seul les VRAIS sites (ceux avec un REEL contenu) pourront continuer a emmerger du lot. C'est quand même le but, je pense.

JPC a dit:
et puis, si le but c'est d'avoir des visiteurs pour monter dans les classements, le contenu, il risque de s'appauvrir, on va avoir du sexe, du divx et du mp3 dans toutes les pages pour générer du trafic...

euh ... tu fais des sites internets pour quoi ?????
- faire 'du visiteur'
- parceque tu as qque chose a dire, qque chose a vendre, qquechose a monter, a partager, etc ...

Tes propos me laissent penser que tu es deja complétement 'déformé' par le système: tu raisonne 'traffic' avant de raisonner 'contenu'.

Alors si tu es pret a faire des sites de culs pour avoir du traffic et si
ton seul but sur internet est de faire du traffic et du fric, merci de ne pas faire de sites internet, il y a deja bien assez de sites inutiles comme ca.
Mais si tu as réellement du contenu ou qquechose a produire, alors mon discours ne devrez pas t'inquiéter, bien au contraire ;-)

Pour finir et te repondre concretement (en simplifiant a l'extreme) :
Le nombre de visiteur n'est pas une donnée absolue mais relative.
Admettons qu'il y ai 10 sites traitant du sujet 'motA' (par exemple, motA="cacahouetes à la vanille")
Et 1000 internautes/jour interessés par ce sujet.
Et bien le site faisant 500 visiteurs/jour sera en premiere position pour une recherche sur 'motA', celui avec 150 visiteurs en 2eme position, etc ....

Tu vois bien qu'il n'est pas ici question de cul ou de divx, non ?

Mais evidement, si ton but est uniquement le fric, tu ne feras jamais de site sur les 'cacahouetes à la vanille' ... et c'est bien domage, LOL !
 
WRInaute discret
Mies Van der Rohe a dit:
ne pas faire le ménage pour google lui évite de prendre parti humaienement dans le jugement. En se rangeant derrière leur alogorythme et en se défendant d'internervenir dessus, ils ont la protection de : "la machine a été réglée comme ça donc ce n'est pas de notre faute". Je pense qu'ils ont raison vu l'atrocité des avocats américains.
C'est bien possible que cela soit l'explication. Et puis de toute facon faire le menage à la main n'est qu'une solution temporaire.
 
WRInaute discret
WebRankInfo a dit:
Merci donc d'arrêter de donner des exemples, cela ne fera pas avancer les choses.

Si, si ca fait avancer les choses. C'est comme avec la theorie des 6 contacts : untel dit a untel qui repete a un untel et ca fini par arriver dans la bonne oreille du mec qui peut vraiment faire avancer les choses ...

Faire un spam-report, par contre, ca tombe sur le bureau d'employé(s), tjs le(s) même(s), qui sont deja debordés, qui en ont plein le cul et que plus rien ne fait bondir tellement ils en voient passer, et qui au final n'a pas les moyens de gérer ca et n'a certainement pas envie d'aller faire chier son boss avec tout ce bordel.
 
WRInaute accro
allez, je participe a cette conversation interessante

Mais quand le spamdexing aura pris ca pleine mesure, tu pourras toujours de cracher dans les mains, mettre des balises H1 partout, etc ... ton site seras relegué dans les profondeurs des classements.
le spamdexing commence a avoir les jetons depuis la derniere dance. Tout ce "travail" qui part en c...., dommage pour eux. Certains sites semblent avoir plongé dans les profondeurs aussi : je suis désolé mais chaque webmaster sait pertinnement pourquoi il a plongé. Pour ma part, j'ai vu une page relegué en 2 eme page, je sais tres bien pourquoi : "trop optimisée"

Alors qu'avec les critères cités (et sans doute d'autres), seul les VRAIS sites (ceux avec un REEL contenu) pourront continuer a emmerger du lot. C'est quand même le but, je pense.
on y arrivera, on y arrivera.

Mais de toute facon, que ce soit avec Google ou un autre, le probleme se posera inevitablement. On vante les photos propres de chien d'alltheweb mais ca ca vient du fait que pour le moment, les spamdexeurs se posent plutot la question "mais c'est quoi alltheweb?" ... attendons que lui (ou un autre moteur d'ailleurs, je pense a yahoo) perce sur le devant de la scene, et ca sera pareil.

Par rapport aux criteres cités comme le nombre de visiteurs, désolé mais la c'est vraiment la porte ouverte aux tricheurs de tout bord. Le critere en soit est peut-etre pertinent mais ca doit etre sympa a mettre en oeuvre ca. Des milliards et des milliards de requetes, des clics a traiter, une comparaison de chaque IP, de chaque requete sur les dernieres 24 jeures, ca doit etre jouissif a gérer ca...

bref, pour le moment, oui je ne jure que par google, c'est le meilleur. S'il y a un alter-ego, je m'interesserai a l'"ego", si un autre moteur passe devant, bin je delaisserai google, sans état d'ame.
 
WRInaute discret
JPC a dit:
JC91 a dit:
Et s'il faut revendiquer, je revendique pour qu'il y ai des moteurs qui prennent en compte :
- la durée d'existance du site
- son nombre de visiteurs (approximativement)
- la fréquence de ses actualisations (approximativement)
- la durée des visites
- le taux clic parmi les réponses affichées lors d'une recherche
etc ...

c'est bien joli en théorie !
mais bon, d'abord tu fais comment pour référencer un nouveau site avec un système comme ça ? durée =0 donc nb visiteurs=0 donc classement=dernier donc taux de clic=0 etc...

C'est très exactement l'argument qui avait été employé il n'y a pas si longtemps à l'encontre d'Altavista et du défunt Excite lorsqu'ils ont les premiers introduit la notion de critère de popularité...
Qui peut nier aujourd'hui que cela a été une avancée importante dans la pertinence des moteurs ?

Surtout au vu du succès de Google, qui ne faisait à la base que reprendre une vieille idée inventée par d'autres (la popularité qualitative) mais en la marketant mieux (PageRank).

Chacun des critères proposés par jc91 est intéressant et a du sens, à mon avis.
D'ailleurs, au moins un moteur existant recourt déjà à une partie d'entre eux à ma connaissance.
Plus un algo comporte de critères de pertinence différents, meilleurs seront les résultats si le dosage est bon.

Cela ne veut pas dire qu'il faut abandonner les critères liés au contenu, mais qu'il faut les combiner avec d'autres.

Un mix équitable entre critères de contenu, et critères qualitatifs (tels que ceux proposés par jc91 par exemple) aura aussi l'avantage de redonner au référencement son vrai sens (une double expertise technique ET marketing), et donc de le mettre hors de portée des webmasters et autres bidouilleurs de code (ce qui inclut à mon avis 99% des spamdexers)
 
WRInaute discret
mahefarivony a dit:
Mais de toute facon, que ce soit avec Google ou un autre, le probleme se posera inevitablement. On vante les photos propres de chien d'alltheweb mais ca ca vient du fait que pour le moment, les spamdexeurs se posent plutot la question "mais c'est quoi alltheweb?" ... attendons que lui (ou un autre moteur d'ailleurs, je pense a yahoo) perce sur le devant de la scene, et ca sera pareil.
Oui et non.
Oui, le problème ne se pose qu'avec Google en raison de sa position trop dominante (donc tu dois être d'accord avec moi pour dire que ce monopole de Google est néfaste au bout du compte).
Non, le problème ne se posera plus si il y a 3 ou 4 gros moteurs qui se partagent le marché: c'est deja pas evident d'optimiser pour 1 moteur, alors faire le boulot pour 3 ou 4 ...avec tous les 'risques' que cela comporte, les spamdexers jugeront que le jeu n'en vaut pas la chandèle. Ou du moins, ils mettrons pas mal de temps avant de revenir faire leur saloperies. Actuellement, il s envahissent Google car 'ca vaut le coup'.

Le problème c'est qu'il me semble difficile que 3 ou 4 gros moteurs puissent un jour cohexister: la majeure partie des internautes cherchent avant tout la simplicité: donc si possible avoir une référence unique.
C'est aussi pour ca que google c'est imposé: les gens viennent sur google car ca leur évite de reflechir .... ils évitent de se poser la question "parmi X moteurs lequel vais-je utiliser pour faire telle ou telle recherche" ... ils cliquent sur Google et basta ... et si la reponse n'est pas pertinente, tant pis ... pour 80% des gens ca ne leur viendrait même pas l'idée de refaire leur recherche avec un autre moteur. D'ailleurs une majorité de gens sont 'lobotomisés' au point de ne pas dépasser la première page de résultats (c'est ca la culture télé !!!).

Néanmoins, si la concurrence innove et propose des améliorations, des critères plus pertinents, un filtrage plus efficace de sites 'delictueux', etc ... à défaut de remplacer Google, ils obligeront au moins Google à suivre le mouvement. Car ca fait deja plusieurs années qu'il n'y a plus eu d'innovation importantes !

mahefarivony a dit:
Par rapport aux criteres cités comme le nombre de visiteurs, désolé mais la c'est vraiment la porte ouverte aux tricheurs de tout bord. Le critere en soit est peut-etre pertinent mais ca doit etre sympa a mettre en oeuvre ca. Des milliards et des milliards de requetes, des clics a traiter, une comparaison de chaque IP, de chaque requete sur les dernieres 24 jeures, ca doit etre jouissif a gérer ca...
Pas la peine de traiter tout, des echantillons doivent pouvoir suffir.
La taille de l'index de Google est déjà impressionnante: je pense qu'ils sont capable de gérer techniquement ce genre de chose.
Il existe aussi plein de boites qui font du bon boulot au niveau des stats de traffic, des boites qui font de la géo-localisation basée sur les IPs, le protocole IPv6 permettra peut-etre également d'attribuer des IP fixe a chaque machine et pq pas l'utilisation de signature avec des clés cryptées, etc .... Bref, techniquement les possibilités existent.
Mais là on s'égare.
Car avant d'invoquer une infaisabilité pour des raisons techniques je crois qu'il faut dejà qu'il y ai une prise de conscience des problèmes et une volonté d'y faire face.


stephane a dit:
Chacun des critères proposés par jc91 est intéressant et a du sens, à mon avis.
Euh ... soyons clair, ce ne sont pas mes critères ;-) Ce sont des critères logiques, que tout un chacun connais déjà. Toute la difficulté, c'est ensuite de les mettre en oeuvre.
Si j'avais les connaissances et l'intelligence pour le faire, ainsi que les moyens financiers, je ne serais pas ici à discuter ... mais en train de monter un projet de nouveau moteur de recherche.
Il n'y a pas non plus que cela a améliorer: il y a aussi des choses à faire du coté de l'affichage des résultats. Actuellement, le petit résumé de 2 lignes proposé par Google n'est pas très parlant (souvent des bouts de phrases coupées). Il doit y avoir moyen de faire mieux, afin de donner à l'internaute une meilleure idée du contenu réel des sites trouvés (et éviter des tonnes de clics vers des sites inutiles !!!).

stephane a dit:
donc de le mettre hors de portée des webmasters et autres bidouilleurs de code (ce qui inclut à mon avis 99% des spamdexers)
Oui, tout a fait. Et c possible. C'est, a mon avis, juste une question de volonté et de prise de décision .....
Si l'on prends l'exemple du Weborama, il y a 6 ans ca m'amusait de faire du vote automatique dans leur classement ...rien de plus facile .... et petit à petit de plus en plus de bidouilleurs se sont mis à faire cela aussi ... et tout le monde était au courant ... mais chez Webo rien ne bougeait: poltique de l'autruche.... Puis recemment ils ont enfin pris des mesures pour contrer cela ... ils ont été très long à réagir et ont attendu que ca parte vraiment en sucette pour le faire ... alors il ne faudrait pas que Google suive cette exemple et attende que le spamdexing ait envahi tous les mots-clés, pour finalement réagir.

De toute façon, la course au référencement est une fuite en avant ... et celui qui courrera devant les autres sera aussi celui qui se cognera la tête contre le mur en premier. Ouille !
 
K
Kounte
Guest
JC91 a dit:
Non, le problème ne se posera plus si il y a 3 ou 4 gros moteurs qui se partagent le marché: c'est deja pas evident d'optimiser pour 1 moteur, alors faire le boulot pour 3 ou 4 ...avec tous les 'risques' que cela comporte, les spamdexers jugeront que le jeu n'en vaut pas la chandèle. Ou du moins, ils mettrons pas mal de temps avant de revenir faire leur saloperies.!

Bah, il feront autant de site, optimisé pour un moteur, qu'il y a de moteurs ?
 
WRInaute discret
Kali a dit:
Bah, il feront autant de site, optimisé pour un moteur, qu'il y a de moteurs ?
Oui mais cela demande qd meme du temps et de l'argent de 'spamdexer'

Faire 1 fois le boulot pour toucher 60% c'est rentable
Mais faire 4 fois le boulot, pour toucher, au mieux, 4x20% c'est deja bcp moins rentable ...

Vu comme ca, ca rapporterait donc 3 fois moins a travail égal !

Si en plus tu ajoutes le fait qu'il faudras investir 4 fois plus (donc augmenter les risques), il est alors clair que les spamdexer y reflechirons à 10 fois avant de se lancer.

A l'époque ou Google n'apportait "que" 30% du traffic, personne ne s'amusait a faire du spamdexing ;-)
 
A
Anonymous
Guest
Salut à tous,
C'est mon premier message sur ce forum et j'apprends beaucoup en vous lisant les uns les autres.
Simplement j'ai deux remarques :

1/ Le post initial daté du 18 janvier 2004 dit

Ca devient de plus en plus grave le spam sur google :
Le 1er résultat sur "vente de jouets" est un site x

https://www.google.fr/search?sourceid=na ... +de+jouets

Bon courage à ceux qui cliquent sur le lien pour en sortir
J'ai fait un spam report, je vous invite à en faire autant

>>>> nous sommes aujourd'hui le dimanche 8 février 2004 et à la requête
"https://www.google.fr/search?sourceid=navclient&hl=fr&q=vente+de+jouets" les réponses de GOOGLE sont sensiblement différentes...

2/ Pour revenir à toute cette discussion initiale ("ah mon Dieu, cachez ces seins que je ne saurais voir...") je vous rappelle simplement que votre navigateur peut être configuré pour filtrer ce genre de site, ou plus simplement que des moteurs comme VOILA ont mis en place des filtres parentaux...

Voilà, c'était juste ma contribution à ce fil de discussion...
 
Olivier Duffez (admin)
Membre du personnel
Effectivement les résultats se sont améliorés sur cette requête (et j'espère aussi sur d'autres).
Malheureusement le filtre parental pour les recherches n'est disponible qu'en anglais chez Google...
 
WRInaute impliqué
ben tient pour le virer, on a qu'a se rassembler pour faire un site avec un ndd pour exclure ces résultats... et on met des liens vers des sites qui ne sont pas réservés aux adultes...
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut