Google victime de son filtre bayésien anti spam ?

WRInaute discret
Quel rapport entre l'évolution parfois décevante des résultats du moteur de recherche Google et le filtre anti spam bayésien ? C'est toute l'ambiguïté de la démarche commerciale des moteurs de recherche sponsorisés...

Le moteur de recherche Google, qui appartient aujourd'hui au paysage Internet, plus d'un internaute sur deux y déposant des requêtes, est d'abord victime de son succès !


Après être devenu un outil de recherche pour les hackers, en particulier avec la capacité de son robot à indexer de nombreux formats de fichiers présents sur les serveurs, et pour certains au contenu confidentiel non protégé, il est devenu un outil majeur pour les spammeurs.


Les pages de résultats de Google sont en effet aujourd'hui spammées par des pages web sans intérêt particulier, sauf d'afficher des liens commerciaux ou de renvoyer vers des sites qui pratiquent l'affiliation payante. Ainsi, à chaque clic, l'auteur du site qui pratique le spam se voit rémunéré, et le visiteur – tout comme le moteur, mais seulement jusqu'à un certain point ! - trompés.


Filtrer les sites spammés

Cette pratique, assimilable au spam, s'est largement répandue ces derniers mois, et participe à polluer les résultats des moteurs de recherche, à décevoir leurs clients et à dévaloriser la pertinence du moteur. Google n'est plus ce qu'il était !


Pour revenir à plus de pertinence, il faut soit nettoyer la base, tâche ardue lorsque les milliards de données sont réparties sur des dizaines de milliers de postes en architecture parallèle. D'autant qu'après la pertinence des algorithmes d'extraction et de classement des résultats, le volume de la base indexée est un argument marketing important.


La solution la plus rapide et la plus simple à déployer pour écrémer les résultats semble donc d'intervenir au niveau de la requête de l'internaute, c'est-à-dire d'appliquer des philtres avant d'afficher les résultats.


Le filtre bayésien a la faveur des moteurs de recherche

C'est à ce niveau, celui du tri et du classement des résultats qui seront envoyés à l'internaute en réponse à sa requête, qu'interviennent les filtres bayésiens. Il s'agit en effet d'une méthode statistique avancée qui calcule la probabilité qu'un site ou une page proposé en résultat soit spammé.


La méthode reste sémantique, puisqu'elle associe un 'taux de spam' aux mots clés de la requête de l'internaute, qu'elle compare à un 'taux de probabilité de spam' associé au contenu des sites indexés dans la base du moteur. Ainsi, une requête sur un mot clé unique sera 'nettoyée' plus largement qu'une requête associant plusieurs mots clés.


Un filtre qui influe sur la pertinence des résultats

La démarche est intéressante, mais le résultat laisse à désirer ! Implémenté par Google au cours du mois d'octobre 2003, le filtre bayésien anti spam a eu des répercussions dramatiques sur les résultats proposés par le moteur, faisant disparaître des sites légitimes, avec parfois l'effet inverse à celui escompté.


Dans les semaines qui ont suivies, les résultats ont été améliorés, sans doute avec l'intervention manuelle des responsables de Google pour nettoyer la base. Mais la pertinence du moteur reste encore douteuse sur certaines requêtes.


Nouvelle évolution majeure des algorithmes de Google à la mi novembre 2003. Cette fois, ce sont surtout des sites historiques, indexés depuis longtemps, techniquement très pertinents, et sans aucune pratique de techniques assimilables au spam, qui sont propulsés dans l'arrière boutique…


Tester les résultats

Comment s'assurer de l'influence du filtre bayésien sur les résultats affichés ? Google dispose d'une option qui permet de désactiver le philtre. Il suffit de placer dans la requête une commande ' -site:google.com ', qui indique au moteur de ne pas appliquer les critères proposés en mode standard, puisque la requête ne passe pas par la moulinette de filtrage de Google.com.


La différence entre les résultats proposés avec ou sans filtre est généralement surprenante, et laisse planer un doute quant à l'efficacité des algorithmes bayésiens en matière de qualité d'extraction des résultats. Des sites d'une grande pertinence se trouvent relégués au fin fond des résultats proposés, et loin d'une réelle visibilité.


L'ambiguïté du ratio pertinence/revenus

Mais pour le moteur, la démarche reste ambiguë ! En effet, les spammeurs sont les premiers à acheter du mot clé, car ils cherchent à se positionner au mieux sur les requêtes des internautes afin d'attirer un revenu issu de l'affiliation. Le spam participe donc, sans doute largement, aux revenus générés par les liens payants, AdWords de Google ou liens sponsorisés d'Overture et eSpotting.


C'est là toute l'ambiguïté de la lutte contre le spam à la source des moteurs de recherche, mais aussi des annuaires ou des portails… Car ces pratiques participent activement à leurs revenus !


Yves Grandmontagne
Silicon.fr[/url]
 
WRInaute impliqué
intéressant... mais -autrechose marche autant que -google.com ! :eek:)... tout en donnant au surprise encore des résultats différents!
Google, la, tu m'impressionnes!
Romain
 
WRInaute occasionnel
Très intéressante analyse de Giom.

Giom a dit:
La méthode reste sémantique, puisqu'elle associe un 'taux de spam' aux mots clés de la requête de l'internaute, qu'elle compare à un 'taux de probabilité de spam' associé au contenu des sites indexés dans la base du moteur. Ainsi, une requête sur un mot clé unique sera 'nettoyée' plus largement qu'une requête associant plusieurs mots clés.

Il ya des quantités de requêtes sur un mot clé qui ne sont pas nettoyées (noel) alors que des requetes sur trois, quatre ou plus de mots clés sont complètement nettoyées (new hotel usa).

Il y a environ 7000 langues parlées dan le monde, plusieurs dizaines de milliers de mots par langues, soit environ 5000 à 10000 milliards de combinaisons de 2 mots et ne parlons pas des combinaisons de trois mots, quatre mots ou plus.

En complément du developpement de Giom, je crois que Google a fait très fort.

Que ce sont les "spammeurs" ou les "optimiseurs" qui vont désormais déterminer eux-mêmes involontairement si un filtre doit ou non leur être appliqué. Comment est-ce possible?

Imaginons que ce filtre soit appliqué à des mots et à des pages avant tout.

Imaginons que ce taux soit calculé avant tout pour des mots uniques.
Lorsque la requête comprend plusieurs mots, des règles spécifiques determinent alors automatiquement le taux de "synthèse" et l'application ou non du filtre.

Un site peut donc avoir certaines pages déclassées sur certaines combinaisons de mots et pas sur d'autres.

Imaginons que le filtre s'applique comme un taux applicable au delà d'un seuil et non pas d'un bouton oui/non.

Imaginons que les adwords ne determinent pas le filtre
car on trouve des mots clés qui ne font pas partie des adwords et qui sont nettoyés,et
on trouve des mots clés qui font partie des adwords et qui ne sont pas nettoyés.


Imaginons que pour chaque mot unique à travers le monde un coefficient "risque de spam" soit appliqué à partir d'une somme de critères combinés du type:
"présence moyenne par pages"
"présence moyenne dans les liens entrants"
"nombre de résultats dans les recherches"

Il suffirait alors qu'un groupe de webmasters concurrents dans la 2345ème langue de la liste suroptimisent par exemple sur le mot "xzxzxzxz" (ou sur une combinaison de mots) pour qu'automatiquement ce mot (ou les mots faisant partie de cette combinaison) soit filtré par Google sans aucune intervention humaine.

Cela voudrait dire aussi qu'il faut désormais distinguer 2 choses : le filtre bayesien et le paramétrage différent de l'algo principal Google en fonction du taux d'application du filtre bayesien.
Le premier étant lié à toutes les pages web, il n'est donc plus maîtrisable par les 'optimiseurs".

Le second étant lié au premier, il devient une barre amovible difficile à gérer.

Si par exemple, plusieurs SEO désoptimisent leurs sites sur un mot clé donné, le filtre pourrait ne plus s'appliquer plus automatiquement renversant de nouveau la donne.

Si c'est le cas et même si ce filtre comporte encore quelques grosses faiblesses, comme d'ailleurs tous les tris automatisés, il sera surement d'un grand secours à Google car bien plus difficile à maîtriser par ceux qui "sur-optimisent".

Pour moi, il améliore un peu la qualité globale des résultats.

En tous cas, je ne pense pas qu'il ait été conçu pour favoriser ou défavoriser des sites, des catégories particulières, dans telle ou telle région du monde.

Katia.
 
WRInaute passionné
Et si les "suroptimiseurs" faisaient rentrer dans le filtre, non pas leur mot clés, mais les mots clés voisins.
si 49 personnes alignées reculent d'un pas, ils désignent le 50 ème comme étant celui qui a fait un pas un avant.
 
WRInaute occasionnel
Bonjour Katia,

Je suis d'accord sur le fond de la nécessitée de filtrer les sites truffés de mots clés qu'il soient ou non en rapport avec leur contenu. Idem pour les pages satellites ou cachées etc..

Mais le pb, c'est qu'en ce moment, c'est à se rouler par terre de rire pour certains résultats : on trouve des sites bien placés avec une pertinence moyenne voire n'ayant rien à voir avec le steak !

De plus, si on a le malheur d'avoir un domaine avec les mots clés suspicieux, plus on a de liens plus on est considéré comme sur-optimiseur : je parle du domaine pas de répertoires virtuels créer à la volée.

Dans ces cas la que faire ? on ne maitrise pas qui fait un lien vers soit.

Quelqu'un ici parlait de ventes de pommes comme exemple, il m'a faire rire jaune :

1/ je choisi quoi comme domaine : ventepommes.com ou ventes-pommes.com : avouons que le deuxieme est nettement plus lisible, pour un homme ou un robot !

2/ quand quelqu'un veut faire un lien vers moi, je ui conseille quoi comme texte : Vente pommes ou vente bananes histoire d'éviter de me faire filtrer ?

3/ comme titre de la page d'accueil je mets quoi ? vente pommes en gros par ex ou grossiste pomme ou vente bananes.

J'ai eu le même choix à faire avant même que je connaisse WRI et qu'il existe pour choisir le nom de domaine de mon site : vous savez ce que j'ai choisi et le resultat !!!

J'ai lu un article ( lien ci après ) ou le mot c'est rayonnage ( en anglais ), le responsable du site à eu la "mauvaise" idée de choisir comme nom rayonnages.com : quelle erreur ! c'est con pour lui c'est trop pertinent surtout que des tas de sites font un lien vers lui ( puisqu'il existe depuis des années ) avec comme texte , je vous le donne en mille ? rayonnages.com !

l'article en question :
http://www.searchengineguide.com/lloyd/ ... 5_bl1.html

Alors oui un filtre c'est bien, oui il y avait squattage de pseudo-annuaires sur les 1ères pages, mais combien de sites pertinents, faisant leur travail correctement, sont partis avec l'eau du bain ? et le squattage continue sur d'autres combinaisons en plus : pourquoi pas de filtre ?

Faut pas pousser non plus : on n'en sort plus s'il faut éviter d'utiliser un mot clé pertinent dans le format des liens qu'on propose ou dans le nom d'un dossier pourtant utile !
Cf les conseils de GG lui même quand aux règles pour être bien référencé je cite :

Essayez d'imaginer les termes qui seront soumis à Google par les utilisateurs qui cherchent à s'informer sur le contenu de votre site, et insérez ces termes dans vos pages

Si ca n'est pas de l'optimisation ca y ressemble, faut pas être trop bon c'est tout, et pas d'enjeux commerciaux.. pardon on a pas de preuves :wink:

En résumé, pourquoi envoyer un petit commando quand une simple bombe au napalm suffit ? tant pis si on tue des civils !

Bref j'arrète là ou je vais me faire tuer par les modérateurs ou le boss lui même ! pas trop fort quand même les gars.

A+
Francois, qui rit quand même bien sur certains résultats :wink:
 
WRInaute impliqué
et sur l'échelle géographique

François a dit:
Alors oui un filtre c'est bien, oui il y avait squattage de pseudo-annuaires sur les 1ères pages, mais combien de sites pertinents, faisant leur travail correctement, sont partis avec l'eau du bain ? et le squattage continue sur d'autres combinaisons en plus : pourquoi pas de filtre ?

Je suis d'accord avec toi, François ; un petit exemple : mettez vous à la place de sites institutionnels ! Beaucoup de ceux qui investissaient dans une véritable lisibilité sur leur échelle de territoire (et ils étaient déja trop rares) se retrouvent maintenant après une myriade d'agences de voyages... américaines :eek:)
Bonjour la pertinence pour le service public! En attendant, les guichets publics sont en grosse baisse de fréquentation... car ils ne sont plus trouvable. Résultat, on est obligé de communiquer en dur... avec quel argent?? ;)
 
WRInaute impliqué
:?:

Euh... Juste une remarque en passant !

Qui vous dit qu'il s'agit bien d'un filtre bayesien ?

Cela à la couleur du truc, mais ce n'est pas forcément cela...

Une info qui sort du Googleplex ? Pas à ma connaissance...

Si je vois un journaliste bien informé qui ne cite pas ses sources, j'ai toujours la même réaction... le doute !

Alors, info ou intox.

Une (vraie) info qui sort du Googleplex : ce filtre est sémantique. Mais tous les filtres sémantiques ne sont pas bayesiens.
 
WRInaute occasionnel
Un filtre qui chamboule les résultats ca a toute les chances de faire 33% de satisfaits, 33% d'indécis et 33% de mécontents.
Un algorithme qui s'améliore ca peut donner 70% de résultats de meilleure qualité et 30% de résultats de moins bonne qualité.

Si le filtre avait globalement dégradé la qualité et la pertinence des résultats,
Google aurait très vite laissé tomber ce filtre.

Il y a des dégats collatéraux. Pour certaines sociétés, peut être des employés au chomage parce que les résultats de leur site auront décliné...
et si cela est lié aux 30% de résultats de moins bonne qualité, c'est surement rageant.

Maintenant, Google aurait été bien plus en danger en conservant indéfiniment sa lisibilité parfaite par les référenceurs.

Les pages poubelles et les pages suroptimisées, ce n'est pas anecdotique si ca se trouve pour Google.
Qui vous dit que le pourcentage de pages spammées n'est pas équivalent au pourcentage de e-mails qui sont des spams à travers le monde soit 1 sur 2.
Probable. Les serveurs de mails ont du prendre des mesures radicales.
Google a peut être été obligé de faire de même.

Google laisse apparaitre dans les résulats le plus souvent le meilleur et en général nous evite de voir ce qu'il y a dessous.
Lorsqu'on descend dans les résultats, ou qu'on force un peu l'apparition des reseaux souterrains, on s'aperçoit qu'il en existe un nombre incroyable.

le tout dernier entrevu par hasard:
https://www.google.fr/search?hl=fr&ie=IS ... t%22&meta=
Il y a peut etre un nom de domaine clean dans cette liste mais il faut le trouver.

Certains mots peuvent interesser 1000 à 4000 sites ou webmasters... et pourtant il n'y a que 10 places sur la première page.

Je ne pense pas que les techniques de référencement tout à fait basiques comme celles proposées aux débutants sur WRI posent le moindre problème
vis à vis de ce filtre.

Par contre lorsqu'un site envoit 2000 liens optimisés vers une page pour bien ressortir sur une combinaison très concurrentielle,
qu'un autre fait rebelotte et en rajoute 4000 pour le depasser et le suivant dix de der avec 8000 liens pour être devant, Google n'a plus forcement envie de cautionner indéfiniment
cette surenchère qui ne produit pas forcement les resultats les plus pertinents.

cariboo a dit:
:?:

Qui vous dit qu'il s'agit bien d'un filtre bayesien ?

Cela à la couleur du truc, mais ce n'est pas forcément cela...

C'est vrai on en sait rien!

Katia
 
WRInaute accro
Qui vous dit qu'il s'agit bien d'un filtre bayesien ?

Cela à la couleur du truc, mais ce n'est pas forcément cela...

C'est un filtre "googlien"... ça c'est sûr :lol:

En tout cas... à titre perso... ces changements me semblent tout de même bizarre :roll:

Je ne me plains pas trop car Google référence pas mal de pages de mon site en bonne position... mais cela est du à un contenu dense et varié.

Par contre... je ne m'explique pas comment une de mes pages qui était placée en bonne position avant ces changements... ne se trouve même plus dans les 20 premières pages.

Cette page est une page d'information sur le Mexique... certains ont avancés qu'il y avait une répétition trop importante du mot "mexique"... 54 fois... certes... mais 54 fois sur une page très longue... et comment parler du Mexique, de sa géographie, de son economie, de son histoire... sans répéter plusieurs fois son nom :roll:

Si cette hypothèse est la vraie... je vais scinder la page en 2 pour voir comment Google interprète cela.

Mais je ne suis pas tout a fait convaincu. Dans le domaine du tourisme, le mot "mexique" a une grande valeur ajoutée !

https://www.google.fr/search?q=mexique&i ... ogle&meta=

Sur les 4 premières pages il n'y a aucun site de voyages 8O ... alors qu'ils étaient très présent auparavant... pourquoi ? Voilà mon hypothèse : Pourquoi Google placerait des sites de voyages dans les premiers résultats alors que si l'internaute veut aller sur un de ces sites il n'a qu'a cliquer sur les adsenses à droite ! C'est une façon de privilégier les sites d'informations en les plaçant dans les premières places et dans le même temps, gagner de l'argent avec Adsense :idea:

Le problème c'est que Google semble occulter des sites d'informations qui comportent des mots commerciaux :(

Résultat des courses : faire du commercial ou du purement informatif... il va falloir choisir :roll:
 
WRInaute impliqué
A propos du filtre, Scroogle donne la liste des sites affectés pour chaque mot-clé recherché (par la méthode décrite qq part dans ce forum, du -quelque-chose).
http://www.scroogle.org/

J'ai l'impression que le filtre ne porte que sur les mots anglais. En tous cas d'après stroogle, "mexique" n'est pas affecté. Peut-être un autre filtre ou un changement d'algo?
 
WRInaute occasionnel
Americas a dit:
Cette page est une page d'information sur le Mexique... certains ont avancés qu'il y avait une répétition trop importante du mot "mexique"... 54 fois... certes... mais 54 fois sur une page très longue... et comment parler du Mexique, de sa géographie, de son economie, de son histoire... sans répéter plusieurs fois son nom :roll:

Ce n'est surement pas un critère particulier mais une somme de dizaines de critères juxtaposés.

deux autres au hasard:
Pourquoi pas par exemple les 9 mots en balises h1 dont 4 fois le mot mexique soit un taux de 45%?
ou les 100% des liens entrants avec le même mot?

Katia.
 
WRInaute accro
Katia a dit:
Ce n'est surement pas un critère particulier mais une somme de dizaines de critères juxtaposés.

deux autres au hasard:
Pourquoi pas par exemple les 9 mots en balises h1 dont 4 fois le mot mexique soit un taux de 45%?
ou les 100% des liens entrants avec le même mot?

Katia.

Tu as peut être raison... il y a sans doute suroptimisation de cette page :?
Cela dit... cette suroptimisation est intervenue après que Google ait plongé cette page dans les profondeurs et qu'à ce moment là il n'y avait aucune balise H1 :wink:
 
WRInaute occasionnel
anguenot.com a dit:
http://www.scroogle.org/
Merci pour l'adresse.

Egalement pour comprendre la logique du filtre, pourquoi ne pas choisir un mot qui ne concerne pas son site comme : "cliquez" par exemple.

Ce mot est filtré, il n'est pas acheté en adwords, n'est pas un mot commercial, ni un mot anglophone...

Même si je n'arriverai pas à oter l'idée à certains que Google leur veut spécifiquement du mal, ca peut au moins faire reflechir.

Katia.
 
WRInaute impliqué
je suis qd même sur que le classement sur des critères géographiques tiens maintenant plus compte du coté commercial que de la pertinence :eek:) mais tu as raison, katia sur beaucoup de choses :eek:)
Romain
 
WRInaute impliqué
Merci pour l'exemple de "cliquez" Katia. Il démontre ques des mots français sont bel et bien filtrés. Je n'avais pas remarqué.

Une visite des sites "filtrés" démontre aussi le peu de pertinence du filtre :?
 
WRInaute impliqué
En testant "moteur de recherche" sur scroogle.org, je me rends compte qu'altavista france est victime du filtre.
Grotesque :lol:
 
Nouveau WRInaute
Qui vous dit qu'il s'agit bien d'un filtre bayesien ?
Cela à la couleur du truc, mais ce n'est pas forcément cela...

Effectivement, ca en est bien la couleur, et c'est à priori ce qui pourrait expliquer les résultats douteux qu'on observe en ce moment.

Par exemple, pour les mails, il est admis qu'un filtre bayésien arrive à détecter 99% du spam, donc c'est carrément efficace !
Le problème étant les 1% d'erreurs générés qui sont généralement retraités sur le serveur via SpamAssassin ou autre du même genre, et là, on arrive réellement à une solution optimale pour détecter l'ensemble des mails qu'on peut qualifier de spam. Système qui est quand même généralisé chez les fai et hébergeurs, donc certainement fiable.

Le problème de ces 1% restant est que sur un grand volume (par exemple, une bdd de 3,800,000,000 pages indexées :D), ca génère forcément du n'importe quoi et c'est là que le filtre pèche a priori.

Autre chose aussi, pour qu'un filtre bayésien soit performant, il lui faut apprendre, faire la corrélation entre détection de spam et probabilité de spam comme l'a dit plus haut Katia.

Dans le cas de Google et si on part de l'hypothèse qu'ils ont adapté un tel filtre sur leur base de données, cela implique que le filtre est encore en phase d'apprentissage concernant ce qu'on pourrait appelé sa base 'relationnelle' (correspondance entre detection et probabilité de spam). On sait par expérience que Google ne fait pas de cas particulier et a du réaliser un filtre automatique pour l'ensemble de la base.

Dans ce cas, il est a priori logique que les résultats Google partent dans tous les sens en ce moment car le filtre 'apprend' tous les jours. Ce qui veut dire qu'à terme, d'içi quelques semaines ou quelques mois selon la courbe d'apprentissage de ce filtre, les résultats de Google devraient être beaucoup plus stables, et le filtre TRÉS efficace.

Et ainsi, je me dis qu'il va devenir dans cette hypothèse de plus en plus difficile d'arriver à contourner la puissance d'un tel filtre, et donc le positionnement dans Google sera accessible à beaucoup moins de personnes. D'un autre côté, sur les secteurs d'activités trés concurrentiels, on s'aperçoit effectivement que le ménage a été fait, et plutôt bien !
Ce qui me laisse à penser que ca confirme un peu cette hypothèse car Google via ce filtre retrouve réellement sa pertinence d'antan !

Par contre, quand aux critères de ce filtre ... mystère total encore ..
Si quelqu'un observe des choses flagrantes dans les résultats, je suis preneur !
 
WRInaute occasionnel
Bonjour à tous,

Que de posts depuis hier, fort interressants au demeurant.

Katia, je suis d'accord avec toi sur le fond je l'ai dis au début de mon post.
c'est le poid des liens entrants, dans ce filtre, qui m'inquiète: quand le sujet d'un site est précis il est normal que les autres sites le référencent à peu près de la même manière ( pour ma part DMOZ, Voila, Lycos, Francite, pour les plus connus, ne m'ont pas donné le choix du texte ou du titre, et pourtant ce sont les même mots qui reviennent ).

Katia a dit:
Je ne pense pas que les techniques de référencement tout à fait basiques comme celles proposées aux débutants sur WRI posent le moindre problème
vis à vis de ce filtre.
Si justement ! question de malchance. vas voir mon site et dis moi ce qui cloche ( en MP si tu veux ) ( c'est pas une pierre dans le jardin d'Olivier ).

Sur les critères du filtre : commerciaux, sur-optimisation etc...

Je pense qu'il y a des deux : n'oublions pas que GG est une entreprise commerciale dont on attend d'ailleurs l'introduction en bourse pour des montants propres à déstabiliser plus d'un saint.

Le pb là, c'est le tout automatique, pourquoi ne pas avoir un système qui fait remonter des "anomalies" sur les critères, d'ailleurs, qu'évoque Katia et valider ou pas la pertinence des candidats au filtre ? je sais c'est plus GG :wink:

autre solution, pourquoi ne pas avoir simplement baissé les critères d'importance des mots dans les liens et les URL ?

GG n'est pas un saint, avec ce filtre, il gagne au grattage et au tirage : je vire les sur-optimiseur ( et d'autres ) ET je promotionne mon buizness ! De toute façon le temps que les internautes s'en apercoivent je peux toujours l'enlever ce filtre, et facilement puisque je n'ai pas changé l'algorythme, vous me suivez ?

Une conséquence du filtre chez moi, c'est un comble, c'est le nb de visites à une page, je suis passé de 21% à plus de 30% :!: 8O : les internautes ne trouvent plus ce qu'ils cherchent et j'apparait peut-être maintenant là ou je n'y était pas avant, mais l'internaute vient voir parce qu'il n'a pas trouvé ce qu'il cherchait :!:
Sur le nombre de visites je peut pas savoir : 4-5% d'écart n'est pas suffisant. ( Je suis pas là, justement, pour me plaindre et je ne croie pas, Katia, que GG m'en veut ). je suis comme americas, j'ai plein d'autres pages (50000) sur le même thème.

En tous les cas je n'ai pas l'intention de bouger : je vous parie qu'en janvier tout est normal :wink:

A+
Francois
 
WRInaute impliqué
lol... c'est un paris a tenir, mais j'y crois pas trop...
j'aimerais savoir : y a t'il des sites de PR 6 ou plus qui se sont trouvés déclassés?
Romain
 
WRInaute occasionnel
DAVID86 a dit:
lol... c'est un paris a tenir, mais j'y crois pas trop...
j'aimerais savoir : y a t'il des sites de PR 6 ou plus qui se sont trouvés déclassés?
Romain

1/ c'est de l'espoir plus qu'un pari :lol:
2/ OUI : Altavista apparement :!:

mdr

A+
Francois
 
Discussions similaires
Haut