Google victime de son filtre bayésien anti spam ?

Discussion dans 'Référencement Google' créé par Giom, 4 Décembre 2003.

  1. Giom
    Giom WRInaute discret
    Inscrit:
    28 Novembre 2002
    Messages:
    54
    J'aime reçus:
    0
    Quel rapport entre l'évolution parfois décevante des résultats du moteur de recherche Google et le filtre anti spam bayésien ? C'est toute l'ambiguïté de la démarche commerciale des moteurs de recherche sponsorisés...

    Le moteur de recherche Google, qui appartient aujourd'hui au paysage Internet, plus d'un internaute sur deux y déposant des requêtes, est d'abord victime de son succès !


    Après être devenu un outil de recherche pour les hackers, en particulier avec la capacité de son robot à indexer de nombreux formats de fichiers présents sur les serveurs, et pour certains au contenu confidentiel non protégé, il est devenu un outil majeur pour les spammeurs.


    Les pages de résultats de Google sont en effet aujourd'hui spammées par des pages web sans intérêt particulier, sauf d'afficher des liens commerciaux ou de renvoyer vers des sites qui pratiquent l'affiliation payante. Ainsi, à chaque clic, l'auteur du site qui pratique le spam se voit rémunéré, et le visiteur – tout comme le moteur, mais seulement jusqu'à un certain point ! - trompés.


    Filtrer les sites spammés

    Cette pratique, assimilable au spam, s'est largement répandue ces derniers mois, et participe à polluer les résultats des moteurs de recherche, à décevoir leurs clients et à dévaloriser la pertinence du moteur. Google n'est plus ce qu'il était !


    Pour revenir à plus de pertinence, il faut soit nettoyer la base, tâche ardue lorsque les milliards de données sont réparties sur des dizaines de milliers de postes en architecture parallèle. D'autant qu'après la pertinence des algorithmes d'extraction et de classement des résultats, le volume de la base indexée est un argument marketing important.


    La solution la plus rapide et la plus simple à déployer pour écrémer les résultats semble donc d'intervenir au niveau de la requête de l'internaute, c'est-à-dire d'appliquer des philtres avant d'afficher les résultats.


    Le filtre bayésien a la faveur des moteurs de recherche

    C'est à ce niveau, celui du tri et du classement des résultats qui seront envoyés à l'internaute en réponse à sa requête, qu'interviennent les filtres bayésiens. Il s'agit en effet d'une méthode statistique avancée qui calcule la probabilité qu'un site ou une page proposé en résultat soit spammé.


    La méthode reste sémantique, puisqu'elle associe un 'taux de spam' aux mots clés de la requête de l'internaute, qu'elle compare à un 'taux de probabilité de spam' associé au contenu des sites indexés dans la base du moteur. Ainsi, une requête sur un mot clé unique sera 'nettoyée' plus largement qu'une requête associant plusieurs mots clés.


    Un filtre qui influe sur la pertinence des résultats

    La démarche est intéressante, mais le résultat laisse à désirer ! Implémenté par Google au cours du mois d'octobre 2003, le filtre bayésien anti spam a eu des répercussions dramatiques sur les résultats proposés par le moteur, faisant disparaître des sites légitimes, avec parfois l'effet inverse à celui escompté.


    Dans les semaines qui ont suivies, les résultats ont été améliorés, sans doute avec l'intervention manuelle des responsables de Google pour nettoyer la base. Mais la pertinence du moteur reste encore douteuse sur certaines requêtes.


    Nouvelle évolution majeure des algorithmes de Google à la mi novembre 2003. Cette fois, ce sont surtout des sites historiques, indexés depuis longtemps, techniquement très pertinents, et sans aucune pratique de techniques assimilables au spam, qui sont propulsés dans l'arrière boutique…


    Tester les résultats

    Comment s'assurer de l'influence du filtre bayésien sur les résultats affichés ? Google dispose d'une option qui permet de désactiver le philtre. Il suffit de placer dans la requête une commande ' -site:google.com ', qui indique au moteur de ne pas appliquer les critères proposés en mode standard, puisque la requête ne passe pas par la moulinette de filtrage de Google.com.


    La différence entre les résultats proposés avec ou sans filtre est généralement surprenante, et laisse planer un doute quant à l'efficacité des algorithmes bayésiens en matière de qualité d'extraction des résultats. Des sites d'une grande pertinence se trouvent relégués au fin fond des résultats proposés, et loin d'une réelle visibilité.


    L'ambiguïté du ratio pertinence/revenus

    Mais pour le moteur, la démarche reste ambiguë ! En effet, les spammeurs sont les premiers à acheter du mot clé, car ils cherchent à se positionner au mieux sur les requêtes des internautes afin d'attirer un revenu issu de l'affiliation. Le spam participe donc, sans doute largement, aux revenus générés par les liens payants, AdWords de Google ou liens sponsorisés d'Overture et eSpotting.


    C'est là toute l'ambiguïté de la lutte contre le spam à la source des moteurs de recherche, mais aussi des annuaires ou des portails… Car ces pratiques participent activement à leurs revenus !


    Yves Grandmontagne
    Silicon.fr[/url]
     
  2. Siddartha
    Siddartha Nouveau WRInaute
    Inscrit:
    30 Novembre 2003
    Messages:
    17
    J'aime reçus:
    0
  3. DAVID86
    DAVID86 WRInaute impliqué
    Inscrit:
    15 Octobre 2003
    Messages:
    803
    J'aime reçus:
    0
    intéressant... mais -autrechose marche autant que -google.com ! :eek:)... tout en donnant au surprise encore des résultats différents!
    Google, la, tu m'impressionnes!
    Romain
     
  4. Katia
    Katia WRInaute occasionnel
    Inscrit:
    4 Septembre 2002
    Messages:
    340
    J'aime reçus:
    0
    Très intéressante analyse de Giom.

    Il ya des quantités de requêtes sur un mot clé qui ne sont pas nettoyées (noel) alors que des requetes sur trois, quatre ou plus de mots clés sont complètement nettoyées (new hotel usa).

    Il y a environ 7000 langues parlées dan le monde, plusieurs dizaines de milliers de mots par langues, soit environ 5000 à 10000 milliards de combinaisons de 2 mots et ne parlons pas des combinaisons de trois mots, quatre mots ou plus.

    En complément du developpement de Giom, je crois que Google a fait très fort.

    Que ce sont les "spammeurs" ou les "optimiseurs" qui vont désormais déterminer eux-mêmes involontairement si un filtre doit ou non leur être appliqué. Comment est-ce possible?

    Imaginons que ce filtre soit appliqué à des mots et à des pages avant tout.

    Imaginons que ce taux soit calculé avant tout pour des mots uniques.
    Lorsque la requête comprend plusieurs mots, des règles spécifiques determinent alors automatiquement le taux de "synthèse" et l'application ou non du filtre.

    Un site peut donc avoir certaines pages déclassées sur certaines combinaisons de mots et pas sur d'autres.

    Imaginons que le filtre s'applique comme un taux applicable au delà d'un seuil et non pas d'un bouton oui/non.

    Imaginons que les adwords ne determinent pas le filtre
    car on trouve des mots clés qui ne font pas partie des adwords et qui sont nettoyés,et
    on trouve des mots clés qui font partie des adwords et qui ne sont pas nettoyés.


    Imaginons que pour chaque mot unique à travers le monde un coefficient "risque de spam" soit appliqué à partir d'une somme de critères combinés du type:
    "présence moyenne par pages"
    "présence moyenne dans les liens entrants"
    "nombre de résultats dans les recherches"

    Il suffirait alors qu'un groupe de webmasters concurrents dans la 2345ème langue de la liste suroptimisent par exemple sur le mot "xzxzxzxz" (ou sur une combinaison de mots) pour qu'automatiquement ce mot (ou les mots faisant partie de cette combinaison) soit filtré par Google sans aucune intervention humaine.

    Cela voudrait dire aussi qu'il faut désormais distinguer 2 choses : le filtre bayesien et le paramétrage différent de l'algo principal Google en fonction du taux d'application du filtre bayesien.
    Le premier étant lié à toutes les pages web, il n'est donc plus maîtrisable par les 'optimiseurs".

    Le second étant lié au premier, il devient une barre amovible difficile à gérer.

    Si par exemple, plusieurs SEO désoptimisent leurs sites sur un mot clé donné, le filtre pourrait ne plus s'appliquer plus automatiquement renversant de nouveau la donne.

    Si c'est le cas et même si ce filtre comporte encore quelques grosses faiblesses, comme d'ailleurs tous les tris automatisés, il sera surement d'un grand secours à Google car bien plus difficile à maîtriser par ceux qui "sur-optimisent".

    Pour moi, il améliore un peu la qualité globale des résultats.

    En tous cas, je ne pense pas qu'il ait été conçu pour favoriser ou défavoriser des sites, des catégories particulières, dans telle ou telle région du monde.

    Katia.
     
  5. Kmacleod
    Kmacleod WRInaute passionné
    Inscrit:
    28 Novembre 2002
    Messages:
    2 456
    J'aime reçus:
    0
    Et si les "suroptimiseurs" faisaient rentrer dans le filtre, non pas leur mot clés, mais les mots clés voisins.
    si 49 personnes alignées reculent d'un pas, ils désignent le 50 ème comme étant celui qui a fait un pas un avant.
     
  6. François
    François WRInaute occasionnel
    Inscrit:
    13 Novembre 2002
    Messages:
    269
    J'aime reçus:
    0
    Bonjour Katia,

    Je suis d'accord sur le fond de la nécessitée de filtrer les sites truffés de mots clés qu'il soient ou non en rapport avec leur contenu. Idem pour les pages satellites ou cachées etc..

    Mais le pb, c'est qu'en ce moment, c'est à se rouler par terre de rire pour certains résultats : on trouve des sites bien placés avec une pertinence moyenne voire n'ayant rien à voir avec le steak !

    De plus, si on a le malheur d'avoir un domaine avec les mots clés suspicieux, plus on a de liens plus on est considéré comme sur-optimiseur : je parle du domaine pas de répertoires virtuels créer à la volée.

    Dans ces cas la que faire ? on ne maitrise pas qui fait un lien vers soit.

    Quelqu'un ici parlait de ventes de pommes comme exemple, il m'a faire rire jaune :

    1/ je choisi quoi comme domaine : ventepommes.com ou ventes-pommes.com : avouons que le deuxieme est nettement plus lisible, pour un homme ou un robot !

    2/ quand quelqu'un veut faire un lien vers moi, je ui conseille quoi comme texte : Vente pommes ou vente bananes histoire d'éviter de me faire filtrer ?

    3/ comme titre de la page d'accueil je mets quoi ? vente pommes en gros par ex ou grossiste pomme ou vente bananes.

    J'ai eu le même choix à faire avant même que je connaisse WRI et qu'il existe pour choisir le nom de domaine de mon site : vous savez ce que j'ai choisi et le resultat !!!

    J'ai lu un article ( lien ci après ) ou le mot c'est rayonnage ( en anglais ), le responsable du site à eu la "mauvaise" idée de choisir comme nom rayonnages.com : quelle erreur ! c'est con pour lui c'est trop pertinent surtout que des tas de sites font un lien vers lui ( puisqu'il existe depuis des années ) avec comme texte , je vous le donne en mille ? rayonnages.com !

    l'article en question :
    http://www.searchengineguide.com/lloyd/ ... 5_bl1.html

    Alors oui un filtre c'est bien, oui il y avait squattage de pseudo-annuaires sur les 1ères pages, mais combien de sites pertinents, faisant leur travail correctement, sont partis avec l'eau du bain ? et le squattage continue sur d'autres combinaisons en plus : pourquoi pas de filtre ?

    Faut pas pousser non plus : on n'en sort plus s'il faut éviter d'utiliser un mot clé pertinent dans le format des liens qu'on propose ou dans le nom d'un dossier pourtant utile !
    Cf les conseils de GG lui même quand aux règles pour être bien référencé je cite :

    Essayez d'imaginer les termes qui seront soumis à Google par les utilisateurs qui cherchent à s'informer sur le contenu de votre site, et insérez ces termes dans vos pages

    Si ca n'est pas de l'optimisation ca y ressemble, faut pas être trop bon c'est tout, et pas d'enjeux commerciaux.. pardon on a pas de preuves :wink:

    En résumé, pourquoi envoyer un petit commando quand une simple bombe au napalm suffit ? tant pis si on tue des civils !

    Bref j'arrète là ou je vais me faire tuer par les modérateurs ou le boss lui même ! pas trop fort quand même les gars.

    A+
    Francois, qui rit quand même bien sur certains résultats :wink:
     
  7. DAVID86
    DAVID86 WRInaute impliqué
    Inscrit:
    15 Octobre 2003
    Messages:
    803
    J'aime reçus:
    0
    et sur l'échelle géographique

    Je suis d'accord avec toi, François ; un petit exemple : mettez vous à la place de sites institutionnels ! Beaucoup de ceux qui investissaient dans une véritable lisibilité sur leur échelle de territoire (et ils étaient déja trop rares) se retrouvent maintenant après une myriade d'agences de voyages... américaines :eek:)
    Bonjour la pertinence pour le service public! En attendant, les guichets publics sont en grosse baisse de fréquentation... car ils ne sont plus trouvable. Résultat, on est obligé de communiquer en dur... avec quel argent?? ;)
     
  8. cariboo
    cariboo WRInaute impliqué
    Inscrit:
    8 Février 2003
    Messages:
    593
    J'aime reçus:
    0
    :?:

    Euh... Juste une remarque en passant !

    Qui vous dit qu'il s'agit bien d'un filtre bayesien ?

    Cela à la couleur du truc, mais ce n'est pas forcément cela...

    Une info qui sort du Googleplex ? Pas à ma connaissance...

    Si je vois un journaliste bien informé qui ne cite pas ses sources, j'ai toujours la même réaction... le doute !

    Alors, info ou intox.

    Une (vraie) info qui sort du Googleplex : ce filtre est sémantique. Mais tous les filtres sémantiques ne sont pas bayesiens.
     
  9. Katia
    Katia WRInaute occasionnel
    Inscrit:
    4 Septembre 2002
    Messages:
    340
    J'aime reçus:
    0
    Un filtre qui chamboule les résultats ca a toute les chances de faire 33% de satisfaits, 33% d'indécis et 33% de mécontents.
    Un algorithme qui s'améliore ca peut donner 70% de résultats de meilleure qualité et 30% de résultats de moins bonne qualité.

    Si le filtre avait globalement dégradé la qualité et la pertinence des résultats,
    Google aurait très vite laissé tomber ce filtre.

    Il y a des dégats collatéraux. Pour certaines sociétés, peut être des employés au chomage parce que les résultats de leur site auront décliné...
    et si cela est lié aux 30% de résultats de moins bonne qualité, c'est surement rageant.

    Maintenant, Google aurait été bien plus en danger en conservant indéfiniment sa lisibilité parfaite par les référenceurs.

    Les pages poubelles et les pages suroptimisées, ce n'est pas anecdotique si ca se trouve pour Google.
    Qui vous dit que le pourcentage de pages spammées n'est pas équivalent au pourcentage de e-mails qui sont des spams à travers le monde soit 1 sur 2.
    Probable. Les serveurs de mails ont du prendre des mesures radicales.
    Google a peut être été obligé de faire de même.

    Google laisse apparaitre dans les résulats le plus souvent le meilleur et en général nous evite de voir ce qu'il y a dessous.
    Lorsqu'on descend dans les résultats, ou qu'on force un peu l'apparition des reseaux souterrains, on s'aperçoit qu'il en existe un nombre incroyable.

    le tout dernier entrevu par hasard:
    https://www.google.fr/search?hl=fr&ie=IS ... t%22&meta=
    Il y a peut etre un nom de domaine clean dans cette liste mais il faut le trouver.

    Certains mots peuvent interesser 1000 à 4000 sites ou webmasters... et pourtant il n'y a que 10 places sur la première page.

    Je ne pense pas que les techniques de référencement tout à fait basiques comme celles proposées aux débutants sur WRI posent le moindre problème
    vis à vis de ce filtre.

    Par contre lorsqu'un site envoit 2000 liens optimisés vers une page pour bien ressortir sur une combinaison très concurrentielle,
    qu'un autre fait rebelotte et en rajoute 4000 pour le depasser et le suivant dix de der avec 8000 liens pour être devant, Google n'a plus forcement envie de cautionner indéfiniment
    cette surenchère qui ne produit pas forcement les resultats les plus pertinents.

    C'est vrai on en sait rien!

    Katia
     
  10. Americas
    Americas WRInaute accro
    Inscrit:
    24 Septembre 2003
    Messages:
    2 574
    J'aime reçus:
    0
    C'est un filtre "googlien"... ça c'est sûr :lol:

    En tout cas... à titre perso... ces changements me semblent tout de même bizarre :roll:

    Je ne me plains pas trop car Google référence pas mal de pages de mon site en bonne position... mais cela est du à un contenu dense et varié.

    Par contre... je ne m'explique pas comment une de mes pages qui était placée en bonne position avant ces changements... ne se trouve même plus dans les 20 premières pages.

    Cette page est une page d'information sur le Mexique... certains ont avancés qu'il y avait une répétition trop importante du mot "mexique"... 54 fois... certes... mais 54 fois sur une page très longue... et comment parler du Mexique, de sa géographie, de son economie, de son histoire... sans répéter plusieurs fois son nom :roll:

    Si cette hypothèse est la vraie... je vais scinder la page en 2 pour voir comment Google interprète cela.

    Mais je ne suis pas tout a fait convaincu. Dans le domaine du tourisme, le mot "mexique" a une grande valeur ajoutée !

    https://www.google.fr/search?q=mexique&i ... ogle&meta=

    Sur les 4 premières pages il n'y a aucun site de voyages 8O ... alors qu'ils étaient très présent auparavant... pourquoi ? Voilà mon hypothèse : Pourquoi Google placerait des sites de voyages dans les premiers résultats alors que si l'internaute veut aller sur un de ces sites il n'a qu'a cliquer sur les adsenses à droite ! C'est une façon de privilégier les sites d'informations en les plaçant dans les premières places et dans le même temps, gagner de l'argent avec Adsense :idea:

    Le problème c'est que Google semble occulter des sites d'informations qui comportent des mots commerciaux :(

    Résultat des courses : faire du commercial ou du purement informatif... il va falloir choisir :roll:
     
  11. anguenot.com
    anguenot.com WRInaute impliqué
    Inscrit:
    14 Mai 2003
    Messages:
    776
    J'aime reçus:
    36
    A propos du filtre, Scroogle donne la liste des sites affectés pour chaque mot-clé recherché (par la méthode décrite qq part dans ce forum, du -quelque-chose).
    http://www.scroogle.org/

    J'ai l'impression que le filtre ne porte que sur les mots anglais. En tous cas d'après stroogle, "mexique" n'est pas affecté. Peut-être un autre filtre ou un changement d'algo?
     
  12. Katia
    Katia WRInaute occasionnel
    Inscrit:
    4 Septembre 2002
    Messages:
    340
    J'aime reçus:
    0
    Ce n'est surement pas un critère particulier mais une somme de dizaines de critères juxtaposés.

    deux autres au hasard:
    Pourquoi pas par exemple les 9 mots en balises h1 dont 4 fois le mot mexique soit un taux de 45%?
    ou les 100% des liens entrants avec le même mot?

    Katia.
     
  13. Americas
    Americas WRInaute accro
    Inscrit:
    24 Septembre 2003
    Messages:
    2 574
    J'aime reçus:
    0
    C'est quoi ce scroogle ? 8O

    Il se base sur quoi à part l'API de Google ? :roll:
     
  14. Americas
    Americas WRInaute accro
    Inscrit:
    24 Septembre 2003
    Messages:
    2 574
    J'aime reçus:
    0
    Tu as peut être raison... il y a sans doute suroptimisation de cette page :?
    Cela dit... cette suroptimisation est intervenue après que Google ait plongé cette page dans les profondeurs et qu'à ce moment là il n'y avait aucune balise H1 :wink:
     
  15. Katia
    Katia WRInaute occasionnel
    Inscrit:
    4 Septembre 2002
    Messages:
    340
    J'aime reçus:
    0
     
  16. Americas
    Americas WRInaute accro
    Inscrit:
    24 Septembre 2003
    Messages:
    2 574
    J'aime reçus:
    0
    Mais on sait que Google ne nous veut pas du mal :lol:

    Il veut simplement favoriser ses adsenses :wink:
     
  17. DAVID86
    DAVID86 WRInaute impliqué
    Inscrit:
    15 Octobre 2003
    Messages:
    803
    J'aime reçus:
    0
    je suis qd même sur que le classement sur des critères géographiques tiens maintenant plus compte du coté commercial que de la pertinence :eek:) mais tu as raison, katia sur beaucoup de choses :eek:)
    Romain
     
  18. anguenot.com
    anguenot.com WRInaute impliqué
    Inscrit:
    14 Mai 2003
    Messages:
    776
    J'aime reçus:
    36
    Merci pour l'exemple de "cliquez" Katia. Il démontre ques des mots français sont bel et bien filtrés. Je n'avais pas remarqué.

    Une visite des sites "filtrés" démontre aussi le peu de pertinence du filtre :?
     
  19. anguenot.com
    anguenot.com WRInaute impliqué
    Inscrit:
    14 Mai 2003
    Messages:
    776
    J'aime reçus:
    36
    En testant "moteur de recherche" sur scroogle.org, je me rends compte qu'altavista france est victime du filtre.
    Grotesque :lol:
     
  20. Siddartha
    Siddartha Nouveau WRInaute
    Inscrit:
    30 Novembre 2003
    Messages:
    17
    J'aime reçus:
    0
    Effectivement, ca en est bien la couleur, et c'est à priori ce qui pourrait expliquer les résultats douteux qu'on observe en ce moment.

    Par exemple, pour les mails, il est admis qu'un filtre bayésien arrive à détecter 99% du spam, donc c'est carrément efficace !
    Le problème étant les 1% d'erreurs générés qui sont généralement retraités sur le serveur via SpamAssassin ou autre du même genre, et là, on arrive réellement à une solution optimale pour détecter l'ensemble des mails qu'on peut qualifier de spam. Système qui est quand même généralisé chez les fai et hébergeurs, donc certainement fiable.

    Le problème de ces 1% restant est que sur un grand volume (par exemple, une bdd de 3,800,000,000 pages indexées :D), ca génère forcément du n'importe quoi et c'est là que le filtre pèche a priori.

    Autre chose aussi, pour qu'un filtre bayésien soit performant, il lui faut apprendre, faire la corrélation entre détection de spam et probabilité de spam comme l'a dit plus haut Katia.

    Dans le cas de Google et si on part de l'hypothèse qu'ils ont adapté un tel filtre sur leur base de données, cela implique que le filtre est encore en phase d'apprentissage concernant ce qu'on pourrait appelé sa base 'relationnelle' (correspondance entre detection et probabilité de spam). On sait par expérience que Google ne fait pas de cas particulier et a du réaliser un filtre automatique pour l'ensemble de la base.

    Dans ce cas, il est a priori logique que les résultats Google partent dans tous les sens en ce moment car le filtre 'apprend' tous les jours. Ce qui veut dire qu'à terme, d'içi quelques semaines ou quelques mois selon la courbe d'apprentissage de ce filtre, les résultats de Google devraient être beaucoup plus stables, et le filtre TRÉS efficace.

    Et ainsi, je me dis qu'il va devenir dans cette hypothèse de plus en plus difficile d'arriver à contourner la puissance d'un tel filtre, et donc le positionnement dans Google sera accessible à beaucoup moins de personnes. D'un autre côté, sur les secteurs d'activités trés concurrentiels, on s'aperçoit effectivement que le ménage a été fait, et plutôt bien !
    Ce qui me laisse à penser que ca confirme un peu cette hypothèse car Google via ce filtre retrouve réellement sa pertinence d'antan !

    Par contre, quand aux critères de ce filtre ... mystère total encore ..
    Si quelqu'un observe des choses flagrantes dans les résultats, je suis preneur !
     
  21. François
    François WRInaute occasionnel
    Inscrit:
    13 Novembre 2002
    Messages:
    269
    J'aime reçus:
    0
    Bonjour à tous,

    Que de posts depuis hier, fort interressants au demeurant.

    Katia, je suis d'accord avec toi sur le fond je l'ai dis au début de mon post.
    c'est le poid des liens entrants, dans ce filtre, qui m'inquiète: quand le sujet d'un site est précis il est normal que les autres sites le référencent à peu près de la même manière ( pour ma part DMOZ, Voila, Lycos, Francite, pour les plus connus, ne m'ont pas donné le choix du texte ou du titre, et pourtant ce sont les même mots qui reviennent ).

    Si justement ! question de malchance. vas voir mon site et dis moi ce qui cloche ( en MP si tu veux ) ( c'est pas une pierre dans le jardin d'Olivier ).

    Sur les critères du filtre : commerciaux, sur-optimisation etc...

    Je pense qu'il y a des deux : n'oublions pas que GG est une entreprise commerciale dont on attend d'ailleurs l'introduction en bourse pour des montants propres à déstabiliser plus d'un saint.

    Le pb là, c'est le tout automatique, pourquoi ne pas avoir un système qui fait remonter des "anomalies" sur les critères, d'ailleurs, qu'évoque Katia et valider ou pas la pertinence des candidats au filtre ? je sais c'est plus GG :wink:

    autre solution, pourquoi ne pas avoir simplement baissé les critères d'importance des mots dans les liens et les URL ?

    GG n'est pas un saint, avec ce filtre, il gagne au grattage et au tirage : je vire les sur-optimiseur ( et d'autres ) ET je promotionne mon buizness ! De toute façon le temps que les internautes s'en apercoivent je peux toujours l'enlever ce filtre, et facilement puisque je n'ai pas changé l'algorythme, vous me suivez ?

    Une conséquence du filtre chez moi, c'est un comble, c'est le nb de visites à une page, je suis passé de 21% à plus de 30% :!: 8O : les internautes ne trouvent plus ce qu'ils cherchent et j'apparait peut-être maintenant là ou je n'y était pas avant, mais l'internaute vient voir parce qu'il n'a pas trouvé ce qu'il cherchait :!:
    Sur le nombre de visites je peut pas savoir : 4-5% d'écart n'est pas suffisant. ( Je suis pas là, justement, pour me plaindre et je ne croie pas, Katia, que GG m'en veut ). je suis comme americas, j'ai plein d'autres pages (50000) sur le même thème.

    En tous les cas je n'ai pas l'intention de bouger : je vous parie qu'en janvier tout est normal :wink:

    A+
    Francois
     
  22. DAVID86
    DAVID86 WRInaute impliqué
    Inscrit:
    15 Octobre 2003
    Messages:
    803
    J'aime reçus:
    0
    lol... c'est un paris a tenir, mais j'y crois pas trop...
    j'aimerais savoir : y a t'il des sites de PR 6 ou plus qui se sont trouvés déclassés?
    Romain
     
  23. François
    François WRInaute occasionnel
    Inscrit:
    13 Novembre 2002
    Messages:
    269
    J'aime reçus:
    0
    1/ c'est de l'espoir plus qu'un pari :lol:
    2/ OUI : Altavista apparement :!:

    mdr

    A+
    Francois
     
Chargement...
Similar Threads - Google victime filtre Forum Date
Victime du filtre de suroptimisation Google? Votre avis sur le site? Problèmes de référencement spécifiques à vos sites 7 Juin 2009
Google victime de ses propres filtres. Référencement Google 26 Octobre 2005
Mon site est victime de pingouin, comment signaler à Google ? Problèmes de référencement spécifiques à vos sites 24 Juin 2013
Victime de google panda Problèmes de référencement spécifiques à vos sites 29 Janvier 2013
Victime de Google ? Problèmes de référencement spécifiques à vos sites 14 Mai 2012
Google Pengouin, suis-je une victime ? Problèmes de référencement spécifiques à vos sites 30 Avril 2012
Google victime d'abus d'incompréhension dominante [Article] Droit du web (juridique, fiscalité...) 17 Septembre 2010
Google victime du programme nucléaire chinois Google : l'entreprise, les sites web, les services 10 Février 2010
Google victime de son succès? Débuter en référencement 9 Août 2009
Une nouvelle victime de Google : Pc Inpact Référencement Google 8 Octobre 2008
Google victime d'un bug Google : l'entreprise, les sites web, les services 18 Mai 2004
Google Mobile First Débuter en référencement 7 Août 2022
Cette URL n'a pas été indexée par Google Problèmes de référencement spécifiques à vos sites 5 Août 2022
Suppression de la recherche Google conformément au DMCA Référencement Google 20 Juillet 2022
SEO Local & Google My Business YouTube, Google Images et Google Maps 17 Juillet 2022
Suppression d' url via la Console Google Search Débuter en référencement 14 Juillet 2022
Forcer Google à valider correction d'une erreur Problèmes de référencement spécifiques à vos sites 14 Juillet 2022
Cache Google sans police de caractères Débuter en référencement 9 Juillet 2022
Je ne peux plus consulter mes données Google Analytics Google Analytics 8 Juillet 2022
6 mois après, pas d'indexation correcte dans Google Problèmes de référencement spécifiques à vos sites 8 Juillet 2022