1. ⭐⭐⭐ Grosse PROMO en cours sur ma plateforme SEO My Ranking Metrics
    Rejeter la notice

Un filtre Google contre la suroptimisation du référencement ?

Discussion dans 'Référencement Google' créé par WebRankInfo, 19 Mars 2012.

  1. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
  2. Openture
    Openture WRInaute discret
    Inscrit:
    17 Mars 2012
    Messages:
    81
    J'aime reçus:
    0
    Mais cela fait déjà un bon bout de temps que le métier de SEO a évolué en ce sens, et à ce juste titre, je ne suis pas sûr que l'acronyme "SEO" est encore rigoureusement exact.

    Si Matt Cutts veut éliminer les SEO qui n'ont pas compris les enjeux des communautés et des réseaux sociaux, et qui passent leurs temps à la soumission régulière aux annuaires bas de gamme, qui appliquent le nofollow à tout bout de champ, qui croient dur comme fer au keyword density, qui font du keyword-stuffing sur les 70 premiers mots d'un texte etc, il n'y a aucun problème.
    Je ne sais pas pour vous, mais à l'heure actuelle, je considère que le SEO, c'est 51% d'optimisation vis-à-vis des moteurs de recherche et 49% vis-à-vis des internautes.
     
  3. fredfan
    fredfan WRInaute accro
    Inscrit:
    2 Juillet 2008
    Messages:
    2 869
    J'aime reçus:
    2
    Ce qui est inquiétant c'est que les premières années de Google, les améliorations de l'algorithme étaient positives et novatrices : prise en compte de nouveaux paramètres, amélioration de la lecture du contenu... ce qui a permis une amélioration de la qualité des résultats.
    Aujourd'hui il y a un bras de fer entre les améliorations et les filtres. Utiliser les méthodes efficaces, c'est risquer en permanence la sanction. Ca fait beaucoup de dégâts collatéraux, les meilleurs contenus ne sont plus forcément bien classés, et des contenus médiocres arrivent à passer à travers les mailles.
    Du coup la qualité des résultats est plutôt en baisse, et ce filtre ne devrait pas les arranger, bien au contraire.
     
  4. 1-sponsor
    1-sponsor WRInaute passionné
    Inscrit:
    27 Octobre 2006
    Messages:
    2 425
    J'aime reçus:
    4
    Exact, depuis Panda, je n'ai pas remarqué une amélioration de la pertinence, mais une baisse de qualité des résultats. Et les sites spammy sont toujours aussi bien placés, si pas mieux...
     
  5. mipc
    mipc WRInaute accro
    Inscrit:
    11 Février 2009
    Messages:
    3 159
    J'aime reçus:
    0
    ça m'arrangerais bien, je ne fais plus de SEO du moins pas de manière active, je ne change pas mes textes de mon site depuis au moins 1ans et je ne fais plus de netlinking et autres campagne de référencement dans les annuaires et autres sites de CP depuis plus d'un ans, reste que dernièrement mon site monte dans les SERP.

    et je ne créer pas de pages pour polluer le WEB de pages bidons tous juste bonne à monter dans les SERP de google(comprendre qui n'ont pas d'utilité réel pour le visiteurs et qui ne servent à rien à par du blabla à la con), je ne fais plus que des choses pertinentes et utile, et pourtant ça fait 3 mois que je monte dans les SERP de google.

    mes concurrents polluent le web de pages bidons et n'ont rien à dire de réellement intéressant et pertinent pour le visiteurs, pire ils flouent le visiteur avec des pages et des pages à la con, sans vraiment chercher à résoudre leurs problèmes, ces pages sont juste conçus et penser pour drainer des visiteurs qui sont en faites des gens perdu qui ne savent même pas comment elles sont arriver là.

    en gros, si vous n'avez rien à dire abstenez vous merci, certains de mes concurrents créer des pages à la con sur des sujets d'une porter et d'un intérêt fortement limiter dans l'unique but de monter dans les SERP de google, et le pire dans tous ça c'est que la plus part du temps ça ne résout pas vraiment le problème du visiteurs de la page, ça sert juste à faire genre, à donner une bonne image de l'entreprise, mais en terme d'utilité pour le lecteur, c'est peanuts et si ça résolvait vraiment des gros problèmes c'est pages n'existeraient tous simplement pas, une entreprise de depannage informatique n'a aucun intérêt à donner la solution gratuitement à des personnes qui pourraient etre des clients.

    donc soit le sujet traiter est réelle, soit le sujet ne vaut pas la peine qu'on s'y attarde, mais il faut aussi critiquer la qualité rédactionnel du sujet traiter par ses sites internet souvent c'est très mal fait, ni fait ni à faire, le visiteur n'en sait souvent pas plus après qu'avant avoir lu la page, soit c'est le type de panne tellement peux rémunératrice pour l'entreprise de depannage informatique qu'elle peut se permettre de dévoiler tous ou partie de la solution.
     
  6. vincentdezone
    vincentdezone WRInaute impliqué
    Inscrit:
    2 Janvier 2009
    Messages:
    779
    J'aime reçus:
    0
    Je ne m'inquiète jamais des radars car je suis toujours dans la limite de vitesse autorisée. Je ne m'inquiète donc pas de ce nouveau filtre car sur mes derniers sites je fais du SEO bio sans pesticides, sans OGM, que du bon produit. Tant mieux si les sites aux footers demesurés ou aux 2000 échanges de liens sans intérêts, ou aux contenus rédactionnels sur-optimisés, disparaissent des résultats. Ca laissera de la place aux artisans.
     
  7. nza2k
    nza2k WRInaute impliqué
    Inscrit:
    16 Janvier 2004
    Messages:
    895
    J'aime reçus:
    1
    Si certains sites sont trop hauts car ils sont "sur-optimisés", il me paraîtrait plus juste de revoir la pondération des critères de positionnement, ou d'en ajouter, plutôt que de déployer un filtre qui va tailler dans le vif et engendrer des dommages collatéraux. Si vous vous donnez les moyens de créer un bon site, il est logique de travailler son référencement naturel. Or, comme les règles ne sont pas clairement établies, comment savoir avec certitude qu'on travaille son référencement naturel "bien mais pas trop" ?
     
  8. gripsous
    gripsous WRInaute passionné
    Inscrit:
    5 Juillet 2004
    Messages:
    1 416
    J'aime reçus:
    0
    Mais clairement c'est quoi un sit sur-optimisé aujourd'hui ?
     
  9. rédac cabanes
    rédac cabanes WRInaute discret
    Inscrit:
    13 Avril 2006
    Messages:
    199
    J'aime reçus:
    0
    Bonjour,

    Fredfan a une remarque judicieuse, après la carotte on droit au bâton.
    je m'associe,... mais avec vigilance, Panda m'a paru très incongru en favorisant des sites non actualisés, et sans trop d’intérêts mais qui possédaient 5 fois un mot clé par exemple sur un title. L'AI serait elle trop sensible au clinquant? Faut il lui apprendre les bonnes manières? Ou alors c'était: "on a laissé pousser pour raser encore de plus près." :?:
    Vu que ça nous sautait aux yeux, et même certains Wrinautes le constatait pour leur sites, la question serait: pourquoi Matt avec les tests, etc, a mis 10 mois pour faire cette annonce?
    Je reprends l'hypothèse que ce peut être un test au long cours -et lucratif -pour jauger les réactions des internautes, des webmasters, entre autres, sur des SERP moins pertinentes mais plus MFA.
    Enfin, il y avait un objectif.
     
  10. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    A quand la template Google friendly ? :lol: vive le bouton [Google pitoyable +1]
     
  11. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    C'est presque " ... Faites comme ceci et cela ..." et 1 an plus tard c'est "... faut plus faire çà, donc je te sanctionne ..."
    C'est quand même dur de suivre notre ami Google :lol:
     
  12. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
    je ne comprends pas bien cette remarque, quelle règle d'il y a 1 an serait contredite aujourd'hui ?
     
  13. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    C'est plus une vue personnelle qu'autre chose mais 2 ou 3 éléments me font penser à cela.
    Panda sanctionne différents "trucs" dont 1 qui était préconisé à l'époque par Google. Mais je n'en dirais pas plus sur le sujet car c'est mon petit jardin secret :mrgreen:
     
  14. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    ce n'est pas au niveau du site, mais au niveau du SEO suroptimisé
    ce sont, pour l'essentiel, des miroirs aux alouettes.
    Historiquement les hyperliens permettaient aux utilisateurs (puis aux internautes) de se déplacer (à l'aide d'un simple clic) dans un document, ou dans le worldwideweb.
    GG veut surement en revenir aux fondamentaux : un lien étant utile aux internautes pour approfondir une information ou découvrir d'autres choses, tout lien qui n'envoie pas d'internaute n'a plus lieu d'être, et ça, statistiquement, gg a largement les moyen de le savoir, avec tous ses services.
    Donc des liens qui ne sont suivis par (quasi) aucun internaute, mais qui ne sont là que pour faire des BL et tenter d'altérer l'algo de gg pour ressortir mieux, il n'y a pas que dans les annuaires ou les sites de CP qu'on en trouve, il y a aussi les liens cachés dans les textes de ses propres sites, ceux dans les footer, ceux dans les réseaux sociaux mais qui ne sont suivis par personnes,...
    Pour ça, 2 étapes : la pondération de tels BL devient quasi nulle, ensuite, ces sites avec des BL quasi nuls régressent dans les serp
    Si c'est vraiment cette direction qui est prise par gg, il va falloir enfin (pour ceux qui n'avait pas cette priorité) travailler pour l'internaute.
    Quand l'essentiel des BL sont optimisés, ça ne parait pas non plus naturel
     
  15. Delphine75
    Delphine75 Nouveau WRInaute
    Inscrit:
    3 Février 2012
    Messages:
    17
    J'aime reçus:
    0
    Le probleme de la detection de suroptimisation est que ce sont les entreprises qui ont un nom de domaine qui correspond exactement aux mots clefs visés qui sont favorisées, car on ne peu pas les accuser de suroptimiser.

    Par exemple, si on tapes "huiles essentielles" sur google, une bonne partie des resultats est constituée de "huiles-essentielles.xyz" donc finalement une société lambda qui s'appelerai "les odeurs du paradis" par exemple, n'aurai ( n'a ? ) plus aucune chance d'apparaitre en bonne position, sauf en achetant de l'adwords qui est comme tout le monde le sait, pas du tout rentable pour une tpe/pme.

    Le nouvel algorythme de google a donc échoué et est discriminatoire. Si vous n'avez pas le bon nom vous avez perdu.

    D.
     
  16. lecouti
    lecouti WRInaute passionné
    Inscrit:
    3 Janvier 2009
    Messages:
    1 351
    J'aime reçus:
    4
    Il n'y a rien d'incompatible. On peut faire un travail d'information de qualité destiné aux internautes et chercher à promouvoir son travail. Il faut arrêter de dire que chercher à obtenir des liens qui ne seraient pas "naturels" pour s'assurer une meilleure visibilité çà équivaut à pourrir les Serps. Il y a un amalgame avec les MFA, spammeurs et autres qui est tellement loin de la réalité...
     
  17. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    sauf que de tels ndd sont considérés comme spammy
    en soi, non. Mais être "obligé" de pondre du contenu unique de 500 à 1000 caractères, si. Je suis désolé, mais si je tombe sur la présentation du même site mais avec un contenu différent de façon à passer le filtre duplicate de gg, ça fait croire à l'internaute que c'est un autre site et, dans ce cas, l'internaute a à peine cliqué qu'il ferme la fenêtre.
    Ca n'est donc pas le bl en lui même qui est spammy, mais tout ce qu'il faut faire pour l'obtenir.
    Et puis, perso, quand je lis les commentaires de certains blogs, les noms des "commentateurs" me donnent des boutons "lunettes pas chères", "assurance auto",etc... j'ai des doutes que IRL ils se fassent appeler de la sorte.
    Donc oui, pour moi ça sera un grand plus ce nettoyage :twisted:
     
  18. lambi521
    lambi521 WRInaute passionné
    Inscrit:
    15 Juin 2010
    Messages:
    1 476
    J'aime reçus:
    0
    Ca ferait un beau ménage et ça bouleverserait les SERPs, mais ça ferait pas de mal. Quand je vois le nombre de sites totalement inutiles d'un point de vue internaute, qui sont juste là pour vomir 10 lignes en rapport avec les mots clefs du site à référencer, tout ça pour y coller un ou deux baclinks, je trouve normal que Google n'en tienne pas compte et que le site qui est pointé par le lien ne bénéficie d'aucun avantage niveau positionnement que ces concurrents.

    Par exemple, je vois régulièrement des sites (type wordpress bien évidemment) où on va avoir 2 lignes sur les haricots verts avec un lien vers un site bio, 5 lignes sur les régimes avec un lien vers un site de cosmétiques, etc etc. Ou alors les "articles" du type "Wahou aujourd'hui super génial j'ai trouvé mon lot de 3 stylos mois cher ici". J'en connai même (et pas qu'un seul, des armées de sites d'agence de ref) ou il y a un article en français puis un article en anglais etc... Qu'est ce que ça me goooooonfle ! Tant mieux si Google dégage tout ça, ça remettra les pendules à l'heure.

    D'ailleurs en tant que jeune développeur/référenceur, j'ai trouvé ça hallucinant qu'il suffise de faire des liens avec les mots clefs en ancre pour arriver 1er sur ces mots clefs.
     
  19. JanoLapin
    JanoLapin WRInaute accro
    Inscrit:
    21 Septembre 2008
    Messages:
    4 250
    J'aime reçus:
    0
    c'ets à mon avis un des gros apport de la sémantique au web: la possibilité de qualifier en méta-données des infos qui ne sont pas destinées aux lecteurs totu en évitant le cloacking.

    Un ex. de très nombreuses professions sont dotées d'un jargon éprouvé... et souvent assez imagé. L'utiliser (wording) est nécessaire, mais parfois contre-productif pour le SEO. Avec des micro-data, on pourrait parler à propos par exemple de laitue de "la grande verte" tout en la taggant comme ile faut (genre: plante / espèce :laitue / nom usuel + nom scientifique + jargon etc). Ajoutant un peu de <link> à tout cela et tout le monde y gagnera.
     
  20. lecouti
    lecouti WRInaute passionné
    Inscrit:
    3 Janvier 2009
    Messages:
    1 351
    J'aime reçus:
    4
    Où vas-tu chercher çà ? Que l'on cherche par des liens bien ancrés à faire avancer des positions, OK. Que ces liens permettent parfois de faire la différence sur des requêtes peu concurrentielles, sans doute. Mais ces actions sont combinées à d'autres et seront bien insuffisantes sur des requêtes à forte concurrence. C'est sûrement un peu plus complexe
     
  21. philyd
    philyd WRInaute occasionnel
    Inscrit:
    8 Juin 2004
    Messages:
    479
    J'aime reçus:
    0
    On a bien senti que tu n'aimes pas les pages à la con puisque tu le cites au moins 3 fois, ok bon :arrow:

    Mais si les pages à la con te ramènent quelques deniers ? Le nerf de la guerre, c'est bien l'argent... n'est-ce pas GG :?:

    :mrgreen:
     
  22. philyd
    philyd WRInaute occasionnel
    Inscrit:
    8 Juin 2004
    Messages:
    479
    J'aime reçus:
    0
    Moi de même, suis de ton avis, rien a changé ou si peu et sur les requêtes concurrentielles, il y a toujours autant de spam, voire même pire qu'avant.
     
  23. philyd
    philyd WRInaute occasionnel
    Inscrit:
    8 Juin 2004
    Messages:
    479
    J'aime reçus:
    0
    Ca au moins, c'était le bon temps :lol: On se cassait pas la tête comme maintenant :mrgreen:

    Nous, les vieux de WRI, enfin spécialement pour ma part, avec cette technique très simple (idiote même), j'ai pu m'acheter une belle demeure en 3 trois ans. Maintenant, s'il fallait refaire la même chose, avec toutes les barrières des plages de normandie que met Google depuis 2007 envers les webmasters, ce serait impossible ou plutôt.... 3 ans X 20 :mrgreen:

    La justice de Google est égale à celle des Etats: Google impose son droit, mais ni le vrai, ni le juste. (Michel Onfray, philosophe qui citait le droit des Etats). On peut amplement calquer cette citation pour Google :wink:

    Enfin, ce que je remarque lorsque que je compare les sites concurrents aux miens sur Seomoz, c'est que les BL ont toujours un bel avenir !... mais je suis fatigué de polluer :mrgreen:

    Courage petit, courage :mrgreen:
     
  24. mipc
    mipc WRInaute accro
    Inscrit:
    11 Février 2009
    Messages:
    3 159
    J'aime reçus:
    0
    une page à la con peut rapporter 1 clients, mes les 99.999999999999999% des autres pages à la con ne rapportent rien, tous le reste juste des visiteurs qui se sont retrouver là, il ne savent pas comment ni pourquoi ils sont tomber sur se genre de pages à la con ou y a juste du blabla et rien que du blabla, même pas un début de commencement de solution en rapport avec leurs recherche, j'appel cela flouer le visiteur et lui faire perdre sont temps, surtout au cout financiers et au cout carbone d'une requête sur internet, parce que c'est pas parce qu'un recherche sur google est gratuit, que ça ne coute pas d'argent et en énergie carbonné(CO2).

    va chiffré le cout carbonne et électrique et financiers des recherches infructueuse des utilisateurs des moteurs de recherche sur internet, à mon avis y a de quoi avoir peur.
     
  25. detectimmobilier
    detectimmobilier WRInaute passionné
    Inscrit:
    21 Février 2009
    Messages:
    1 919
    J'aime reçus:
    0
    Attention aux liens multiples vers une même url, hier seul le premier était pris en compte et l'autre ignoré, aujourd'hui c'est sanction directe.
    Et je ne parle pas des ancres multiples #....
     
  26. philyd
    philyd WRInaute occasionnel
    Inscrit:
    8 Juin 2004
    Messages:
    479
    J'aime reçus:
    0
    Prends le problème à l'envers : c'est justement parce que tu as 100 pages à la con que tu en as une qui convertit un client ! C'est une question de probabilités :mrgreen: Tu n'aurais qu'une page... tu ne convertirais rien.
     
  27. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Ou alors tu n'a qu'une page à la c*n et c'est la seule a convertir donc c'est de la fatalité pas de la probabilité.
     
  28. lambi521
    lambi521 WRInaute passionné
    Inscrit:
    15 Juin 2010
    Messages:
    1 476
    J'aime reçus:
    0
    Sérieux ? Tu es sûr de ça ? Parce que moi sur mes pages j'ai des liens multiples vers mes pages catégories par exemple: dans le menu principal, dans le fil d'arianne, dans une rubrique accès rapide. Je suis sanctionné alors ?...
     
  29. detectimmobilier
    detectimmobilier WRInaute passionné
    Inscrit:
    21 Février 2009
    Messages:
    1 919
    J'aime reçus:
    0
    Je pense que les nouveaux filtres vont dans ce sens effectivement.
     
  30. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    C'est bien mignon l'affirmation sur X sujet a ce propos mais faudrait étayer un peu et pas seulement affirmer. Source ? test ?
     
  31. mipc
    mipc WRInaute accro
    Inscrit:
    11 Février 2009
    Messages:
    3 159
    J'aime reçus:
    0
    c'est comme quant j'avais acheter un petit encart dans l'annuaire papier de pagejaunes.fr à 68EUROS HT, ça m'avait rapporter un seul client à 70€, super à la limite se même client aurait rappeler pour d'autres pannes, mais rien nada, le bilant j'ai perdu mon temps car j'ai mal fait les choses en terme de visibilité dans l'annuaire papier de pagesjaunes, et j'ai perdu de l'argent, en gros pour faire simple: si c'est pour faire de la merde autant ne jamais commencer, y compris les ADWORDS avant de faire des ADWORDS il vaut mieux s'assurer que l'aspect; l'ergonomie; le design; l'image; la première impression que donne le site, sera très très bonne, suffisante pour convertir le client dès les premières seconde, si non vous aurez perdu du temps et de l'argent dans ADWORDS, se qui m'est aussi arriver.
     
  32. forty
    forty WRInaute passionné
    Inscrit:
    30 Octobre 2008
    Messages:
    1 930
    J'aime reçus:
    0
    comme disait mipc plus haut : "si vous n'avez rien à dire abstenez vous merci"

    est-ce que c'est valable pour ceux qui ont des conneries à dire ?
     
  33. mipc
    mipc WRInaute accro
    Inscrit:
    11 Février 2009
    Messages:
    3 159
    J'aime reçus:
    0

    à ouais, alors soit c'est pas mis en place, ou alors pas sur tous les DC, soit c'est un filtre très faibles, mais alors vraiment, parce que dernièrement je remonte de manière soutenu et relativement importante ses dernières semaines, parfois plusieurs jours d’affiler, et j'ai plusieurs liens sur chaque pages qui pointent vers le même site internet à savoir atp92.fr, notamment un liens en H1 et un liens en bas de pages toujours dans un microformat, la seul chose que j'ai fait dernièrement c'est:

    -changer de serveur d’hébergement, maintenant le site est héberger chez moi pas mes soins.
    -j'ai mis des badges et bouton +1 de google.
    -suis venu en aide gratuitement à plein de personnes, notamment des créateur d'entreprises qui débutaient pour trouver des client, certaines personnes que j'ai aider je l'aurai ai proposer de me faire un +1 sur mon site.
    -j'ai grossit la taille de mon texte pour mieux correspondre à la moyenne des résolutions utiliser par les visiteurs de mon site.
    -rajouter un peux de schema.org dans les pages du site.

    donc à mon avis, se nouveau filtre anti-spam de liens ne fonctionne qu'à partir d'un très grand nombre de liens fait depuis une pages, vers un même site, le tous c'est de savoir si se filtre est activé à partir de deux liens par page qui pointent vers le même site internet.
     
  34. mipc
    mipc WRInaute accro
    Inscrit:
    11 Février 2009
    Messages:
    3 159
    J'aime reçus:
    0
    :lol: tu veux dire est ce que ça s'applique à MIPC :mrgreen: :roll: :wink: !!!?
     
  35. fredfan
    fredfan WRInaute accro
    Inscrit:
    2 Juillet 2008
    Messages:
    2 869
    J'aime reçus:
    2
    Ne vous emballez pas sur cette histoire de double lien sans source ni test. C'est le fonctionnement normal des cms comme Wordpress. Ca laisserait des millions de sites sur le carreau.
     
  36. detectimmobilier
    detectimmobilier WRInaute passionné
    Inscrit:
    21 Février 2009
    Messages:
    1 919
    J'aime reçus:
    0
    Effectivement des différences notables selon les DC (cf Positeo, ) et l'utilisation de différents navigateurs (Chrome, FF,....) avec la désagréable sensation d'apparaître puis de disparaître par instant.
     
  37. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 139
    J'aime reçus:
    271
    Code:
    Un filtre Google contre la suroptimisation du référencement ?
    Encore un on pourrait dire. :)
     
  38. nervusdm
    nervusdm WRInaute impliqué
    Inscrit:
    5 Janvier 2008
    Messages:
    617
    J'aime reçus:
    0
    "Excessive use of nofollow"
    Donc youtube va se faire sanctionner ? Oh wait.. no.
     
  39. nervusdm
    nervusdm WRInaute impliqué
    Inscrit:
    5 Janvier 2008
    Messages:
    617
    J'aime reçus:
    0
    Désolé pour le double post, je ne peux edit, mais au lieu de venir parler sur la suroptimisation du référencement, ils feraient sans doute mieux de chercher à améliorer globalement les résultats, surtout en français. Exemple :
    http://staloa.free.fr/images/show/?/google-resultat-hollande.jpg
    C'est de l'actualité chaude ( clairement ), et on a une page anglaise tout en haut. Pourtant, j'écris bien "hollandE" et non "holland". Alors moi je veux bien, mais c'est du 100% hors sujet ce résultat.
    Et ça, je ne pense pas que ce soit lié au site en question.. mais à google qui te balance des résultats d'une autre langue sans raison.
     
  40. megaouaoua
    megaouaoua WRInaute discret
    Inscrit:
    17 Octobre 2011
    Messages:
    125
    J'aime reçus:
    0
    Adieu les sites au contenu spinné en 1ere page (les footeux à la recherche d'un match en streaming me comprendrons). Ca devrait concerné 1% des sites (donc les faux sites de streaming), pourquoi avoir peur?
     
  41. lino211
    lino211 WRInaute discret
    Inscrit:
    20 Octobre 2011
    Messages:
    52
    J'aime reçus:
    0
    Tout référencement, par définition, n'est-elle pas une manière de tronquer les Serps de Google?
     
  42. megaouaoua
    megaouaoua WRInaute discret
    Inscrit:
    17 Octobre 2011
    Messages:
    125
    J'aime reçus:
    0
    Tu vies au pays de candy? Tu taffs pour google?
     
  43. e-kiwi
    e-kiwi WRInaute accro
    Inscrit:
    23 Décembre 2003
    Messages:
    13 260
    J'aime reçus:
    1
    premier résultat hors actualités : ladepeche.fr. j'aime :)
    tu as cliqué dessus : je re-aime :)

    pardon, je -->
     
  44. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 519
    J'aime reçus:
    0
    Honnêtement, à force que Matt Cutt raconte n'importe quoi en permanence et reconnait quelques mois plus tards que GG a fait une modif, vous croyez encore ce qu'il raconte? C'est chaque fois de la communication à deux balles
    Pour le deuxième lien qui déclasserait la page (qui reçoit ou qui envoit en plus), jamais entendu (sauf qu'il ne tient pas compte du texte du deuxième lien et probablement pas du lien lui-même.
    En 3, c'est quoi de la suroptimalisation. On a tous des pages bien placées avec seulement une fois le mot dans le texte (mais un paquet de synonymes que GG connaît) ou l'inverse (qui est plus courant) ou des pages bourrées du mot (ou de la combinaison) qui passent.
    En 4, si l'article est bien écrit, il est compréhensible pour le visiteur même en bourrant complètement les mots souhaités avec leur synonymes.

    Faut juste se souvenir que depuis deux ans, Google place les pages par leur contenu et pas ... (ou de moins en moins) par les liens. qui pointent dessus. Les pages qui descendent sont juste analysées par le contenu: tournures de phrases, vocabulaire, ...
    PS: utiliser twitter qui est finalement une suite de lien suivi d'un petit texte , c'est pas de la sur-optimalisation? Et Google en tient (peut-être) compte. Je rejoint également
    Ca ressemble plus à Facebook ou à GG+ dans son cas. Personne ne s'est dit un jour que c'est 3 sites "sociaux" ne cherchent finalement qu'à recueillir le maximum de renseignements sur l'utilisateur? Pour les monnayer bien sûr aux annonceurs publicitaires.

    Une de mes ancienne "élève webmaster" est passée vendredi soir pour un nouveau site, une idée ... voire ce que j'en pense et aussi pour un petit coup de main de développement. C'est pas une professionnelle d'Internet et de loin mais pour quelqu'un qui gère deux petits sites, elle est finalement balaise. La remise à jour en référencement pour les 2-3 ans passés l'on complètement cassés. Plus rien à voire ... et pourtant des vieilles pages bourrées des mots clés passent encore.
     
  45. Raulent
    Raulent WRInaute discret
    Inscrit:
    19 Mars 2003
    Messages:
    125
    J'aime reçus:
    0
    Cette grarnde idée, qui n'est pas fausse, figure dans les guidelines de qualité Google me semble-til. Et ce me semble être ce que dit Matt Cuts au début de sa déclaration sur la suroptimisation.

    Mais nous vivons dans un monde réel, pas d'idéaux. Si bien que, par attachement à ses sources, GG impose sa culture étrange de "1 lien = 1 vote". Ce me semble peu compatible avec un monde idéal.

    L'écart entre le monde réel et le monde idéal tient à la notion de faisabilité.

    En gras, Matt Cutts admet que le problème de la sur optimisation ne sera pas résolu. Il va simplement tenter de quantifier la qualité et modéliser le point de vue d'une "personne normale" selon le secteur.

    Pour des raisons de contraintes techniques, essentiellement de capacité, ça n'ira pas très loin. Il ne sera pas trop compliqué d'éviter ce filtre. Il faudra juste ne pas commettre d'énormités.

    L'ambition de Google dans ce domaine me semble bien limitée.
     
  46. cupidonbe
    cupidonbe WRInaute discret
    Inscrit:
    17 Juin 2009
    Messages:
    129
    J'aime reçus:
    0
    Dans cet article: http://www.practicalecommerce.com/articles/3440-Google-Plans-SEO-Over- ... on-Penalty

    Matt Cutts dit vouloir s en prendre aux noms de domains contenant des mots clés.
    Pour moi c est une aberation totale. Un aveu d"échec de Google. D une part je pense que les nom de domaines avec les mots clés sont une conséquence même de la politique de classement de Google pendant des années ( vous faire patienter bien sagement dans un "sandbox" pendant 1 an ou deux histoire de voir que vous confirmer bien être un acteur sérieux. Sympa pour ceux qui dépendent des résultats et qui n ont pas les reins solides que pour survivre deux ans )

    D autre part je pense et je ne dois pas être le seul que Google ferait bien de commencer a sanctionner les sites qui font des trucs du style mot-clé.net/mot-clé1-motclé2/mot-clé1-mot-clé2..html soit inclure les mots clé dans le répertoire et le nom de fichier.

    De toute évidence, Google ne cherche qu une seule chose, pousser les gens a utiliser leur Adwords qui représent 99% de leur revenus. Pour moi cela devient de plus en plus clair. Google n a aucune politique claire, tous les 12 mois ils ajoutent des nouveaux critères et ce qui est très inquiétant, c est que souvent ils ne font pas ce qu'ils disent. Pour Panda par exemple, beaucoup de paroles, pour finalement nous avouer que Panda ne touchait pas les résulats autrres que anglais, pour ensuite nous avertir que Panda arrivait en France, mais in fine, je constate encore beaucoup de résultats tellement grotesques. Comment se fait il que Google ne suit pas les plaintes faites dans Google Spam report ?
     
  47. mipc
    mipc WRInaute accro
    Inscrit:
    11 Février 2009
    Messages:
    3 159
    J'aime reçus:
    0
    faux, google suit les plaintes de google spam repport(mon avis il faut juste qu'y en ait suffisamment), pour google maps surtout si tu te dénonce toi même(tester et approuver), du reste il suit les spam repport in rich snippets, puis s'aperçoit après 6 semaines qu'en faite y a aucun problème et que c'est juste des concurrents aigris et énerver ou un webmaster qui déteste une personne dans les forums et qui veut s'amuser et du coup google remet les RS dans google.com pour commencer plus tard dans google.fr, puis le re-retire après les avoir remis, puis les re-remets et ainsi de suite.
     
  48. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    là, tu extrapole beaucoup : franchement, c'est pas avec tes 10 visiteurs / jours que tu fais de l'ombre à tes "concurrents" :roll: c'est plutôt que gg fait des essais d'affichages et modifie selon la façon dont les internautes réagissent dans les serp : pour une même page, sur des requêtes différentes, gg peut afficher les rich snippets de plusieurs façons différentes, voir même ne pas les afficher. Sans que la page ne soit "pénalisée" par gg
     
  49. mipc
    mipc WRInaute accro
    Inscrit:
    11 Février 2009
    Messages:
    3 159
    J'aime reçus:
    0
    donc selon toi, se ne sont pas des webmaster rageux qui me retire les RS via spam repport in rich snippets, puis google les remets tiens amusant, puis les re-retir, puis plus tard en remet d'autres mais pas les mêmes mais que sur google.com et que pour ceux qui ne sont pas connecter à leurs compte google, comme c'est étrange comme façon de procédé, soit pourquoi pas, mon avis est que j'ai une peux raison et pas beaucoup tort dans mon analyse, y a pas que des testes dans le lot.

    la marrant il retire ceux de http://fobec.com ,mais pas ceux de http://woorank.com, alors qu'ils sont plus ancien sur woorank, alors que dans les trois cas c'est bien le webmaster du site qui fait une review et mets sa note, mon avis est qu'y en à juste un qui est plus visiter que l'autre.

    edit: pis pour moi retiré les RS c'est une forme de sanction, ça a des conséquences énorme en terme de visibilité vu que j'ai que ça pour moi, la visibilité c'est une grande parti de la notoriété.
     
  50. alex84
    alex84 WRInaute impliqué
    Inscrit:
    6 Mars 2010
    Messages:
    745
    J'aime reçus:
    0
    tu as mal lu ou mal compris l'article, matt cutts ne dit absoluement pas qu'il va sanctionné les noms de domaines avec mots clés, c'est l'auteur de l'article qui extrapole en réfléchissant à quelles pourraient être les actions à venir de la part de google pour lutter contre le spam.
     
  51. maxime25
    maxime25 WRInaute discret
    Inscrit:
    25 Octobre 2010
    Messages:
    159
    J'aime reçus:
    0
    Hummm.. comme les autres filtre..
    mais c'est quoi la suroptimisation du référencement ? :lol:
     
  52. lecouti
    lecouti WRInaute passionné
    Inscrit:
    3 Janvier 2009
    Messages:
    1 351
    J'aime reçus:
    4
    A ce sujet, l'annonce de Google était il y a quelques temps qu'il accorderait moins d'importance au nom de domaine qui contiendrait le mot-clé, ce qui ne donnerait pas les mêmes conséquences. D'autre part, le fait d'inclure un mot clé n'est pas synonyme de sur-optimisation. Et çà éliminerait un tas de sites de qualité.
     
  53. mipc
    mipc WRInaute accro
    Inscrit:
    11 Février 2009
    Messages:
    3 159
    J'aime reçus:
    0
    c'est un style d'écriture décousue, avec des structures de phrases et des formulations étranges indigestes pour un humain et peut compréhensible, qui use et abuse de certains mot clé et fait des répétitions chiante à lire pour le lecteur, en gros pour faire simple c'est écrire pour les robots, pas pour les lecteurs, n'avoir que peux ou pas de choses intéressante et pertinente à dire aux lecteurs/visiteurs du site, du coup sanction par pogosticking et cie interposé.
     
  54. detectimmobilier
    detectimmobilier WRInaute passionné
    Inscrit:
    21 Février 2009
    Messages:
    1 919
    J'aime reçus:
    0
    mais aussi beaucoup qui n'en présentent pas, ainsi que pas mal de spéculation sur l'achat de NDD.....
     
  55. lecouti
    lecouti WRInaute passionné
    Inscrit:
    3 Janvier 2009
    Messages:
    1 351
    J'aime reçus:
    4
    Certes, il faudrait donc que l'algo puisse séparer le bon grain de l'ivraie. Je possède un site (racheté) avec deux mots clés dans le NDD (synonymes) et je ne suis pas plus inquiet que çà. Évidement chaque URL contient deux fois les mot clés du NDD et éventuellement une fois pour la page si c'est nécessaire. Je ne pense pas que çà m'avantage
     
  56. cupidonbe
    cupidonbe WRInaute discret
    Inscrit:
    17 Juin 2009
    Messages:
    129
    J'aime reçus:
    0

    ah oui tiens... " I’ve been daydreaming" j avais mal lu l article ! Merci de me l'avoir fait remarqué. Me voilà un peu soulagé parce que ca fait des années que jessaie de comprendre comment Google réfléchit et je m y adapte, alors j'aime pas trop quand ils changent de politique comme ca à 180°
     
  57. pcamliti
    pcamliti WRInaute impliqué
    Inscrit:
    9 Mars 2007
    Messages:
    706
    J'aime reçus:
    1
    Bonjour à tous,
    J'ai lu avec attention vos posts et me pose une question simple : qu'est ce que la sûr optimisation à présent ?
    Je viens de me prendre une claque de -36% par rapport à l'an dernier, pourtant je n'ai pas fait de suroptimisation !
    Sur GWT "Search results clicks for http://www.architecte-paca.com/ have decreased significantly."
    Je ne saisi pas la raison de cette chute vertigineuse, le positionnement dans les Serps à changé, les différents PANDA n'avaient pas eu de prise sur mon site mais là, ça fait mal....

    Je n'ai rien modifié de fondamental, est-ce que l'algorithme a complètement changé et plombé un modèle qui fonctionné depuis des années ?
    Je suis perdu, des pistes sur ce nouveau filtre ? Je suis preneur
    L'adwords ne me paraît pas la solution, est-ce une histoire de BL ?

    J'écoute toutes vos infos!
     
  58. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 372
    J'aime reçus:
    2
    Enfin cela fait longtemps aussi que Matt Cutts a dit qu'il valait mieux construire une marque qu'avoir des noms de domaines à mots clés
     
  59. jolm
    jolm WRInaute occasionnel
    Inscrit:
    3 Septembre 2011
    Messages:
    270
    J'aime reçus:
    0

    Même chose pour moi, les panda n'avaient jamais eu d'impact négatif mais la dernière MAJ (pour moi subi le 22), grosse claque. Par contre à noter que j'ai observé sur un de mes sites une baisse de 50%, rien de bien original mais le fait est qu'il avait eu la même sanction l'année dernière à 15j près ... Il était revenu difficilement vers le haut par la suite. Coincidence troublante sachant qu'un autre de mes sites qui reprend une bonne partie du même contenu a lui eu une grosse hausse inhabituelle à 15j près aussi (un bon pic qui se détache vraiment du reste de l'année) avec une baisse juste après (qui cette année est plus puissante) ... Le décalage des deux phénomènes se synchronisent. En gros pour savoir ce qu'il va advenir il suffit que je regarde mes courbes de l'année dernière avec un volume supérieur (car malgré tout les choses évoluent vers le haut avec des chutes qui viennent faire perdre du temps). Donc en mars 2013 j'aurai encore une claque sur plusieurs sites ?
    Bref, plus j'ai des stats analytics plus je vois des trucs étranges avec une intime conviction que google n'accorde pas telle ou telle position à chacune de vos pages mais bel et bien un volume de visiteurs attribué par jour pour un site (selon qualité et capacité de charge). Ensuite c'est la machine qui s'occupe de lisser en jouant sur le positionnement des expressions de la longue traine. Voila pour ce que j'avais à dire sur le sujet. En attendant depuis le 22 mars c'est un peu la déprime avec l'observation de sites "daubeux" qui explosent et d'autres de qualité (sans parler des miens) qui régressent ... En gros le dernier panda semble avoir des effets collatéraux assez importants ...
     
  60. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Bah voila ce qui se rapproche de ce que je pense depuis maintenant 3/4 ans :wink:
    Constaté aussi sur le volume financier adsense ...
    Reste plu qu'a trouver le facteur qui fait l'indice d'écrêtage et on en aura plus rien a faire du positionnement.
     
  61. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    pour adsense, je pense que c'est le cas, en dehors des sites trustés (fortement demandés par les annonceurs) ou ceux qui ont de gros volumes et peuvent se permettre de donner leurs conditions à gg
    pour les serp, je ne pense pas que ce soit le cas, avant d'en arriver à de telles conclusions, il aurait fallu comparer les volumes de requêtes et de clics ayant été fortement modifiées et ayant pu amener de telles différences, voir si des évènements d'actualité, les suggestions de gg, etc... n'auraient pu amener une modification des requêtes
     
  62. forty
    forty WRInaute passionné
    Inscrit:
    30 Octobre 2008
    Messages:
    1 930
    J'aime reçus:
    0
    Un petit indice :
     
  63. Rogers
    Rogers WRInaute impliqué
    Inscrit:
    24 Janvier 2003
    Messages:
    708
    J'aime reçus:
    0
    Depuis le 22 mars, perte de trafic sur l'un de mes sites de l'ordre de -40%. Les premiers jours on sentait nettement le bridage. Du genre en début d'heure tout est normal et à la fin de l'heure, ton trafic horaire est divisé par trois. Je n'ai jamais observé de tels écarts avant cela, donc on ne peut conclure qu'à une sorte de bridage.

    Pour ma part, la page d'accueil a été pénalisée et perte de position (de 4ème à 9 ou 10 ème suivant les jours) sur un mot clé important. La longue traine est différente, mais certaines position sur certaines expressions qui me rapportaient un peu de visiteurs n'ont pas bougé.
     
  64. pcamliti
    pcamliti WRInaute impliqué
    Inscrit:
    9 Mars 2007
    Messages:
    706
    J'aime reçus:
    1
    Vous pensez que le site est suroptimisé par ces mots clés ? Comment dénommé les éléments si ce n'est par leurs noms !..
    De plus c'est dans la nav secondaire. Je vais suivre cette piste, mais je ne comprends pas le pourquoi du comment !?
    Autre chose sur une requête importante, j'ai des centaines de BL avec des liens divers mais la sanction est la même.

    Une époque est a priori révolue ... Seule les monstres et CMS bien ficelés tirent encore leurs épingle du jeu. À moins de faire du BLACK HAT.
    Je suis un poil enervé :x
     
  65. forty
    forty WRInaute passionné
    Inscrit:
    30 Octobre 2008
    Messages:
    1 930
    J'aime reçus:
    0
    @pcamliti : je ne sais pas si c'est la solution mais en ouvrant la page d'accueil ca m'a piqué les yeux tout de suite.
     
  66. pcamliti
    pcamliti WRInaute impliqué
    Inscrit:
    9 Mars 2007
    Messages:
    706
    J'aime reçus:
    1
    @forty ok merci je sais que ce n'est que du ressenti et non un conseil de modification.
    Le forum wri est un lieu d'échange car avoir un regard extérieur est toujours utile !
    Merci... See you soon
     
  67. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Pas forcement, tu peux aussi regarder le problème sous l'axe de la qualité et donc d'une sélection plus rigoureuse (c'est pour se rassurer :D )
    Sinon pour ton www :
    * Fait attention keywords en masse pas bon
    * Alt et title des images surexploités avec du html dedans (pas vraiment utile)
    * sémantique pas forcement top conforme :
    * et surtout la home page ENORME de contenu ce qui la rend plus difficile à positionner (surtout si le contenu tourne souvent)
     
  68. Rogers
    Rogers WRInaute impliqué
    Inscrit:
    24 Janvier 2003
    Messages:
    708
    J'aime reçus:
    0
    Bon et bien j'ai fait une demande réexamen ce week-end et la réponse vient de tomber : le site dont je parlais (-40%) n'a pas été pénalisé.

    En tous les cas je souligne que la réponse a été rapide et a le mérite d'être clair. Sur ce point bravo Google.

    Toutefois, je ne comprends pas pourquoi une baisse de 5 à 6 places sur un mot concurrentiel (je veux bien que d'autres aient travaillé leur référencement, mais à ce point, je n'y crois guère) et SURTOUT pourquoi une telle baisse de trafic. Google procède certainement à des tests. Hier encore, à plusieurs reprises, mon trafic normal revenait quelques dizaines de minutes et dégringolait tout de suite après.
     
  69. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 372
    J'aime reçus:
    2
    Tu sais, pour perdre 6 places, il suffit que 6 personnes devant toi en gagnent "une". (Imagine que tu aies été ex aequo avec les 6 autres, et tu perds "une" place)
     
  70. julienringard
    julienringard WRInaute discret
    Inscrit:
    13 Juillet 2009
    Messages:
    193
    J'aime reçus:
    0
    Le filtre est de plus en plus present, il faut faire du référencement naturel sans en faite :D
     
  71. pcamliti
    pcamliti WRInaute impliqué
    Inscrit:
    9 Mars 2007
    Messages:
    706
    J'aime reçus:
    1
    Merci Zeb pour cette analyse rapide.... donc il va me falloir me retrousser les manches et mettre les mains dans le cambouis ;)
    Épurer serait la solution. Je vais suivre cette piste également.
     
  72. Rogers
    Rogers WRInaute impliqué
    Inscrit:
    24 Janvier 2003
    Messages:
    708
    J'aime reçus:
    0
    Je suis bien d'accord, mais ce mot clé Exact me rapportait quelques dizaines de visites/j sur la page d'accueil. Mais la page d'accueil n'a pas perdu quelques dizaines de visites c'est > 100. Ce mot clé (le seul que je surveille d'ailleurs) ne fait qu'osciller entre la place 6 et 10 depuis le 21 mars. Hier, il est même resté une partie de l'après midi en place 5 sans hausse de trafic.

    Bref, de toute façon je n'ai pas été pénalisé, en tous les cas manuellement, ni pour spam ni pour suroptimisation apparemment. Panda en serait l'origine, mais je trouve bizarre qu'il y ait pénalité sans une plus grosse "claque" sur ce mot clé concurrentiel. De ce que j'en ai lu, les pertes de position sont radicales (du genre page 1 à page 20). Certes, je n'ai pas regardé la longue traîne que je ne suis pas, mais j'ai autant de visiteurs sur les expressions qui me rapportaient quelques visites par jour. J'aurai vraiment préféré une pénalité manuelle, ça aurait été plus clair je trouve.
     
  73. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
    certains pensent que l'update vient d'être mis en place. voyez par exemple :
    ce post récap : http://www.seroundtable.com/google-update-april-2012-15023.html
    ce gros topic http://www.webmasterworld.com/google/4435785.htm (attention ce topic a commencé tôt en avril)
    et même ces 380 posts dans cette discussion chez les black hat : http://www.blackhatworld.com/blackhat-seo/black-hat-seo/431170-sites-g ... e-wtf.html (trouvé via https://twitter.com/#!/CyrusShepard)

    sur WRI je vois au contraire une légère hausse du trafic SEO Google (10%) mais je ne peux pas encore confirmer qu'il s'agit de la même chose

    et vous, du nouveau ?
     
  74. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    Perso, je n'ai rien vu passé pour le moment
     
  75. tonguide
    tonguide WRInaute passionné
    Inscrit:
    28 Novembre 2003
    Messages:
    1 169
    J'aime reçus:
    0
    Quand on lit le site de blackhat, c'est à priori une mise à jour qui a mis beaucoup de monde dans les choux. Si c'était arrivé en France, on en attendrait parler un peu plus il me semble ? Ou alors GG aurait enfin réussi à toucher ceux qui font du blackhat bourrin (mais ce n'est pas ce que je remarque dans les SERP fr)

    Personnelement, ça bouge de façon habituelle, y compris sur des sites que je ne gère pas et qui sont assez bourrin.
     
  76. my-new-adress
    my-new-adress Nouveau WRInaute
    Inscrit:
    8 Octobre 2008
    Messages:
    47
    J'aime reçus:
    0

    C'était donc un beug de google seulement! RT @mattcutts: we dug into it & found : https://t.co/tYkmbM3j #seo #google #mistake #overoptimized
     
  77. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
    Merci my-new-adress !
     
  78. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
  79. zeb
    zeb WRInaute accro
    Inscrit:
    5 Décembre 2004
    Messages:
    12 196
    J'aime reçus:
    1
    Merci Olivier pour l'article.
    * Optimisation technique -> rien de bien neuf mais du bon sens.
    * Optimisation de l'éditorial -> là aussi je dirais assez rien de bien neuf, mais certainement un des points les plus mal exploités de nos jours avec l'apparition des "rédacteurs".
    * Optimisation du netlinking -> la gabegie et l'orgie en prend un coup -> logique et normal somme toute une nécessité d'y aller en douceur de nos jours aussi ...
    * Optimisation des aspects sociaux -> on en entend parler depuis longtemps a t'elle fait vraiment sa sortie ? ... une bonne idée en tous cas qui ne facilite pas la vie au jour le jour.

    La somme des 4 points dans un algo de filtrage et on obtient une mailing liste importante ... plus un gros changement dans les SERP.
     
  80. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
  81. crughon
    crughon WRInaute discret
    Inscrit:
    24 Juillet 2005
    Messages:
    170
    J'aime reçus:
    0
    J'espère que notre ami Google procède seulement à des tests, et que certaines "anomalies" vont se corriger d'elles-mêmes... parce qu'aujourd'hui 24 avril, mon PR en accueil est passé d'un coup de 3 à 0... même si beaucoup décrie ce PR, il est plus agréable à l'oeil de le voir à 3. Il s'est donc passé quelque chose entre le 23 et le 24, j'espère qu'il ne s'agit que de "tests"... 8O Je ne vois pas en effet, de sur-optimisation concernant ladite page touchée par cette chute de PR... wait and see...
     
  82. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
    En général, quand le PR de la toolbar passe de qq chose (supérieur à 1 ou 2) à zéro d'un coup, ce n'est pas un hasard mais plutôt une sorte d'avertissement de Google ou de malus associé à une pénalité...
     
  83. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    souvent c'est quand gg suspecte une vente de BL et, en affichant un pr0, il espère que le "partenaire payant" va arrêter de payer
     
  84. Winsiders
    Winsiders WRInaute discret
    Inscrit:
    15 Avril 2011
    Messages:
    233
    J'aime reçus:
    0
    Déjà s'il arrivait à détecter le truc spammy bien pourris avant de s'attaquer au white/grey trop poussé ça m'arrangerait pas mal. Moi j'ai pas mal de champions du ranking avec des pages de ce style : -http://www.restaurantmarcopolo.com/restaurant-marseille-gastronomie-sur-allauch%2013190-10.html

    C'est beau non?
     
  85. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    c'est vrai que plus de 12000 pages pour le site d'un seul restau, je dis chapeau !!
    utilise le formulaire de spamreport gg, mais en étant connecté à ton compte
     
  86. Winsiders
    Winsiders WRInaute discret
    Inscrit:
    15 Avril 2011
    Messages:
    233
    J'aime reçus:
    0
    C'est une agence qui emploie cette technique sur tous ces sites (centaines)... faudrait tout "spam reporter"... et étant concurrent (enfin on joue pas dans la même catégorie vu leur taille) je préfèrerais que ce soit un des fameux algo de Google qui se charge proprement de la punition... c'est quand même pas dur à déceler ce genre de pratique pour leurs robots qui font la pluie et le beau temps.
     
  87. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    et s'ils n'ont pas d'exemple, comment font-ils pour savoir comment modifier leur algo ?
     
  88. detectimmobilier
    detectimmobilier WRInaute passionné
    Inscrit:
    21 Février 2009
    Messages:
    1 919
    J'aime reçus:
    0
    Je crois que les tests tu les as maintenant avec la 2ème lame du 24 Avril.....
     
  89. detectimmobilier
    detectimmobilier WRInaute passionné
    Inscrit:
    21 Février 2009
    Messages:
    1 919
    J'aime reçus:
    0
    La petite barre n'a pas grand chose à voir, les pages pénalisées n'en ont pas vu de modification.
     
  90. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 878
    J'aime reçus:
    272
    je sais bien, j'expliquais simplement dans quels cas on peut voir la barre verte passer anormalement à zéro
     
  91. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    étant donné la fréquence des exports, ça te parait bizarre ?
     
Chargement...
Similar Threads - filtre Google suroptimisation Forum Date
Le filtre Google contre le spam (suroptimisation SEO) [24-04-2012] Référencement Google 25 Avril 2012
Victime du filtre de suroptimisation Google? Votre avis sur le site? Problèmes de référencement spécifiques à vos sites 7 Juin 2009
Filtre Google Domaines expirés Référencement Google Hier à 13:37
Google analytics, sous-domaine et filtres Google Analytics 21 Juin 2019
Les filtres algorithmiques de Google Débuter en référencement 5 Novembre 2017
Empêcher google d'utiliser mon formulaire de filtre d'articles ? Développement d'un site Web ou d'une appli mobile 11 Mars 2016
Robots non filtré par Google Analytics ? Google Analytics 18 Janvier 2015
images filtres google Référencement Google 11 Décembre 2014
Besoin de votre expertise : filtre Google Débuter en référencement 12 Novembre 2013
Conseils pour éviter le filtre chasseur de pubs de Google Demandes d'avis et de conseils sur vos sites 19 Avril 2013
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice