Un filtre Google contre la suroptimisation du référencement ?

WRInaute discret
Peut-être qu'il faut s'engager vers une optimisation la plus variée possible, en utilisant toutes les facettes du référencement naturel d'aujourd'hui (optimisation technique, éditoriale, ...)
Mais cela fait déjà un bon bout de temps que le métier de SEO a évolué en ce sens, et à ce juste titre, je ne suis pas sûr que l'acronyme "SEO" est encore rigoureusement exact.

Si Matt Cutts veut éliminer les SEO qui n'ont pas compris les enjeux des communautés et des réseaux sociaux, et qui passent leurs temps à la soumission régulière aux annuaires bas de gamme, qui appliquent le nofollow à tout bout de champ, qui croient dur comme fer au keyword density, qui font du keyword-stuffing sur les 70 premiers mots d'un texte etc, il n'y a aucun problème.
Je ne sais pas pour vous, mais à l'heure actuelle, je considère que le SEO, c'est 51% d'optimisation vis-à-vis des moteurs de recherche et 49% vis-à-vis des internautes.
 
WRInaute accro
Ce qui est inquiétant c'est que les premières années de Google, les améliorations de l'algorithme étaient positives et novatrices : prise en compte de nouveaux paramètres, amélioration de la lecture du contenu... ce qui a permis une amélioration de la qualité des résultats.
Aujourd'hui il y a un bras de fer entre les améliorations et les filtres. Utiliser les méthodes efficaces, c'est risquer en permanence la sanction. Ca fait beaucoup de dégâts collatéraux, les meilleurs contenus ne sont plus forcément bien classés, et des contenus médiocres arrivent à passer à travers les mailles.
Du coup la qualité des résultats est plutôt en baisse, et ce filtre ne devrait pas les arranger, bien au contraire.
 
WRInaute passionné
Exact, depuis Panda, je n'ai pas remarqué une amélioration de la pertinence, mais une baisse de qualité des résultats. Et les sites spammy sont toujours aussi bien placés, si pas mieux...
 
WRInaute accro
ça m'arrangerais bien, je ne fais plus de SEO du moins pas de manière active, je ne change pas mes textes de mon site depuis au moins 1ans et je ne fais plus de netlinking et autres campagne de référencement dans les annuaires et autres sites de CP depuis plus d'un ans, reste que dernièrement mon site monte dans les SERP.

et je ne créer pas de pages pour polluer le WEB de pages bidons tous juste bonne à monter dans les SERP de google(comprendre qui n'ont pas d'utilité réel pour le visiteurs et qui ne servent à rien à par du blabla à la con), je ne fais plus que des choses pertinentes et utile, et pourtant ça fait 3 mois que je monte dans les SERP de google.

mes concurrents polluent le web de pages bidons et n'ont rien à dire de réellement intéressant et pertinent pour le visiteurs, pire ils flouent le visiteur avec des pages et des pages à la con, sans vraiment chercher à résoudre leurs problèmes, ces pages sont juste conçus et penser pour drainer des visiteurs qui sont en faites des gens perdu qui ne savent même pas comment elles sont arriver là.

en gros, si vous n'avez rien à dire abstenez vous merci, certains de mes concurrents créer des pages à la con sur des sujets d'une porter et d'un intérêt fortement limiter dans l'unique but de monter dans les SERP de google, et le pire dans tous ça c'est que la plus part du temps ça ne résout pas vraiment le problème du visiteurs de la page, ça sert juste à faire genre, à donner une bonne image de l'entreprise, mais en terme d'utilité pour le lecteur, c'est peanuts et si ça résolvait vraiment des gros problèmes c'est pages n'existeraient tous simplement pas, une entreprise de depannage informatique n'a aucun intérêt à donner la solution gratuitement à des personnes qui pourraient etre des clients.

donc soit le sujet traiter est réelle, soit le sujet ne vaut pas la peine qu'on s'y attarde, mais il faut aussi critiquer la qualité rédactionnel du sujet traiter par ses sites internet souvent c'est très mal fait, ni fait ni à faire, le visiteur n'en sait souvent pas plus après qu'avant avoir lu la page, soit c'est le type de panne tellement peux rémunératrice pour l'entreprise de depannage informatique qu'elle peut se permettre de dévoiler tous ou partie de la solution.
 
WRInaute impliqué
Je ne m'inquiète jamais des radars car je suis toujours dans la limite de vitesse autorisée. Je ne m'inquiète donc pas de ce nouveau filtre car sur mes derniers sites je fais du SEO bio sans pesticides, sans OGM, que du bon produit. Tant mieux si les sites aux footers demesurés ou aux 2000 échanges de liens sans intérêts, ou aux contenus rédactionnels sur-optimisés, disparaissent des résultats. Ca laissera de la place aux artisans.
 
WRInaute impliqué
Si certains sites sont trop hauts car ils sont "sur-optimisés", il me paraîtrait plus juste de revoir la pondération des critères de positionnement, ou d'en ajouter, plutôt que de déployer un filtre qui va tailler dans le vif et engendrer des dommages collatéraux. Si vous vous donnez les moyens de créer un bon site, il est logique de travailler son référencement naturel. Or, comme les règles ne sont pas clairement établies, comment savoir avec certitude qu'on travaille son référencement naturel "bien mais pas trop" ?
 
WRInaute discret
Bonjour,

Fredfan a une remarque judicieuse, après la carotte on droit au bâton.
je m'associe,... mais avec vigilance, Panda m'a paru très incongru en favorisant des sites non actualisés, et sans trop d’intérêts mais qui possédaient 5 fois un mot clé par exemple sur un title. L'AI serait elle trop sensible au clinquant? Faut il lui apprendre les bonnes manières? Ou alors c'était: "on a laissé pousser pour raser encore de plus près." :?:
Vu que ça nous sautait aux yeux, et même certains Wrinautes le constatait pour leur sites, la question serait: pourquoi Matt avec les tests, etc, a mis 10 mois pour faire cette annonce?
Je reprends l'hypothèse que ce peut être un test au long cours -et lucratif -pour jauger les réactions des internautes, des webmasters, entre autres, sur des SERP moins pertinentes mais plus MFA.
Enfin, il y avait un objectif.
 
WRInaute accro
A quand la template Google friendly ? :lol: vive le bouton [Google pitoyable +1]
 
WRInaute passionné
nza2k a dit:
... Or, comme les règles ne sont pas clairement établies, ...

C'est presque " ... Faites comme ceci et cela ..." et 1 an plus tard c'est "... faut plus faire çà, donc je te sanctionne ..."
C'est quand même dur de suivre notre ami Google :lol:
 
Olivier Duffez (admin)
Membre du personnel
je ne comprends pas bien cette remarque, quelle règle d'il y a 1 an serait contredite aujourd'hui ?
 
WRInaute passionné
C'est plus une vue personnelle qu'autre chose mais 2 ou 3 éléments me font penser à cela.
Panda sanctionne différents "trucs" dont 1 qui était préconisé à l'époque par Google. Mais je n'en dirais pas plus sur le sujet car c'est mon petit jardin secret :mrgreen:
 
WRInaute accro
gripsous a dit:
Mais clairement c'est quoi un site sur-optimisé aujourd'hui ?
ce n'est pas au niveau du site, mais au niveau du SEO suroptimisé
Openture a dit:
Si Matt Cutts veut éliminer les SEO qui n'ont pas compris les enjeux des communautés et des réseaux sociaux
ce sont, pour l'essentiel, des miroirs aux alouettes.
Historiquement les hyperliens permettaient aux utilisateurs (puis aux internautes) de se déplacer (à l'aide d'un simple clic) dans un document, ou dans le worldwideweb.
GG veut surement en revenir aux fondamentaux : un lien étant utile aux internautes pour approfondir une information ou découvrir d'autres choses, tout lien qui n'envoie pas d'internaute n'a plus lieu d'être, et ça, statistiquement, gg a largement les moyen de le savoir, avec tous ses services.
Donc des liens qui ne sont suivis par (quasi) aucun internaute, mais qui ne sont là que pour faire des BL et tenter d'altérer l'algo de gg pour ressortir mieux, il n'y a pas que dans les annuaires ou les sites de CP qu'on en trouve, il y a aussi les liens cachés dans les textes de ses propres sites, ceux dans les footer, ceux dans les réseaux sociaux mais qui ne sont suivis par personnes,...
Pour ça, 2 étapes : la pondération de tels BL devient quasi nulle, ensuite, ces sites avec des BL quasi nuls régressent dans les serp
Si c'est vraiment cette direction qui est prise par gg, il va falloir enfin (pour ceux qui n'avait pas cette priorité) travailler pour l'internaute.
Quand l'essentiel des BL sont optimisés, ça ne parait pas non plus naturel
 
Nouveau WRInaute
Le probleme de la detection de suroptimisation est que ce sont les entreprises qui ont un nom de domaine qui correspond exactement aux mots clefs visés qui sont favorisées, car on ne peu pas les accuser de suroptimiser.

Par exemple, si on tapes "huiles essentielles" sur google, une bonne partie des resultats est constituée de "huiles-essentielles.xyz" donc finalement une société lambda qui s'appelerai "les odeurs du paradis" par exemple, n'aurai ( n'a ? ) plus aucune chance d'apparaitre en bonne position, sauf en achetant de l'adwords qui est comme tout le monde le sait, pas du tout rentable pour une tpe/pme.

Le nouvel algorythme de google a donc échoué et est discriminatoire. Si vous n'avez pas le bon nom vous avez perdu.

D.
 
WRInaute passionné
Leonick a dit:
il va falloir enfin (pour ceux qui n'avait pas cette priorité) travailler pour l'internaute
Il n'y a rien d'incompatible. On peut faire un travail d'information de qualité destiné aux internautes et chercher à promouvoir son travail. Il faut arrêter de dire que chercher à obtenir des liens qui ne seraient pas "naturels" pour s'assurer une meilleure visibilité çà équivaut à pourrir les Serps. Il y a un amalgame avec les MFA, spammeurs et autres qui est tellement loin de la réalité...
 
WRInaute accro
Delphine75 a dit:
Le probleme de la detection de suroptimisation est que ce sont les entreprises qui ont un nom de domaine qui correspond exactement aux mots clefs visés qui sont favorisées, car on ne peut pas les accuser de suroptimiser.
sauf que de tels ndd sont considérés comme spammy
lecouti a dit:
Il faut arrêter de dire que chercher à obtenir des liens qui ne seraient pas "naturels" pour s'assurer une meilleure visibilité çà équivaut à pourrir les Serps
en soi, non. Mais être "obligé" de pondre du contenu unique de 500 à 1000 caractères, si. Je suis désolé, mais si je tombe sur la présentation du même site mais avec un contenu différent de façon à passer le filtre duplicate de gg, ça fait croire à l'internaute que c'est un autre site et, dans ce cas, l'internaute a à peine cliqué qu'il ferme la fenêtre.
Ca n'est donc pas le bl en lui même qui est spammy, mais tout ce qu'il faut faire pour l'obtenir.
Et puis, perso, quand je lis les commentaires de certains blogs, les noms des "commentateurs" me donnent des boutons "lunettes pas chères", "assurance auto",etc... j'ai des doutes que IRL ils se fassent appeler de la sorte.
Donc oui, pour moi ça sera un grand plus ce nettoyage :twisted:
 
WRInaute passionné
WebRankInfo a dit:
A moins que Google s'attaque enfin au nettoyage des techniques artificielles d'acquisition de backlinks ? Là en effet ça pourrait faire de très gros changements pour les sites qui abusent de backlinks "faciles" et peu naturels.
Ca ferait un beau ménage et ça bouleverserait les SERPs, mais ça ferait pas de mal. Quand je vois le nombre de sites totalement inutiles d'un point de vue internaute, qui sont juste là pour vomir 10 lignes en rapport avec les mots clefs du site à référencer, tout ça pour y coller un ou deux baclinks, je trouve normal que Google n'en tienne pas compte et que le site qui est pointé par le lien ne bénéficie d'aucun avantage niveau positionnement que ces concurrents.

Par exemple, je vois régulièrement des sites (type wordpress bien évidemment) où on va avoir 2 lignes sur les haricots verts avec un lien vers un site bio, 5 lignes sur les régimes avec un lien vers un site de cosmétiques, etc etc. Ou alors les "articles" du type "Wahou aujourd'hui super génial j'ai trouvé mon lot de 3 stylos mois cher ici". J'en connai même (et pas qu'un seul, des armées de sites d'agence de ref) ou il y a un article en français puis un article en anglais etc... Qu'est ce que ça me goooooonfle ! Tant mieux si Google dégage tout ça, ça remettra les pendules à l'heure.

D'ailleurs en tant que jeune développeur/référenceur, j'ai trouvé ça hallucinant qu'il suffise de faire des liens avec les mots clefs en ancre pour arriver 1er sur ces mots clefs.
 
WRInaute accro
lambi521 a dit:
D'ailleurs en tant que jeune développeur/référenceur, j'ai trouvé ça hallucinant qu'il suffise de faire des liens avec les mots clefs en ancre pour arriver 1er sur ces mots clefs.
c'ets à mon avis un des gros apport de la sémantique au web: la possibilité de qualifier en méta-données des infos qui ne sont pas destinées aux lecteurs totu en évitant le cloacking.

Un ex. de très nombreuses professions sont dotées d'un jargon éprouvé... et souvent assez imagé. L'utiliser (wording) est nécessaire, mais parfois contre-productif pour le SEO. Avec des micro-data, on pourrait parler à propos par exemple de laitue de "la grande verte" tout en la taggant comme ile faut (genre: plante / espèce :laitue / nom usuel + nom scientifique + jargon etc). Ajoutant un peu de <link> à tout cela et tout le monde y gagnera.
 
WRInaute passionné
lambi521 a dit:
hallucinant qu'il suffise de faire des liens avec les mots clefs en ancre pour arriver 1er sur ces mots clefs
Où vas-tu chercher çà ? Que l'on cherche par des liens bien ancrés à faire avancer des positions, OK. Que ces liens permettent parfois de faire la différence sur des requêtes peu concurrentielles, sans doute. Mais ces actions sont combinées à d'autres et seront bien insuffisantes sur des requêtes à forte concurrence. C'est sûrement un peu plus complexe
 
WRInaute occasionnel
mipc a dit:
avec des pages et des pages à la con

On a bien senti que tu n'aimes pas les pages à la con puisque tu le cites au moins 3 fois, ok bon :arrow:

Mais si les pages à la con te ramènent quelques deniers ? Le nerf de la guerre, c'est bien l'argent... n'est-ce pas GG :?:

:mrgreen:
 
WRInaute occasionnel
1-sponsor a dit:
Exact, depuis Panda, je n'ai pas remarqué une amélioration de la pertinence, mais une baisse de qualité des résultats. Et les sites spammy sont toujours aussi bien placés, si pas mieux...

Moi de même, suis de ton avis, rien a changé ou si peu et sur les requêtes concurrentielles, il y a toujours autant de spam, voire même pire qu'avant.
 
WRInaute occasionnel
lambi521 a dit:
D'ailleurs en tant que jeune développeur/référenceur, j'ai trouvé ça hallucinant qu'il suffise de faire des liens avec les mots clefs en ancre pour arriver 1er sur ces mots clefs.

Ca au moins, c'était le bon temps :lol: On se cassait pas la tête comme maintenant :mrgreen:

Nous, les vieux de WRI, enfin spécialement pour ma part, avec cette technique très simple (idiote même), j'ai pu m'acheter une belle demeure en 3 trois ans. Maintenant, s'il fallait refaire la même chose, avec toutes les barrières des plages de normandie que met Google depuis 2007 envers les webmasters, ce serait impossible ou plutôt.... 3 ans X 20 :mrgreen:

La justice de Google est égale à celle des Etats: Google impose son droit, mais ni le vrai, ni le juste. (Michel Onfray, philosophe qui citait le droit des Etats). On peut amplement calquer cette citation pour Google :wink:

Enfin, ce que je remarque lorsque que je compare les sites concurrents aux miens sur Seomoz, c'est que les BL ont toujours un bel avenir !... mais je suis fatigué de polluer :mrgreen:

Courage petit, courage :mrgreen:
 
WRInaute accro
philyd a dit:
mipc a dit:
avec des pages et des pages à la con

On a bien senti que tu n'aimes pas les pages à la con puisque tu le cites au moins 3 fois, ok bon :arrow:

Mais si les pages à la con te ramènent quelques deniers ? Le nerf de la guerre, c'est bien l'argent... n'est-ce pas GG :?:

:mrgreen:

une page à la con peut rapporter 1 clients, mes les 99.999999999999999% des autres pages à la con ne rapportent rien, tous le reste juste des visiteurs qui se sont retrouver là, il ne savent pas comment ni pourquoi ils sont tomber sur se genre de pages à la con ou y a juste du blabla et rien que du blabla, même pas un début de commencement de solution en rapport avec leurs recherche, j'appel cela flouer le visiteur et lui faire perdre sont temps, surtout au cout financiers et au cout carbone d'une requête sur internet, parce que c'est pas parce qu'un recherche sur google est gratuit, que ça ne coute pas d'argent et en énergie carbonné(CO2).

va chiffré le cout carbonne et électrique et financiers des recherches infructueuse des utilisateurs des moteurs de recherche sur internet, à mon avis y a de quoi avoir peur.
 
WRInaute passionné
Attention aux liens multiples vers une même url, hier seul le premier était pris en compte et l'autre ignoré, aujourd'hui c'est sanction directe.
Et je ne parle pas des ancres multiples #....
 
WRInaute occasionnel
mipc a dit:
une page à la con peut rapporter 1 clients, mes les 99.999999999999999% des autres pages à la con ne rapportent rien.

Prends le problème à l'envers : c'est justement parce que tu as 100 pages à la con que tu en as une qui convertit un client ! C'est une question de probabilités :mrgreen: Tu n'aurais qu'une page... tu ne convertirais rien.
 
WRInaute accro
philyd a dit:
c'est justement parce que tu as 100 pages à la con que tu en as une qui convertit un client ! C'est une question de probabilités
Ou alors tu n'a qu'une page à la c*n et c'est la seule a convertir donc c'est de la fatalité pas de la probabilité.
 
WRInaute passionné
detectimmobilier a dit:
Attention aux liens multiples vers une même url, hier seul le premier était pris en compte et l'autre ignoré, aujourd'hui c'est sanction directe.
Sérieux ? Tu es sûr de ça ? Parce que moi sur mes pages j'ai des liens multiples vers mes pages catégories par exemple: dans le menu principal, dans le fil d'arianne, dans une rubrique accès rapide. Je suis sanctionné alors ?...
 
WRInaute accro
detectimmobilier a dit:
Je pense que les nouveaux filtres vont dans ce sens effectivement.
C'est bien mignon l'affirmation sur X sujet a ce propos mais faudrait étayer un peu et pas seulement affirmer. Source ? test ?
 
WRInaute accro
zeb a dit:
philyd a dit:
c'est justement parce que tu as 100 pages à la con que tu en as une qui convertit un client ! C'est une question de probabilités
Ou alors tu n'a qu'une page à la c*n et c'est la seule a convertir donc c'est de la fatalité pas de la probabilité.

c'est comme quant j'avais acheter un petit encart dans l'annuaire papier de pagejaunes.fr à 68EUROS HT, ça m'avait rapporter un seul client à 70€, super à la limite se même client aurait rappeler pour d'autres pannes, mais rien nada, le bilant j'ai perdu mon temps car j'ai mal fait les choses en terme de visibilité dans l'annuaire papier de pagesjaunes, et j'ai perdu de l'argent, en gros pour faire simple: si c'est pour faire de la merde autant ne jamais commencer, y compris les ADWORDS avant de faire des ADWORDS il vaut mieux s'assurer que l'aspect; l'ergonomie; le design; l'image; la première impression que donne le site, sera très très bonne, suffisante pour convertir le client dès les premières seconde, si non vous aurez perdu du temps et de l'argent dans ADWORDS, se qui m'est aussi arriver.
 
WRInaute passionné
comme disait mipc plus haut : "si vous n'avez rien à dire abstenez vous merci"

est-ce que c'est valable pour ceux qui ont des conneries à dire ?
 
WRInaute accro
detectimmobilier a dit:
Je pense que les nouveaux filtres vont dans ce sens effectivement.


lambi521 a dit:
detectimmobilier a dit:
Attention aux liens multiples vers une même url, hier seul le premier était pris en compte et l'autre ignoré, aujourd'hui c'est sanction directe.
Sérieux ? Tu es sûr de ça ? Parce que moi sur mes pages j'ai des liens multiples vers mes pages catégories par exemple: dans le menu principal, dans le fil d'arianne, dans une rubrique accès rapide. Je suis sanctionné alors ?...

à ouais, alors soit c'est pas mis en place, ou alors pas sur tous les DC, soit c'est un filtre très faibles, mais alors vraiment, parce que dernièrement je remonte de manière soutenu et relativement importante ses dernières semaines, parfois plusieurs jours d’affiler, et j'ai plusieurs liens sur chaque pages qui pointent vers le même site internet à savoir atp92.fr, notamment un liens en H1 et un liens en bas de pages toujours dans un microformat, la seul chose que j'ai fait dernièrement c'est:

-changer de serveur d’hébergement, maintenant le site est héberger chez moi pas mes soins.
-j'ai mis des badges et bouton +1 de google.
-suis venu en aide gratuitement à plein de personnes, notamment des créateur d'entreprises qui débutaient pour trouver des client, certaines personnes que j'ai aider je l'aurai ai proposer de me faire un +1 sur mon site.
-j'ai grossit la taille de mon texte pour mieux correspondre à la moyenne des résolutions utiliser par les visiteurs de mon site.
-rajouter un peux de schema.org dans les pages du site.

donc à mon avis, se nouveau filtre anti-spam de liens ne fonctionne qu'à partir d'un très grand nombre de liens fait depuis une pages, vers un même site, le tous c'est de savoir si se filtre est activé à partir de deux liens par page qui pointent vers le même site internet.
 
WRInaute accro
forty a dit:
comme disait mipc plus haut : "si vous n'avez rien à dire abstenez vous merci"

est-ce que c'est valable pour ceux qui ont des conneries à dire ?

:lol: tu veux dire est ce que ça s'applique à MIPC :mrgreen: :roll: :wink: !!!?
 
WRInaute accro
Ne vous emballez pas sur cette histoire de double lien sans source ni test. C'est le fonctionnement normal des cms comme Wordpress. Ca laisserait des millions de sites sur le carreau.
 
WRInaute passionné
mipc a dit:
detectimmobilier a dit:
Je pense que les nouveaux filtres vont dans ce sens effectivement.


lambi521 a dit:
detectimmobilier a dit:
Attention aux liens multiples vers une même url, hier seul le premier était pris en compte et l'autre ignoré, aujourd'hui c'est sanction directe.
Sérieux ? Tu es sûr de ça ? Parce que moi sur mes pages j'ai des liens multiples vers mes pages catégories par exemple: dans le menu principal, dans le fil d'arianne, dans une rubrique accès rapide. Je suis sanctionné alors ?...

à ouais, alors soit c'est pas mis en place, ou alors pas sur tous les DC, soit c'est un filtre très faibles

Effectivement des différences notables selon les DC (cf Positeo, ) et l'utilisation de différents navigateurs (Chrome, FF,....) avec la désagréable sensation d'apparaître puis de disparaître par instant.
 
WRInaute impliqué
Désolé pour le double post, je ne peux edit, mais au lieu de venir parler sur la suroptimisation du référencement, ils feraient sans doute mieux de chercher à améliorer globalement les résultats, surtout en français. Exemple :
http://staloa.free.fr/images/show/?/google-resultat-hollande.jpg
C'est de l'actualité chaude ( clairement ), et on a une page anglaise tout en haut. Pourtant, j'écris bien "hollandE" et non "holland". Alors moi je veux bien, mais c'est du 100% hors sujet ce résultat.
Et ça, je ne pense pas que ce soit lié au site en question.. mais à google qui te balance des résultats d'une autre langue sans raison.
 
WRInaute discret
Adieu les sites au contenu spinné en 1ere page (les footeux à la recherche d'un match en streaming me comprendrons). Ca devrait concerné 1% des sites (donc les faux sites de streaming), pourquoi avoir peur?
 
WRInaute accro
nervusdm a dit:
Désolé pour le double post, je ne peux edit, mais au lieu de venir parler sur la suroptimisation du référencement, ils feraient sans doute mieux de chercher à améliorer globalement les résultats, surtout en français. Exemple :
http://staloa.free.fr/images/show/?/google-resultat-hollande.jpg
C'est de l'actualité chaude ( clairement ), et on a une page anglaise tout en haut. Pourtant, j'écris bien "hollandE" et non "holland". Alors moi je veux bien, mais c'est du 100% hors sujet ce résultat.
Et ça, je ne pense pas que ce soit lié au site en question.. mais à google qui te balance des résultats d'une autre langue sans raison.

premier résultat hors actualités : ladepeche.fr. j'aime :)
tu as cliqué dessus : je re-aime :)

pardon, je -->
 
WRInaute accro
Honnêtement, à force que Matt Cutt raconte n'importe quoi en permanence et reconnait quelques mois plus tards que GG a fait une modif, vous croyez encore ce qu'il raconte? C'est chaque fois de la communication à deux balles
Pour le deuxième lien qui déclasserait la page (qui reçoit ou qui envoit en plus), jamais entendu (sauf qu'il ne tient pas compte du texte du deuxième lien et probablement pas du lien lui-même.
En 3, c'est quoi de la suroptimalisation. On a tous des pages bien placées avec seulement une fois le mot dans le texte (mais un paquet de synonymes que GG connaît) ou l'inverse (qui est plus courant) ou des pages bourrées du mot (ou de la combinaison) qui passent.
En 4, si l'article est bien écrit, il est compréhensible pour le visiteur même en bourrant complètement les mots souhaités avec leur synonymes.

Faut juste se souvenir que depuis deux ans, Google place les pages par leur contenu et pas ... (ou de moins en moins) par les liens. qui pointent dessus. Les pages qui descendent sont juste analysées par le contenu: tournures de phrases, vocabulaire, ...
PS: utiliser twitter qui est finalement une suite de lien suivi d'un petit texte , c'est pas de la sur-optimalisation? Et Google en tient (peut-être) compte. Je rejoint également
e-kiwi a dit:
premier résultat hors actualités : ladepeche.fr. j'aime :)
tu as cliqué dessus : je re-aime :)

pardon, je -->
Ca ressemble plus à Facebook ou à GG+ dans son cas. Personne ne s'est dit un jour que c'est 3 sites "sociaux" ne cherchent finalement qu'à recueillir le maximum de renseignements sur l'utilisateur? Pour les monnayer bien sûr aux annonceurs publicitaires.

Une de mes ancienne "élève webmaster" est passée vendredi soir pour un nouveau site, une idée ... voire ce que j'en pense et aussi pour un petit coup de main de développement. C'est pas une professionnelle d'Internet et de loin mais pour quelqu'un qui gère deux petits sites, elle est finalement balaise. La remise à jour en référencement pour les 2-3 ans passés l'on complètement cassés. Plus rien à voire ... et pourtant des vieilles pages bourrées des mots clés passent encore.
 
WRInaute discret
lino211 a dit:
Tout référencement, par définition, n'est-elle pas une manière de tronquer les Serps de Google?

Cette grarnde idée, qui n'est pas fausse, figure dans les guidelines de qualité Google me semble-til. Et ce me semble être ce que dit Matt Cuts au début de sa déclaration sur la suroptimisation.

Matt Cutts a dit:
And the idea is basically to try and level the playing ground a little bit. So all those people who have sort of been doing, for lack of a better word, “over optimization” or “overly” doing their SEO, compared to the people who are just making great content and trying to make a fantastic site, we want to sort of make that playing field a little bit more level.

Mais nous vivons dans un monde réel, pas d'idéaux. Si bien que, par attachement à ses sources, GG impose sa culture étrange de "1 lien = 1 vote". Ce me semble peu compatible avec un monde idéal.

L'écart entre le monde réel et le monde idéal tient à la notion de faisabilité.

En gras, Matt Cutts admet que le problème de la sur optimisation ne sera pas résolu. Il va simplement tenter de quantifier la qualité et modéliser le point de vue d'une "personne normale" selon le secteur.

Matt Cutts a dit:
And so that’s the sort of thing where we try to make the web site, uh Google Bot smarter, we try to make our relevance more adaptive so that people don’t do SEO, we handle that, and then we also start to look at the people who sort of abuse it, whether they throw too many keywords on the page, or whether they exchange way too many links, or whatever they are doing to sort of go beyond what a normal person would expect in a particular area. So that is something where we continue to pay attention and we continue to work on it, and it is an active area where we’ve got several engineers on my team working on that right now.

Pour des raisons de contraintes techniques, essentiellement de capacité, ça n'ira pas très loin. Il ne sera pas trop compliqué d'éviter ce filtre. Il faudra juste ne pas commettre d'énormités.

L'ambition de Google dans ce domaine me semble bien limitée.
 
WRInaute discret
Dans cet article: http://www.practicalecommerce.com/articles/3440-Google-Plans-SEO-Over- ... on-Penalty

Matt Cutts dit vouloir s en prendre aux noms de domains contenant des mots clés.
Pour moi c est une aberation totale. Un aveu d"échec de Google. D une part je pense que les nom de domaines avec les mots clés sont une conséquence même de la politique de classement de Google pendant des années ( vous faire patienter bien sagement dans un "sandbox" pendant 1 an ou deux histoire de voir que vous confirmer bien être un acteur sérieux. Sympa pour ceux qui dépendent des résultats et qui n ont pas les reins solides que pour survivre deux ans )

D autre part je pense et je ne dois pas être le seul que Google ferait bien de commencer a sanctionner les sites qui font des trucs du style mot-clé.net/mot-clé1-motclé2/mot-clé1-mot-clé2..html soit inclure les mots clé dans le répertoire et le nom de fichier.

De toute évidence, Google ne cherche qu une seule chose, pousser les gens a utiliser leur Adwords qui représent 99% de leur revenus. Pour moi cela devient de plus en plus clair. Google n a aucune politique claire, tous les 12 mois ils ajoutent des nouveaux critères et ce qui est très inquiétant, c est que souvent ils ne font pas ce qu'ils disent. Pour Panda par exemple, beaucoup de paroles, pour finalement nous avouer que Panda ne touchait pas les résulats autrres que anglais, pour ensuite nous avertir que Panda arrivait en France, mais in fine, je constate encore beaucoup de résultats tellement grotesques. Comment se fait il que Google ne suit pas les plaintes faites dans Google Spam report ?
 
WRInaute accro
faux, google suit les plaintes de google spam repport(mon avis il faut juste qu'y en ait suffisamment), pour google maps surtout si tu te dénonce toi même(tester et approuver), du reste il suit les spam repport in rich snippets, puis s'aperçoit après 6 semaines qu'en faite y a aucun problème et que c'est juste des concurrents aigris et énerver ou un webmaster qui déteste une personne dans les forums et qui veut s'amuser et du coup google remet les RS dans google.com pour commencer plus tard dans google.fr, puis le re-retire après les avoir remis, puis les re-remets et ainsi de suite.
 
WRInaute accro
mipc a dit:
il suit les spam repport in rich snippets, puis s'aperçoit après 6 semaines qu'en faite y a aucun problème
là, tu extrapole beaucoup : franchement, c'est pas avec tes 10 visiteurs / jours que tu fais de l'ombre à tes "concurrents" :roll: c'est plutôt que gg fait des essais d'affichages et modifie selon la façon dont les internautes réagissent dans les serp : pour une même page, sur des requêtes différentes, gg peut afficher les rich snippets de plusieurs façons différentes, voir même ne pas les afficher. Sans que la page ne soit "pénalisée" par gg
 
WRInaute accro
donc selon toi, se ne sont pas des webmaster rageux qui me retire les RS via spam repport in rich snippets, puis google les remets tiens amusant, puis les re-retir, puis plus tard en remet d'autres mais pas les mêmes mais que sur google.com et que pour ceux qui ne sont pas connecter à leurs compte google, comme c'est étrange comme façon de procédé, soit pourquoi pas, mon avis est que j'ai une peux raison et pas beaucoup tort dans mon analyse, y a pas que des testes dans le lot.

la marrant il retire ceux de http://fobec.com ,mais pas ceux de http://woorank.com, alors qu'ils sont plus ancien sur woorank, alors que dans les trois cas c'est bien le webmaster du site qui fait une review et mets sa note, mon avis est qu'y en à juste un qui est plus visiter que l'autre.

edit: pis pour moi retiré les RS c'est une forme de sanction, ça a des conséquences énorme en terme de visibilité vu que j'ai que ça pour moi, la visibilité c'est une grande parti de la notoriété.
 
WRInaute impliqué
cupidonbe a dit:
Dans cet article: http://www.practicalecommerce.com/articles/3440-Google-Plans-SEO-Over- ... on-Penalty

Matt Cutts dit vouloir s en prendre aux noms de domains contenant des mots clés.
tu as mal lu ou mal compris l'article, matt cutts ne dit absoluement pas qu'il va sanctionné les noms de domaines avec mots clés, c'est l'auteur de l'article qui extrapole en réfléchissant à quelles pourraient être les actions à venir de la part de google pour lutter contre le spam.
 
WRInaute passionné
A ce sujet, l'annonce de Google était il y a quelques temps qu'il accorderait moins d'importance au nom de domaine qui contiendrait le mot-clé, ce qui ne donnerait pas les mêmes conséquences. D'autre part, le fait d'inclure un mot clé n'est pas synonyme de sur-optimisation. Et çà éliminerait un tas de sites de qualité.
 
WRInaute accro
c'est un style d'écriture décousue, avec des structures de phrases et des formulations étranges indigestes pour un humain et peut compréhensible, qui use et abuse de certains mot clé et fait des répétitions chiante à lire pour le lecteur, en gros pour faire simple c'est écrire pour les robots, pas pour les lecteurs, n'avoir que peux ou pas de choses intéressante et pertinente à dire aux lecteurs/visiteurs du site, du coup sanction par pogosticking et cie interposé.
 
WRInaute passionné
lecouti a dit:
A ce sujet, l'annonce de Google était il y a quelques temps qu'il accorderait moins d'importance au nom de domaine qui contiendrait le mot-clé, ce qui ne donnerait pas les mêmes conséquences. D'autre part, le fait d'inclure un mot clé n'est pas synonyme de sur-optimisation. Et çà éliminerait un tas de sites de qualité.
mais aussi beaucoup qui n'en présentent pas, ainsi que pas mal de spéculation sur l'achat de NDD.....
 
WRInaute passionné
Certes, il faudrait donc que l'algo puisse séparer le bon grain de l'ivraie. Je possède un site (racheté) avec deux mots clés dans le NDD (synonymes) et je ne suis pas plus inquiet que çà. Évidement chaque URL contient deux fois les mot clés du NDD et éventuellement une fois pour la page si c'est nécessaire. Je ne pense pas que çà m'avantage
 
WRInaute discret
alex84 a dit:
cupidonbe a dit:
Dans cet article: http://www.practicalecommerce.com/articles/3440-Google-Plans-SEO-Over- ... on-Penalty

Matt Cutts dit vouloir s en prendre aux noms de domains contenant des mots clés.
tu as mal lu ou mal compris l'article, matt cutts ne dit absoluement pas qu'il va sanctionné les noms de domaines avec mots clés, c'est l'auteur de l'article qui extrapole en réfléchissant à quelles pourraient être les actions à venir de la part de google pour lutter contre le spam.


ah oui tiens... " I’ve been daydreaming" j avais mal lu l article ! Merci de me l'avoir fait remarqué. Me voilà un peu soulagé parce que ca fait des années que jessaie de comprendre comment Google réfléchit et je m y adapte, alors j'aime pas trop quand ils changent de politique comme ca à 180°
 
WRInaute impliqué
Bonjour à tous,
J'ai lu avec attention vos posts et me pose une question simple : qu'est ce que la sûr optimisation à présent ?
Je viens de me prendre une claque de -36% par rapport à l'an dernier, pourtant je n'ai pas fait de suroptimisation !
Sur GWT "Search results clicks for http://www.architecte-paca.com/ have decreased significantly."
Je ne saisi pas la raison de cette chute vertigineuse, le positionnement dans les Serps à changé, les différents PANDA n'avaient pas eu de prise sur mon site mais là, ça fait mal....

Je n'ai rien modifié de fondamental, est-ce que l'algorithme a complètement changé et plombé un modèle qui fonctionné depuis des années ?
Je suis perdu, des pistes sur ce nouveau filtre ? Je suis preneur
L'adwords ne me paraît pas la solution, est-ce une histoire de BL ?

J'écoute toutes vos infos!
 
WRInaute accro
cupidonbe a dit:
ah oui tiens... " I’ve been daydreaming" j avais mal lu l article ! Merci de me l'avoir fait remarqué. Me voilà un peu soulagé parce que ca fait des années que jessaie de comprendre comment Google réfléchit et je m y adapte, alors j'aime pas trop quand ils changent de politique comme ca à 180°

Enfin cela fait longtemps aussi que Matt Cutts a dit qu'il valait mieux construire une marque qu'avoir des noms de domaines à mots clés
 
WRInaute discret
pcamliti a dit:
Bonjour à tous,
J'ai lu avec attention vos posts et me pose une question simple : qu'est ce que la sûr optimisation à présent ?
Je viens de me prendre une claque de -36% par rapport à l'an dernier, pourtant je n'ai pas fait de suroptimisation !
Sur GWT "Search results clicks for http://www.architecte-paca.com/ have decreased significantly."
Je ne saisi pas la raison de cette chute vertigineuse, le positionnement dans les Serps à changé, les différents PANDA n'avaient pas eu de prise sur mon site mais là, ça fait mal....

Je n'ai rien modifié de fondamental, est-ce que l'algorithme a complètement changé et plombé un modèle qui fonctionné depuis des années ?
Je suis perdu, des pistes sur ce nouveau filtre ? Je suis preneur
L'adwords ne me paraît pas la solution, est-ce une histoire de BL ?

J'écoute toutes vos infos!


Même chose pour moi, les panda n'avaient jamais eu d'impact négatif mais la dernière MAJ (pour moi subi le 22), grosse claque. Par contre à noter que j'ai observé sur un de mes sites une baisse de 50%, rien de bien original mais le fait est qu'il avait eu la même sanction l'année dernière à 15j près ... Il était revenu difficilement vers le haut par la suite. Coincidence troublante sachant qu'un autre de mes sites qui reprend une bonne partie du même contenu a lui eu une grosse hausse inhabituelle à 15j près aussi (un bon pic qui se détache vraiment du reste de l'année) avec une baisse juste après (qui cette année est plus puissante) ... Le décalage des deux phénomènes se synchronisent. En gros pour savoir ce qu'il va advenir il suffit que je regarde mes courbes de l'année dernière avec un volume supérieur (car malgré tout les choses évoluent vers le haut avec des chutes qui viennent faire perdre du temps). Donc en mars 2013 j'aurai encore une claque sur plusieurs sites ?
Bref, plus j'ai des stats analytics plus je vois des trucs étranges avec une intime conviction que google n'accorde pas telle ou telle position à chacune de vos pages mais bel et bien un volume de visiteurs attribué par jour pour un site (selon qualité et capacité de charge). Ensuite c'est la machine qui s'occupe de lisser en jouant sur le positionnement des expressions de la longue traine. Voila pour ce que j'avais à dire sur le sujet. En attendant depuis le 22 mars c'est un peu la déprime avec l'observation de sites "daubeux" qui explosent et d'autres de qualité (sans parler des miens) qui régressent ... En gros le dernier panda semble avoir des effets collatéraux assez importants ...
 
WRInaute accro
jolm a dit:
une intime conviction que google n'accorde pas telle ou telle position à chacune de vos pages mais bel et bien un volume de visiteurs attribué par jour pour un site (selon qualité et capacité de charge). Ensuite c'est la machine qui s'occupe de lisser en jouant sur le positionnement des expressions de la longue traine.
Bah voila ce qui se rapproche de ce que je pense depuis maintenant 3/4 ans :wink:
Constaté aussi sur le volume financier adsense ...
Reste plu qu'a trouver le facteur qui fait l'indice d'écrêtage et on en aura plus rien a faire du positionnement.
 
WRInaute accro
pour adsense, je pense que c'est le cas, en dehors des sites trustés (fortement demandés par les annonceurs) ou ceux qui ont de gros volumes et peuvent se permettre de donner leurs conditions à gg
pour les serp, je ne pense pas que ce soit le cas, avant d'en arriver à de telles conclusions, il aurait fallu comparer les volumes de requêtes et de clics ayant été fortement modifiées et ayant pu amener de telles différences, voir si des évènements d'actualité, les suggestions de gg, etc... n'auraient pu amener une modification des requêtes
 
WRInaute passionné
pcamliti a dit:
Je ne saisi pas la raison de cette chute vertigineuse
Un petit indice :
Plans de maisons
Exemple Plans & construction de maisons d'Architecte à télécharger dont certains gratuitement.

Modèles Plan de maison de type :
Exemple Plans maisons
3 pièces
Exemple Plans maisons
4 pièces
Exemple Plans maisons
5 pièces+
Exemple Plans maisons gratuits
Plans de maisons en 3D
 
WRInaute impliqué
jolm a écrit: une intime conviction que google n'accorde pas telle ou telle position à chacune de vos pages mais bel et bien un volume de visiteurs attribué par jour pour un site (selon qualité et capacité de charge). Ensuite c'est la machine qui s'occupe de lisser en jouant sur le positionnement des expressions de la longue traine.

Bah voila ce qui se rapproche de ce que je pense depuis maintenant 3/4 ans :wink:
Constaté aussi sur le volume financier adsense ...
Reste plu qu'a trouver le facteur qui fait l'indice d'écrêtage et on en aura plus rien a faire du positionnement.

Depuis le 22 mars, perte de trafic sur l'un de mes sites de l'ordre de -40%. Les premiers jours on sentait nettement le bridage. Du genre en début d'heure tout est normal et à la fin de l'heure, ton trafic horaire est divisé par trois. Je n'ai jamais observé de tels écarts avant cela, donc on ne peut conclure qu'à une sorte de bridage.

Pour ma part, la page d'accueil a été pénalisée et perte de position (de 4ème à 9 ou 10 ème suivant les jours) sur un mot clé important. La longue traine est différente, mais certaines position sur certaines expressions qui me rapportaient un peu de visiteurs n'ont pas bougé.
 
WRInaute impliqué
forty a dit:
pcamliti a dit:
Je ne saisi pas la raison de cette chute vertigineuse
Un petit indice :
Plans de maisons
Exemple Plans & construction de maisons d'Architecte à télécharger dont certains gratuitement.

Modèles Plan de maison de type :
Exemple Plans maisons
3 pièces
Exemple Plans maisons
4 pièces
Exemple Plans maisons
5 pièces+
Exemple Plans maisons gratuits
Plans de maisons en 3D

Vous pensez que le site est suroptimisé par ces mots clés ? Comment dénommé les éléments si ce n'est par leurs noms !..
De plus c'est dans la nav secondaire. Je vais suivre cette piste, mais je ne comprends pas le pourquoi du comment !?
Autre chose sur une requête importante, j'ai des centaines de BL avec des liens divers mais la sanction est la même.

Une époque est a priori révolue ... Seule les monstres et CMS bien ficelés tirent encore leurs épingle du jeu. À moins de faire du BLACK HAT.
Je suis un poil enervé :x
 
WRInaute passionné
@pcamliti : je ne sais pas si c'est la solution mais en ouvrant la page d'accueil ca m'a piqué les yeux tout de suite.
 
WRInaute impliqué
@forty ok merci je sais que ce n'est que du ressenti et non un conseil de modification.
Le forum wri est un lieu d'échange car avoir un regard extérieur est toujours utile !
Merci... See you soon
 
WRInaute accro
pcamliti a dit:
Seule les monstres et CMS bien ficelés tirent encore leurs épingle du jeu. À moins de faire du BLACK HAT.
Pas forcement, tu peux aussi regarder le problème sous l'axe de la qualité et donc d'une sélection plus rigoureuse (c'est pour se rassurer :D )
Sinon pour ton www :
* Fait attention keywords en masse pas bon
* Alt et title des images surexploités avec du html dedans (pas vraiment utile)
* sémantique pas forcement top conforme :
[h1] PLANS DE MAISONS D'ARCHITECTE A TÉLÉCHARGER
[h2] Catalogue de plans de maisons d'architecte 3d, plans, dessins :
[h2] LA CONSTRUCTION D'UNE MAISON INDIVIDUELLE Conseils d'ARCHITECTE DPLG
[h2] Dessiner le plan de sa maison guides et conseils :
[h2] Architecte PACA nos Élucubrations :
[h2] LA RÉGLEMENTATION APPLIQUÉE À LA MAISON INDIVIDUELLE
[h3] LES SURFACES RÉGLEMENTAIRES :
[h2] LE PRIX DE LA MAISON ET DES TRAVAUX:
[h3] Le prix pour construire sa maison :
[h3] Le prix pour AGRANDIR sa maison :
[h2] L'Architecture et la Maison :
[h4] Nos Services d'Architecte
[h4] Actualités Maison - Architecte
* et surtout la home page ENORME de contenu ce qui la rend plus difficile à positionner (surtout si le contenu tourne souvent)
 
WRInaute impliqué
Bon et bien j'ai fait une demande réexamen ce week-end et la réponse vient de tomber : le site dont je parlais (-40%) n'a pas été pénalisé.

près examen de votre site, nous n'avons identifié aucune intervention manuelle pour cause de spam susceptible d'affecter votre classement sur Google. Vous n'avez donc pas besoin de déposer une demande de réexamen pour votre site car il n'a subi aucune sanction de notre part.

En tous les cas je souligne que la réponse a été rapide et a le mérite d'être clair. Sur ce point bravo Google.

Toutefois, je ne comprends pas pourquoi une baisse de 5 à 6 places sur un mot concurrentiel (je veux bien que d'autres aient travaillé leur référencement, mais à ce point, je n'y crois guère) et SURTOUT pourquoi une telle baisse de trafic. Google procède certainement à des tests. Hier encore, à plusieurs reprises, mon trafic normal revenait quelques dizaines de minutes et dégringolait tout de suite après.
 
WRInaute accro
Tu sais, pour perdre 6 places, il suffit que 6 personnes devant toi en gagnent "une". (Imagine que tu aies été ex aequo avec les 6 autres, et tu perds "une" place)
 
WRInaute impliqué
zeb a dit:
pcamliti a dit:
Seule les monstres et CMS bien ficelés tirent encore leurs épingle du jeu. À moins de faire du BLACK HAT.
Pas forcement, tu peux aussi regarder le problème sous l'axe de la qualité et donc d'une sélection plus rigoureuse (c'est pour se rassurer :D )
Sinon pour ton www :
* Fait attention keywords en masse pas bon
* Alt et title des images surexploités avec du html dedans (pas vraiment utile)
* sémantique pas forcement top conforme :
[h1] PLANS DE MAISONS D'ARCHITECTE A TÉLÉCHARGER
[h2] Catalogue de plans de maisons d'architecte 3d, plans, dessins :
[h2] LA CONSTRUCTION D'UNE MAISON INDIVIDUELLE Conseils d'ARCHITECTE DPLG
[h2] Dessiner le plan de sa maison guides et conseils :
[h2] Architecte PACA nos Élucubrations :
[h2] LA RÉGLEMENTATION APPLIQUÉE À LA MAISON INDIVIDUELLE
[h3] LES SURFACES RÉGLEMENTAIRES :
[h2] LE PRIX DE LA MAISON ET DES TRAVAUX:
[h3] Le prix pour construire sa maison :
[h3] Le prix pour AGRANDIR sa maison :
[h2] L'Architecture et la Maison :
[h4] Nos Services d'Architecte
[h4] Actualités Maison - Architecte
* et surtout la home page ENORME de contenu ce qui la rend plus difficile à positionner (surtout si le contenu tourne souvent)
Merci Zeb pour cette analyse rapide.... donc il va me falloir me retrousser les manches et mettre les mains dans le cambouis ;)
Épurer serait la solution. Je vais suivre cette piste également.
 
WRInaute impliqué
Tu sais, pour perdre 6 places, il suffit que 6 personnes devant toi en gagnent "une". (Imagine que tu aies été ex aequo avec les 6 autres, et tu perds "une" place)

Je suis bien d'accord, mais ce mot clé Exact me rapportait quelques dizaines de visites/j sur la page d'accueil. Mais la page d'accueil n'a pas perdu quelques dizaines de visites c'est > 100. Ce mot clé (le seul que je surveille d'ailleurs) ne fait qu'osciller entre la place 6 et 10 depuis le 21 mars. Hier, il est même resté une partie de l'après midi en place 5 sans hausse de trafic.

Bref, de toute façon je n'ai pas été pénalisé, en tous les cas manuellement, ni pour spam ni pour suroptimisation apparemment. Panda en serait l'origine, mais je trouve bizarre qu'il y ait pénalité sans une plus grosse "claque" sur ce mot clé concurrentiel. De ce que j'en ai lu, les pertes de position sont radicales (du genre page 1 à page 20). Certes, je n'ai pas regardé la longue traîne que je ne suis pas, mais j'ai autant de visiteurs sur les expressions qui me rapportaient quelques visites par jour. J'aurai vraiment préféré une pénalité manuelle, ça aurait été plus clair je trouve.
 
Olivier Duffez (admin)
Membre du personnel
certains pensent que l'update vient d'être mis en place. voyez par exemple :
ce post récap : http://www.seroundtable.com/google-update-april-2012-15023.html
ce gros topic http://www.webmasterworld.com/google/4435785.htm (attention ce topic a commencé tôt en avril)
et même ces 380 posts dans cette discussion chez les black hat : http://www.blackhatworld.com/blackhat-seo/black-hat-seo/431170-sites-g ... e-wtf.html (trouvé via https://twitter.com/#!/CyrusShepard)

sur WRI je vois au contraire une légère hausse du trafic SEO Google (10%) mais je ne peux pas encore confirmer qu'il s'agit de la même chose

et vous, du nouveau ?
 
WRInaute passionné
Quand on lit le site de blackhat, c'est à priori une mise à jour qui a mis beaucoup de monde dans les choux. Si c'était arrivé en France, on en attendrait parler un peu plus il me semble ? Ou alors GG aurait enfin réussi à toucher ceux qui font du blackhat bourrin (mais ce n'est pas ce que je remarque dans les SERP fr)

Personnelement, ça bouge de façon habituelle, y compris sur des sites que je ne gère pas et qui sont assez bourrin.
 
Nouveau WRInaute
WebRankInfo a dit:
certains pensent que l'update vient d'être mis en place. voyez par exemple :
ce post récap : http://www.seroundtable.com/google-update-april-2012-15023.html
ce gros topic http://www.webmasterworld.com/google/4435785.htm (attention ce topic a commencé tôt en avril)
et même ces 380 posts dans cette discussion chez les black hat : http://www.blackhatworld.com/blackhat-seo/black-hat-seo/431170-sites-g ... e-wtf.html (trouvé via https://twitter.com/#!/CyrusShepard)

sur WRI je vois au contraire une légère hausse du trafic SEO Google (10%) mais je ne peux pas encore confirmer qu'il s'agit de la même chose

et vous, du nouveau ?


C'était donc un beug de google seulement! RT @mattcutts: we dug into it & found : https://t.co/tYkmbM3j #seo #google #mistake #overoptimized
 
WRInaute accro
Merci Olivier pour l'article.
* Optimisation technique -> rien de bien neuf mais du bon sens.
* Optimisation de l'éditorial -> là aussi je dirais assez rien de bien neuf, mais certainement un des points les plus mal exploités de nos jours avec l'apparition des "rédacteurs".
* Optimisation du netlinking -> la gabegie et l'orgie en prend un coup -> logique et normal somme toute une nécessité d'y aller en douceur de nos jours aussi ...
* Optimisation des aspects sociaux -> on en entend parler depuis longtemps a t'elle fait vraiment sa sortie ? ... une bonne idée en tous cas qui ne facilite pas la vie au jour le jour.

La somme des 4 points dans un algo de filtrage et on obtient une mailing liste importante ... plus un gros changement dans les SERP.
 
WRInaute discret
Rogers a dit:
...Google procède certainement à des tests. Hier encore, à plusieurs reprises, mon trafic normal revenait quelques dizaines de minutes et dégringolait tout de suite après.

J'espère que notre ami Google procède seulement à des tests, et que certaines "anomalies" vont se corriger d'elles-mêmes... parce qu'aujourd'hui 24 avril, mon PR en accueil est passé d'un coup de 3 à 0... même si beaucoup décrie ce PR, il est plus agréable à l'oeil de le voir à 3. Il s'est donc passé quelque chose entre le 23 et le 24, j'espère qu'il ne s'agit que de "tests"... 8O Je ne vois pas en effet, de sur-optimisation concernant ladite page touchée par cette chute de PR... wait and see...
 
Olivier Duffez (admin)
Membre du personnel
En général, quand le PR de la toolbar passe de qq chose (supérieur à 1 ou 2) à zéro d'un coup, ce n'est pas un hasard mais plutôt une sorte d'avertissement de Google ou de malus associé à une pénalité...
 
WRInaute accro
souvent c'est quand gg suspecte une vente de BL et, en affichant un pr0, il espère que le "partenaire payant" va arrêter de payer
 
WRInaute discret
Déjà s'il arrivait à détecter le truc spammy bien pourris avant de s'attaquer au white/grey trop poussé ça m'arrangerait pas mal. Moi j'ai pas mal de champions du ranking avec des pages de ce style : -http://www.restaurantmarcopolo.com/restaurant-marseille-gastronomie-sur-allauch%2013190-10.html

C'est beau non?
 
WRInaute accro
c'est vrai que plus de 12000 pages pour le site d'un seul restau, je dis chapeau !!
utilise le formulaire de spamreport gg, mais en étant connecté à ton compte
 
WRInaute discret
C'est une agence qui emploie cette technique sur tous ces sites (centaines)... faudrait tout "spam reporter"... et étant concurrent (enfin on joue pas dans la même catégorie vu leur taille) je préfèrerais que ce soit un des fameux algo de Google qui se charge proprement de la punition... c'est quand même pas dur à déceler ce genre de pratique pour leurs robots qui font la pluie et le beau temps.
 
WRInaute accro
Winsiders a dit:
je préfèrerais que ce soit un des fameux algo de Google qui se charge proprement de la punition... c'est quand même pas dur à déceler ce genre de pratique pour leurs robots qui font la pluie et le beau temps.
et s'ils n'ont pas d'exemple, comment font-ils pour savoir comment modifier leur algo ?
 
WRInaute passionné
WebRankInfo a dit:
En général, quand le PR de la toolbar passe de qq chose (supérieur à 1 ou 2) à zéro d'un coup, ce n'est pas un hasard mais plutôt une sorte d'avertissement de Google ou de malus associé à une pénalité...

La petite barre n'a pas grand chose à voir, les pages pénalisées n'en ont pas vu de modification.
 
Olivier Duffez (admin)
Membre du personnel
detectimmobilier a dit:
WebRankInfo a dit:
En général, quand le PR de la toolbar passe de qq chose (supérieur à 1 ou 2) à zéro d'un coup, ce n'est pas un hasard mais plutôt une sorte d'avertissement de Google ou de malus associé à une pénalité...

La petite barre n'a pas grand chose à voir, les pages pénalisées n'en ont pas vu de modification.
je sais bien, j'expliquais simplement dans quels cas on peut voir la barre verte passer anormalement à zéro
 
Discussions similaires
Haut