Mise à jour algo Google : May Day (mai 2010)

Olivier Duffez (admin)
Membre du personnel
Depuis la tournée de Matt Cutts en Europe, on a la confirmation que ce que les membres de Webmaster World ont baptisé l'update "May Day" est bien une modification de l'algorithme de Google (comprenez : du ranking). Ce n'est donc pas lié à Caffeine ni au crawl ou à l'indexation.

Comme son nom l'indique, May Day correspond à un changement brutal survenu fin avril début mai, repéré essentiellement (uniquement ?) par des Américains. Certains ont témoigné avoir perdu autour de 10% à 15% de leur trafic, a priori dans des requêtes de type Long Tail.

On sait simplement par le bais de Matt Cutts qu'il s'agit d'un changement qui vise à améliorer la qualité des résultats de type "longue traine" et que Google n'a pas l'intention de revenir en arrière (c'est un changement prévu pour durer).

Une vidéo pour terminer :

 
WRInaute discret
Déjà le cas.
Des amis m'ont parlé d'une baisse soudaine de leur longue traine d'environ 8/10%, il y a environ 1 semaine.
 
WRInaute discret
Hello,
j'ai personnellement fait les frais de cet Update... - 20% de trafic sur la long tail assez subitement début mai (serveur en France, site français)...
Nico
 
WRInaute accro
kanon90 a dit:
reste à savoir quand est ce que ca sera repercuté sur la France... Wait and see.

C'est effectif depuis fin avril partout.
Le problème a évoqué dès qu'il a été repéré, aussi bien par des SEO US que par des SEO européens :roll:.
 
WRInaute impliqué
Si certains perdent, d'autres gagnent.

Donc qui ou quels types de requêtes long tail perdent, et qui ou quels type de requête gagnent ?
 
Olivier Duffez (admin)
Membre du personnel
Théophraste a dit:
Si certains perdent, d'autres gagnent.

Donc qui ou quels types de requêtes long tail perdent, et qui ou quels type de requête gagnent ?
c'est à mon sens la meilleure question à se poser ! (je n'ai pas la réponse)
 
WRInaute impliqué
oups la boulette alors ^_^"

j'avais lu ici et la que pour l'instant seul le web américain était touché. Personnellement je n'ai rien vu de bien transcendant coté stat.
 
WRInaute occasionnel
Je confirme la mise en place depuis début mai pour moi, et effectivement perte de 10 à 20% de trafic ET positionnement longue traine :twisted:
 
WRInaute impliqué
les gagnants sont certainement les plus petits sites qui n'ont pas forcément des centaines de milliers de pages.
 
WRInaute passionné
ben curieusement, depuis le début Mai, j'ai vu emmerger une requete que je visait depuis près de 2 ans sans succès
(pourtant pas top concurentielle... mais impossible de se placer...) et la => 1ère page du jour au lendemain..
et ca bouge plus... je sais pas si cà à "réellement" un rapport.. mais bon, j'en fait part à tout hasard.
 
WRInaute impliqué
Avec tout le respect requis à tous :
On se doute que pour certains il y a eu une baisse, d'autre une augmentation ( voir aucun changement ) du nombre de visiteurs . Ce sont plutôt les autres paramètres qui sont intéressant à observer
 
WRInaute accro
Bonjour

Pour ma part, c'est soit l'immobilisme, soit la hausse.

Dans tous les cas : beaucoup de contenu (de manière générale en tout cas !) notamment sur les sites e-commerce de mes clients (ceux qui ont moins de contenu sont resté sensiblement au même niveau...)
 
WRInaute impliqué
idem, ce sont des petits sites jusqu'ici mal classés qui sont à la hausse.

Baisse du long tail en avril mais remontée en mai dans l'ensemble.

edit de kanon : correction du long FAIL o_O
 
WRInaute discret
Mon site est un annuaire et j'ai perdu 65% de mon trafic, principalement sur la long traine, et ça depuis début mars.
 
WRInaute impliqué
La baisse de la longue tail impacte peut-être les gros sites, au profit des petits sites spécialisés pour qui ces mots clés très ciblés représentent non pas la long tail, mais la thématique principale.

Ce qui serait effectivement, dans certains cas, pertinent du point de vue de l'utilisateur.

Enfin, je me comprends :)
 
WRInaute accro
est-ce que ça ne serait pas sur les requêtes liées aux villes/départements sur lesquelles beaucoup tentaient (et réussissaient souvent) de se positionner, du genre "boucher limoges", "charcutier limoges", etc...
Initialement sous forme de pages, puis, il y a 2-3 ans, comme gg commençait à pénaliser ceux qui en faisaient trop, ils sont passés sur des sous-domaines, puis ensuite carrément des domaines séparés. Mais toujours le même mode opératoire : quasi le même contenu (à quelques variantes près), sur lequel on greffait le métier et la ville.

Technique fortement utilisée par les sites de dépannage, de devis travaux et petites annonces (genre kizizi)

Mais maintenant, gg est "obligé" de nettoyer ces requêtes là, s'il veut que GLB puisse se développer.
N'oublions pas que le but de gg c'est la satisfaction de l'internaute en le moins de clics possibles. Si l'internaute est satisfait, il continuera à utiliser gg et donc adword pourra continuer à ramener plein de pépètes, dans le cas contraire, ils iront voir la concurrence. Si tant est qu'elle puisse avoir une meilleure qualité :mrgreen:
 
WRInaute accro
Et comment ca s' "observe" ? Parce que perso les hausses et les baisses de trafic, ca vient tout autant de la pluie et du beau temps que de mon positionnement
 
WRInaute impliqué
moi j'ai fait un tri avec analytics sur les 5 derniers mois et les expressions > à 4,6 et 8 mots.

Ca reste une "interpretation".
 
WRInaute accro
Pour moi, ça devrait s'observer sur les positionnements dans les serp, car le trafic évolue pas mal ces temps-ci : il suffit qu'il fasse beau, qu'il y ait une autre actualité, etc...
 
WRInaute accro
nza2k a dit:
La baisse de la longue tail impacte peut-être les gros sites, au profit des petits sites spécialisés pour qui ces mots clés très ciblés représentent non pas la long tail, mais la thématique principale.
C'est ce que j'ai vu sur mes petits sites fin avril et la première semaine de mai.
 
WRInaute impliqué
Petite question : comment faites vous pour savoir quelle est votre pourcentage de baisse sur la longue traine ?
J'ai de tels écarts sur des requêtes saisonnières ("clafoutis aux cerises" vs "recette vin chaud" par exemple...).
Comment puis-je savoir avec Google analytics si mes requêtes de longue traine baissent de façon générale ?
 
WRInaute impliqué
Si google a décidé de mieux redistribuer les cartes entre les petits et les gros (ce qui est logique) cela sera certainement la fin d'une époque pour pas mal de "gros" qui était passé a travers tous les nettoyages depuis 3, 4 ans (ils ont eu le temps de faire du cash entre temps, on va pas les pleurer ! :))
apparemment certains agrégateurs sont en train de se pendre une claque, logique dans un sens, annuaires, agrégateurs, comparateurs ? va plus rester grand chose à se mettre sous la dent avec google.
 
WRInaute accro
Sur les petits sites la longue traîne c'est plutôt une mini-jupe. C'est pas bien difficile de regarder dessous.
 
WRInaute accro
WebRankInfo a dit:
Comme son nom l'indique, May Day correspond à un changement brutal survenu fin avril début mai, repéré essentiellement (uniquement ?) par des Américains.
Nous avons été nombreux, ici compris, à le repérer dès le début.

Plus le site est gros (en terme de nombre de pages typées LT), plus l'impact a été sensible.
 
Olivier Duffez (admin)
Membre du personnel
anchemla a dit:
Mon site est un annuaire et j'ai perdu 65% de mon trafic, principalement sur la long traine, et ça depuis début mars.
donc pour toi c'est arrivé + tôt que pour MayDay (moi aussi j'ai repéré des cas vers cette époque). Tu penses que c'est lié ?
est-ce que ça concerne un certain type de pages ou bien toutes les pages de l'annuaire ?

nza2k a dit:
La baisse de la longue tail impacte peut-être les gros sites, au profit des petits sites spécialisés pour qui ces mots clés très ciblés représentent non pas la long tail, mais la thématique principale.
c'est exactement cela !

milkiway a dit:
Plus le site est gros (en terme de nombre de pages typées LT), plus l'impact a été sensible.
Ca dépend quand même, y'a bien des témoignages de gros sites qui ont connu une hausse depuis MayDay

D'après mes analyses actuelles :

Je pense que Google a modifié dans son algo les 2 curseurs suivants :
- "impact de la notoriété globale d'un site" (surtout sur les pages profondes)
- "efficacité du seul maillage interne" (il doit désormais être assisté d'un maillage externe, y compris sur les pages profondes)

Faites-vous d'autres constatations plus précises ? Y aurait-il d'autres critères ?
 
WRInaute accro
WebRankInfo a dit:
milkiway a dit:
Plus le site est gros (en terme de nombre de pages typées LT), plus l'impact a été sensible.
Ca dépend quand même, y'a bien des témoignages de gros sites qui ont connu une hausse depuis MayDay
Oui bien sur, je n'ai pas dit impact négatif, mais impact tout court.
Je connais le SEO d'un groupe de site ayant environ 8 millions de pages indexées (sur trois sites) et qui a vu ses chiffres augmenter sur un et pas les autres.
J'en discutais encore avec lui hier.

J'ai moi même sur mes petits sites eu les deux scenarii : l'un (mon principal :( ) a perdu 25%, l'autre a pris subitement du trafic en plus (+20% mini) mi-Mars, uniquement sur les requêtes LT.

D'après mes analyses actuelles :

Je pense que Google a modifié dans son algo les 2 curseurs suivants :
- "impact de la notoriété globale d'un site" (surtout sur les pages profondes)
- "efficacité du seul maillage interne" (il doit désormais être assisté d'un maillage externe, y compris sur les pages profondes)
Faites-vous d'autres constatations plus précises ? Y aurait-il d'autres critères ?
Que veux tu dire exactement par maillage externe ?
 
Olivier Duffez (admin)
Membre du personnel
milkiway a dit:
Que veux tu dire exactement par maillage externe ?
chaque page (y compris / surtout les plus profondes) doit obtenir des backlinks depuis d'autres sites, le maillage interne suffit moins qu'avant
 
WRInaute impliqué
Est-il possible que ce changement d'algo intervienne aujourd'hui du fait de la prise en compte de l'historique google de recherche/navigation des internautes ?
Peut-être se sont-ils rendus compte que la traine de nombreux sites connu de l'internaute ressortait de plus en plus au détriments de sites non visités.
 
WRInaute impliqué
WebRankInfo a dit:
milkiway a dit:
Que veux tu dire exactement par maillage externe ?
chaque page (y compris / surtout les plus profondes) doit obtenir des backlinks depuis d'autres sites, le maillage interne suffit moins qu'avant


je confirme ce que dis Olivier, les pages internes non backlinkés ont perdus en visite de manières drastiques, mais les autres ont pris du poids, faut travailler sur l'ensemble du site et non plus les points singuliers !

Du travail, toujours du travail !
 
WRInaute impliqué
Comme beaucoup, j'ai (avais) énormément de visites liées à la longue traine, et j'ai très peu de liens externes sur ces pages.

Je suis pas convaincu que "les pages internes non backlinkés ont perdus en visite". J'ai encore pas mal de visites sur des pages orphelines de liens externes.
Je me demande si les pages impactées ne sont pas plutôt celles qui dépassent une certaine profondeur.
 
WRInaute accro
pcamliti a dit:
WebRankInfo a dit:
milkiway a dit:
Que veux tu dire exactement par maillage externe ?
chaque page (y compris / surtout les plus profondes) doit obtenir des backlinks depuis d'autres sites, le maillage interne suffit moins qu'avant


je confirme ce que dis Olivier, les pages internes non backlinkés ont perdus en visite de manières drastiques, mais les autres ont pris du poids, faut travailler sur l'ensemble du site et non plus les points singuliers !

Du travail, toujours du travail !
Donc par exemple leboncoin devrait chopper 8 000 000 de BL pour ses pages au risque de disparaître ?
 
Nouveau WRInaute
Pour confirmer ce changement, notre site, qui est un portail d'annonces immobilières, a connu entre avril et mail une progression de + de 70% de visites via le ref. naturel et de + 170% de mots cles différents lui ayant apporté du trafic (typique de la longue traine). Site qui stagnait tranquillement depuis plus de deux ans.
Nous pensons fortement que le changement d'algorythme de Google y est pour quelque chose, n'ayant entrepris aucune action spécifique de referencement durant ces derniers mois.
 
WRInaute occasionnel
Je me permets de vous signaler un article que j'ai écrit à propos de MayDay, avec quelques pistes et réflexions :
http://bravenewworld.fr/referencement-seo/google-mayday-et-longue-traine-1101/

Pour compléter, et en regardant mes stats de plus près (site français mais comportant des contenus en plusieurs langues), j'ai l'impression que ce sont les requêtes dont les termes sont éloignés sur une page qui ressortent moins. La proximité des keywords dans la page aurait alors plus d'importance qu'avant. Par exemple, une page "Britney blablabla Spears" ressortira moins qu'une page sur "Britney Spears". Innocemment, Matt Cutts a bien insisté sur cette distance lors de son passage en France.
 
WRInaute occasionnel
Est-ce que ce nouvel algo n'aurait pas quelque chose à voir avec la forte baisse du nombre de pages indexées par Google.

J'ai personnellement le cas avec deux des sites qu'on gère sans que je ne parvienne à comprendre les raisons de cette baisse. Pour ne citer qu'un exemple, je suis passé sur un site de plus de 16500 pages indexées (sans aucun duplicate) à 3470 en ce moment.

Du coup, j'ai plus d'images indexées (4680) que de pages…

Côté fréquentation, la courbe descend, mais c'est vraiment un faux-plat en descente, genre 2-3% chaque mois.
 
WRInaute accro
t'es sur que ca vient pas plutot du fait que le nombre de pages affichées maintenant c'est les pages considérées comme "nouvelles" (moins d'un mois) alors qu'avant c'était toutes ?
 
WRInaute occasionnel
Je viens de faire une découverte intéressante. Peut-être sera-t-il possible à quelques uns d'entre-vous de la valider.

Dans mon post précédent, je faisais état de deux de mes sites qui subissait une forte baisse du nombre de pages indexées.

Ces deux sites ont une particularité commune : ils ont été complètement refondu et j'ai redirigé chaque ancienne URL vers une page du nouveau site.

En analysant les backlink, j'ai l'impression que Google ne tient plus compte des redirections 301 pour propager les liens.

Qu'en pensez-vous ?
 
WRInaute occasionnel
milkiway a dit:
Donne nous une URL de page désindexée pour exemple, ce sera plus facile ;)

Merci pour ta demande pas évidente :wink:

J'ai essayé d'en trouver une, mais tous mes essais sont infructueux. A croire que le nombre renvoyé par site:www.hopla-net.com ne correspond pas à la réalité.

Arriverait-on à ce que Google donne des résultats erratique comme avec la commande link. :cry:
 
WRInaute occasionnel
mackloug a dit:
milkiway a dit:
Arriverait-on à ce que Google donne des résultats erratique comme avec la commande link. :cry:


Je me tâte....

Je vois de plus en plus de site qui en faisant site:NDD.com ne renvoit plus la home.. et je ne parle pas des miens.

Sur les miens je vois qu'il me manque environs 20 à 40% des pages sur cette commande (ainsi que webmastertools) qui pourtant recoivent des visiteurs. ..
 
WRInaute occasionnel
Je viens de tester plus de 200 URL de mon site. Statistiquement, j'aurais du tomber au moins sur une page non indexées puisque Google m'indique que moins du quart du site est indexé. De plus, une collaboratrice est formelle, hier soir, le site comptait à nouveau 15400 pages indexées.

C'est à ne plus rien y comprendre :?
 
WRInaute accro
Tu sais, selon l'IP que j'ai, je commence de plus en plus à ne plus voir le nombre de résultat...
Après tout, pour Mr Tout le monde ça ne sert à rien.
 
Nouveau WRInaute
moi j'ai remarqué une augmentation de trafic sur 2 petits sites sans faire des changements depuis plus de 3 mois, sur des requetes ou les sites etaient en 3ème page et 4ème page, la on est en 1ère page et 2ème page
 
Olivier Duffez (admin)
Membre du personnel
J'ai regroupé dans un dossier spécial MayDay tout ce qu'il faut savoir sur cette mise à jour de l'algo. J'espère que ce sera utile pour vous, notamment ceux qui n'ont pas tout suivi depuis quelques semaines.

Bonne lecture ! Retweets, "Facebook J'aime ça !" et autres BL appréciés :)
 
WRInaute discret
Pour ma part, c'est environ 30% de trafic en moins sur la longue traine (4 mots et plus) entre mars et juin.

Leonick a dit:
est-ce que ça ne serait pas sur les requêtes liées aux villes/départements sur lesquelles beaucoup tentaient (et réussissaient souvent) de se positionner, du genre "boucher limoges", "charcutier limoges", etc...

Comme il s'agit d'un guide de restaurants, beaucoup de mes requêtes étaient liées à des expressions : restaurants + ville ou nom de restaurant + ville...
 
WRInaute discret
WebRankInfo a dit:
anchemla a dit:
Mon site est un annuaire et j'ai perdu 65% de mon trafic, principalement sur la long traine, et ça depuis début mars.
WebRankInfo a dit:
anchemla a dit:
donc pour toi c'est arrivé + tôt que pour MayDay (moi aussi j'ai repéré des cas vers cette époque). Tu penses que c'est lié ?
est-ce que ça concerne un certain type de pages ou bien toutes les pages de l'annuaire ?

Pour moi c'est lié, ça concerne toutes mes fiches de blogs, pas de catégories précise, au final des milliers d'expressions que me rapportaient du trafic journalier. Par contre je n'ai perdu aucun positionnement sur la page d'accueil, les catégories et sous catégories... Uniquement les fiches de blogs (j'en ai près de 60 000).
 
Nouveau WRInaute
Salut

Merci pour ta réactivité Olivier sur ce sujet et ce dossier, en espérant que ça fera aussi réagir.

Pour ma part pareil, 50% de pertes de trafic début de la 2éme semaine de mai pareil que anchemla sur des pages et non pas les requêtes principales

J'ai essayé de faire des modifs pour améliorer ça la semaine dernière en améliorant le maillage, en changeant quelques title trop longuet (peut être trop brutalement), en réglant des problèmes divers de duplicate (c'est fou tout ce qu'on peut repérer dans ce genre de situation) et maintenant on est carrement parti en filtre sur toutes les pages.

Aucune explication, mais une chose est sure il n'y a eu aucune communication sur ce changement avant qu'il ne se produise et le minimum serait d'être prévenu pour au moins pouvoir s'adapter, avant de perdre 50% de son travail du jour au lendemain. Egalement savoir en gros ce qui cloche car le GWT est bien trop généraliste.
 
WRInaute accro
En fait, ton site a l'air d'avoir pas mal de news en provenance de y! news et ça, gg ne voit pas l'intérêt de mettre 2 fois le même contenu dans son index et pour le reste, ça vient d'où le contenu ?
 
Nouveau WRInaute
Rien à voir (enfin j'espère) Indexnet portail sert d'outil d'informations pour les gens dont on met bien sur la source, mais il ya également pas mal de contenu unique. Les gens peuvent publier également et rédiger leur contenu.

Le problème n'est pas sur ce site mais sur le site d'annonce (en haut annonces gratuites) qui là ne contient que du contenu de chez nous que l'on valide au petit soin et c'est celui là qui est touché.

Edit: enfin que de chez nous, sur un site d'annonce on ne peut pas empêcher les gens de faire un copié collé
 
Nouveau WRInaute
Merci

Je sais que Google est long au niveau de ça mais ce problème a été repéré justement dans ce que je parlais par rapport aux erreurs de duplicate trouvées.

Sur toutes ces pages il ya des meta name="robots" désormais depuis au moins 2 à 3 semaines.

En fait avant on passait par javascript mais google a tout indéxé, peut être que c'est lié mais bon de là a provoqué un déclassement, peut être que Mayday est plus sensible sur ce point...

J'ouvrirai un autre topic pour mon problème, je ne vais pas pourrir celui-ci avec les miens. Merci en tout cas pour ton analyse.
 
WRInaute accro
manujay a dit:
Sur toutes ces pages il ya des meta name="robots" désormais depuis au moins 2 à 3 semaines.
les pages en cache datent de fin avril, il faudra voir à la mise à jour des caches si le problème perdure
manujay a dit:
J'ouvrirai un autre topic pour mon problème, je ne vais pas pourrir celui-ci avec les miens.
pas besoin, car c'est fortement probable que ça vienne de ce changement d'algo
 
WRInaute discret
Dans l'article d'Olivier il y a (entre autres) une phrase que je viens de relever et qui me paraît très intéressante, je cite :
« En résumé, je dirais que chaque page doit se battre de façon individuelle. »
Que j'ai aussi vu ailleurs et pas plus tard que ce matin sous cette forme :
"Google is now seeing individual documents as their own entities a lot more" => http://bit.ly/azKAtE
Les grands esprits...

Pour autant, et c'est mon retour d'expérience, il y a sur les sites pour lesquels je collabore et qui ont profité de l'effet Mayday, une constante : celle de l'architecture. Tous ces sites ont en effet un point commun : une architecture qui fait la part belle à l'ontologie et à la proxémie dans le vocabulaire.

Si c'est vrai, Mayday j'en suis ravi.
 
Olivier Duffez (admin)
Membre du personnel
Merci Philippe pour ta participation. Donc tu penses que l'hypothèse suivante n'est pas dénuée d'intérêt ? => Google aurait mis en production des techniques similaires à celles décrites dans son brevet sur l'indexation basée sur les phrases

peux-tu nous décrire un peu ce que tu entends par proxémie dans le cadre du référencement éditorial ?
 
Nouveau WRInaute
La proxemie du vocabulaire a deja ete encourager depuis longtemps. Deja le fait d'enrichir le vocabulaire et de repeter plusieurs fois dans la page les groupes de mots concernes...c'est ce que je pense avoir compris sur Mayday
 
WRInaute accro
Proxémie = proximité lexicale, dans ce cas précis non ?


Quoi qu'il en soit c'est une excellente, mais vraiment excellente nouvelle pour celles et ceux qui rédigent de vrais contenus ;) (c'est mon cas, et je n'ai noté aucune baisse particulière de trafic)
 
WRInaute accro
Je tempère.
Mes sites de contenu pur (à savoir, je rédige des textes complets, riches et uniques) n'ont pas été touchés ou ont eu un léger plus. Tant mieux. Par contre, il est des thématiques dans lesquelles une "dévalorisation" des sites sans richesse syntaxique n'a pas de sens. Prenez l'exemple des sites qui présentent les caractéristiques techniques des moto!
 
Nouveau WRInaute
Une page qui ne contiens QUE des references techniques, merite tout de meme d''avoir quelques lignes a car parfois c'est pas terrible, enfin pour moi ...
 
WRInaute discret
WebRankInfo a dit:
peux-tu nous décrire un peu ce que tu entends par proxémie dans le cadre du référencement éditorial ?
Voui :
Dans mon job j'enrichis le champ lexical en extrayant par la proxémie (que les collègues viennent d'expliciter plus haut) les termes les plus pertinents et j'utilise la cooccurrence pour enfoncer dans le crâne des bots la thématique de la page. C'est ce que j'appelle du COSE (Content Optimization for Search Engines). :D
Jusqu'à présent ça m'avait pas trop mal réussi mais depuis 1 an environ, les pages ainsi optimisées pour offrir au contenu un champ lexical exhaustif semblent recevoir plus de faveurs dans les SERP de Google.
Je viens de vérifier aussi que dans un des mes blogs (celui sur HTML5 où tu m'avais laissé un message dans le plagiat qui m'opposait à une agence) le trafic via GG a considérablement crû sur les 5 derniers semaines.
Mais je veux rester prudent : il y a tant de facteurs qui jouent qu'il est impossible d'être certain que Mayday favorise les sites aux contenus rédactionnels riches. :oops:
 
Olivier Duffez (admin)
Membre du personnel
merci pour ces précisions.

Je suis ton blog donc j'ai bien vu que tu l'as alimenté, peut-être plus qu'avant, ce qui pourrait expliquer également l'augmentation de trafic des dernières semaines.

Cela dit les témoignages se confirment : les sites à fort contenu éditorial unique, bien rédigé, s'en sortent vraiment bien avec MayDay.
 
WRInaute passionné
Oui en faite, pour résumer, c'est un changement totalement voué à éliminé le spam de type : pages linkées sur des tags (parfois issu des recherches faites par les visiteurs dans un moteur), avec comme seul contenu, un texte auto généré incluant ces dits tags... et ça nous ramène ce trafic lorsqu'on a un contenu de qualité normal ?!

Ceux qui doivent y perdre c'est notamment ces sites illégaux de téléchargement de films/programmes etc... qui spamment pas mal avec ces mots clés un peu partout et aucun texte...

Dans ce cas, moi je dis bravo pour ce changement ! :) :)
 
WRInaute discret
Bonjour chers amis,


Que pensez vous de ce type de pratiques: http://deinternetmarketeer.be/2010/05/06/spam-of-geen-spam/
le gars édite un site et un annuaire dans lequel il demande de mettre un petit logo.
A la lecture du code source du logo on s'aperçoit une chiée de lien, appelons le un nid de liens artificiels.

J ai soumis la plainte à google et plus précisément à Nathalie en personne. Elle m'a assuré qu'une suite y serait donnée
mais voilà plusieurs mois que cela dure. Et je ne suis pas optimiste car j'ai déposé une plainte similaire contre un site qui se positionne en duplicate content sur le mot clé "référencement" [et oui je vous dit pas la catastrophe si ce gars applique les même méthodes avec ses clients :( ] il y a plus d'un an... sans réaction les deux liens sont toujours là en première page de Google sur la requête très concurrentielle "référencement"

D'autres part je possède des documents de Google dans lesquels ils expriment n avoir aucun problème avec le duplicate content...
(entre autres échanges de conclusions émis par le cabinet Herbert Smith, les anciens employeurs et je suppose amis de Yoram Elkaïm, directeur juridique de Google )
 
Nouveau WRInaute
Je suis d'accord avec vous sur la création de contenu mais quand on a un site de service type annonces, e-commerce, comment faire pour avoir du contenu de ce type ?

C'est impossible de retravailler chaque page ou chaque fiche produit !

Comme disait une personne un peu plus haut dans le topic, le bon coin ou autre ne peut retravailler chaque annonce, c'est pas des articles, ça tombe à coup de 100 annonces par minute donc si c'est ça, Google aurait pu le prendre en compte pour un site commercial et surtout nous demander notre avis ou nous donner des conseils concrets avant de nous balancer Mayday sans explication.

Après pour l'indexation de tags, il y en a qui sont spécialisés là dedans et qui n'ont pas de soucis apparemment (c'est plutôt le contraire), par exemple certains agrégateurs d'annonces suroptimisés (bourrés de duplicate) qui n'ont pas bougés d'un poil ou qui sont même montés sur énormément de requêtes.
 
WRInaute passionné
mx a dit:
Si google a décidé de mieux redistribuer les cartes entre les petits et les gros (ce qui est logique) cela sera certainement la fin d'une époque pour pas mal de "gros" qui était passé a travers tous les nettoyages depuis 3, 4 ans (ils ont eu le temps de faire du cash entre temps, on va pas les pleurer ! [...]
Ne serait-ce pas plutôt le contraire ? Je crois plutôt constater une centralisation de plus en plus forte de tout le web qui se réduit de plus en plus à quelque sites. Google n’en est d’ailleurs lui-même pas le dernier exemple, ni Wikipédia.
 
WRInaute passionné
pcamliti a dit:
je confirme ce que dis Olivier, les pages internes non backlinkés ont perdus en visite de manières drastiques, mais les autres ont pris du poids, faut travailler sur l'ensemble du site et non plus les points singuliers !

Du travail, toujours du travail !
Et bien entendu, Google, dans sa grande mansuétude, a même donné un outil idéal pour ça : le NoFollow :roll:
 
WRInaute passionné
Hiseo a dit:
Dans l'article d'Olivier il y a (entre autres) une phrase que je viens de relever et qui me paraît très intéressante, je cite :
« En résumé, je dirais que chaque page doit se battre de façon individuelle. »
[...]
Mais on ne va quand-même pas faire du référencement individuel sur chaque page! Ce serait le pire du spam!
 
WRInaute passionné
Je pensais à une autre chose encore : la dislocation.

Une chose qui est reproché par des pédagogues (et plus particulièrement chez ceux qui sont en rogne contre Wikipédia), c’est l’absence de linéarité des documents sur le web. Pour reformuler, ils reprochent aux documents sur le web d’inciter à sauter à droite et gauche sans sans continuité, ce qui nuit à une bonne compréhension de ce qui est lu.

Voilà, cette introduction faite : si Google ignore maintenant les liens internes dans l’importance d’une page, ça inclue donc les relations comme précédente ou suivante, entre autres, et les sous index thématique (sous forme de tables des matières).

C’est donc un pas de plus vers la dislocation des contenus....

Parce qu’ils faut espérer que les internautes — qui font de toutes manières des liens nofollow depuis wordpress ou des forums tout en nofollow, quand encore ils ne copient pas des pages toutes entières sans faire le moindre lien — fassent des lien cohérents pour respecter la cohérence attendu par les auteurs, on a pas fini de rêver.

Bon, résumons : centralisations de plus en plus forte (en dehors du blabla sur la question, ce sont des faits), et maintenant dislocation du peu qu’il reste en dehors et des grosses concentrations.

Est-ce Google ne serait pas en train de prendre le reste du web pour un énorme blog ? (blog, pour la dislocation et l’absence de relations fortes entre les pages, comme ça pourrait l’être dans un livre).
 
Olivier Duffez (admin)
Membre du personnel
je ne pense pas que "Google ignore maintenant les liens internes dans l'importance d'une page", mais les pages qui n'ont QUE des liens internes ne peuvent plus espérer être aussi bien placées qu'avant MayDay.

"on ne va quand-même pas faire du référencement individuel sur chaque page" : je ne suis pas certain de comprendre en quoi c'est un pb ? Google exige "simplement" que chaque page ait un contenu qui lui confère une valeur ajoutée.

En fait le gros changement c'est que Google tienne vraiment compte de conseils qu'on pouvait déjà donner il y a 5 voire 10 ans : créez du contenu de qualité sur chacune de vos pages.

Concernant Wikipédia : sur tes requêtes sur le vois remonter ?
 
WRInaute passionné
WebRankInfo a dit:
je ne pense pas que "Google ignore maintenant les liens internes dans l'importance d'une page", mais les pages qui n'ont QUE des liens internes ne peuvent plus espérer être aussi bien placées qu'avant MayDay.
Mais ça implique une démarche active de la part des internautes, ... démarches qu’ils n’ont pas souvent (il se comporte le plus souvent comme des « consomateurs », même si on entend des discours qui prétendent le contraire... mais je ne parle pas des forums, évidement). Et puis même si certains sont actifs (par exemple je fais attention en faisant des liens par exemple, de toujours donner un texte au lien, et de ne pas coller bêtement une URL), il y a le problème du NoFollow.

WebRankInfo a dit:
"on ne va quand-même pas faire du référencement individuel sur chaque page" : je ne suis pas certain de comprendre en quoi c'est un pb ?
Eh bien que de faire du référencement pas par page, ce serait du spam, parce que ça en ferait trop.

WebRankInfo a dit:
Google exige "simplement" que chaque page ait un contenu qui lui confère une valeur ajoutée.
Et quand le contenu est là ? On fait quoi alors ? On invente des choses qui n’existe pas ? Puis ça ne tiens pas la route cet argument. J’ai dans mes marques pages des sites sont dans les profondeurs de Google (sur des sujets assez variés), tandis que des pages bien moins fournis de Wikipédia passe en première position (ex. sur la requête « Logique Intuitioniste », pour reprendre un sujet sur lequel j’étais ces derniers temps, où j’ai découvert que la page de Wikipédia est pourtant loin d’être une resource complète... je l’ai complété, mais j’ai arrêté de la compléter, parce que j’en ai assez de leur déni du monde extérieur)

WebRankInfo a dit:
En fait le gros changement c'est que Google tienne vraiment compte de conseils qu'on pouvait déjà donner il y a 5 voire 10 ans : créez du contenu de qualité sur chacune de vos pages.
Dans ce cas, les sites qui ne faisait pas d’optimisation SEO et qui le prenait naturellement devrait être avantagé alors. Ça ne semble pas être le cas, au contraire. Je sens même que ça va être reparti d’encore plus belle pour le bricolage et qu’on va voir fleurir des articles pour exploiter cette nouvelle caractéristique.

WebRankInfo a dit:
Concernant Wikipédia : sur tes requêtes sur le vois remonter ?
Je ne le vois pas remonter, ce n’est pas ça, mais je le vois toujours aussi présent. Punaise, des pages sur la cuisine ça n’a pourtant rien à voir avec des pages sur les maths, et je commence à en avoir assez de le voir tout bouffer et rentre tout complétement plat (même des requêtes portant sur la cuisine renvoie à Wikipédia maintenant, depuis environ un an).

Pour être un peu plus formel maintenant, si Google était vraiment de plus en plus pertinant, on devrait voir moins d’internaute atterrir sur des pages par accident, un taux de rebond plus faible, n’est-ce pas ? Pourtant, depuis 2 ou 3 ans, c’est exactement le contraire que je constate : j’étais à environ 60% de rebond, je suis maintenant au dessus de 70%. J’ai vérifié à l’instant, que le taux de rebond depuis la mise en service de ce Mayday, n’a pas diminué, et à même au contraire encore augmenté : 74%. Ça ne tiens pas la route.
 
WRInaute accro
hibou57 a dit:
WebRankInfo a dit:
"on ne va quand-même pas faire du référencement individuel sur chaque page" : je ne suis pas certain de comprendre en quoi c'est un pb ?
Eh bien que de faire du référencement pas par page, ce serait du spam, parce que ça en ferait trop.

Et pis entre "référencer" trois pages et 100.000, c'est pas la même chose :)
 
WRInaute passionné
finstreet a dit:
hibou57 a dit:
Eh bien que de faire du référencement pas par page, ce serait du spam, parce que ça en ferait trop.

Et pis entre "référencer" trois pages et 100.000, c'est pas la même chose :)
D’autant plus que : Pourquoi les annuaires obligent à indexer l'accueil ?. C’est vrai ça, je me souviens qu’à une époque où j’avais fait un peu d’indexation dans des annuaires, je m’étais aussi posé cette question (alors que la page d’accueil, n’est généralement vraiment pas ce qu’il y a de plus intéressant). Alors s’il faut référencer des pages individuelles, ça va pas être la fête.
 
WRInaute accro
sauf que sur mon site de mon WWW, la page d'accueil est la plus intéressante et la plus importante, juste ne pas faire de généralité de son cas personnel merci.
 
WRInaute discret
Une page d'accueil bien fichue doit distribuer de façon claire vers les différents contenus du site. Si ça n'en fait pas la page la plus importante en terme de contenus, c'est quand même l'épine dorsale d'un site. Donc il me parait logique que les annuaires veuillent celle là.
 
Olivier Duffez (admin)
Membre du personnel
J'ai mis à jour mon article sur MayDay pour résumer les idées de MOGmartin qui a fait une présentation sur le sujet récemment. Je ne suis pas convaincu par 100% de ce qu'il dit, mais j'ai trouvé ça malgré tout intéressant pour vous en faire part.
 
WRInaute passionné
WebRankInfo a dit:
J'ai mis à jour mon article sur MayDay pour résumer les idées de MOGmartin qui a fait une présentation sur le sujet récemment. Je ne suis pas convaincu par 100% de ce qu'il dit, mais j'ai trouvé ça malgré tout intéressant pour vous en faire part.
Merci pour la maj :mrgreen:
effectivement, je suis moyennement convaincu... certain site n'ont pas fais de maj depuis des lustre et ca ne les empèche pas de se maintenir dans le (très) haut du panier...
 
Nouveau WRInaute
Bonjour a tous

je ne sais pas pour vous mais e mon coté j'ai bien sentie le changement, les sites en chutés.

mais pas de panique en a déjà l'habitude de ces changement, si non pourquoi en l'appellera Google, c'est pour nous tourné la tete lol
 
Discussions similaires
Haut