Les propos de Matt Cutts sur la lutte anti spam chez Google

Olivier Duffez (admin)
Membre du personnel
Pendant de nombreuses années, les relations entre Google et les webmasters et surtout référenceurs n’était pas spécialement bonnes (il n’y a qu’à voir de quelle façon Google qualifie les « optimiseurs de sites »). Ensuite depuis 2008 j’ai eu l’impression que ça s’améliorait, notamment avec le blog Webmaster Central et le développement des outils GWT. Mais aujourd’hui on peut se demander si Google ne se fiche pas de nous… Explications.

Google impose sa loi
Ce n’est pas un hasard si j’ai utilisé le mot « loi » : très souvent dans le forum WebRankInfo des membres confondent la loi et les règles de Google ! Ils se demandent si ce qu’ils ont fait est légal alors qu’en réalité ils veulent s’assurer qu’ils respectent les règles imposées par le moteur de recherche.

Je ne vais pas revenir sur certains développements controversés de Google en ce qui concerne le référencement, mais simplement vous résumer certains propos de Matt Cutts lors d’une récente conférence (PubCon). Vous trouverez des compte-rendus (en anglais) sur SE Roundtable ici et notamment.

Bloquer archive.org, une faute grave ?
Matt a indiqué que l’historique d’un site (ou plus précisément de son nom de domaine) était analysée par Google. Jusque là tout va bien, nous le savions déjà (ça me rappelle un audit pendant lequel nous avons appris au client que dans le passé son site très « sérieux » avait été destiné aux « adultes »…). Le problème est que Matt a précisé que son équipe regardait si le webmaster interdit au site archive.org d’indexer ses contenus et qu’en cas d’interdiction, Google considérait ça comme suspect. Il a même dit qu’il s’agissait d’un « énorme signal d’alarme rouge » (huge red flag). Depuis, on sait qu’il a précisé que cet élément n’était analysé que pour les sites déjà suspectés de spam par son équipe. L’a-t-il dit pendant la conférence ou seulement après sur Twitter une fois le buzz déclenché ?

Tout le monde comprend bien qu’il peut y avoir de nombreuses bonnes raisons de bloquer l’indexation au site archive.org, ne serait-ce que pour des histoires de droit d’auteur ou de propriété intellectuelle. C’est donc assez étonnant que Matt mentionne cela. D’ailleurs, il est évident que Google a les moyens d’analyser l’historique d’un site de façon autrement plus performante que ce que permet archive.org ! Bref sur ce point je suis assez d’accord avec Laurent.

Google souhaite favoriser les pages qui s’affichent rapidement
Autre élément somme toute assez étrange : Google aimerait favoriser les pages qui se chargent vite (à moins qu’il le fasse déjà ?). Là aussi il peut y avoir pas mal de cas complexes qui me laissent penser que ce critère n’est pas forcément super fiable. Car Matt ne semble pas parler du temps de téléchargement du code HTML mais de l’ensemble des éléments de la page. Quand le script Google Analytics rame, faut-il s’inquiéter pour son positionnement dans Google ? Le plus ridicule est que Matt a précisé qu’un site lent ne serait pas défavorisé. Donc en résumé les sites « non lents » sont favorisés sans que les sites lents soient défavorisés :) Donc les sites lents pourraient descendre dans le classement Google mais il ne faut pas considérer ça comme un problème !

Cela dit, il est vrai que pour les cas extrêmes, quand le site a un temps de réponse moyen très élevé (à tel point qu’une partie des visiteurs quitte le site), alors le positionnement peut baisser (en plus de l’indexation). Dans ces cas-là je conseille de corriger les problèmes techniques, éventuellement de changer d’hébergeur web, ce qui sera bénéfique à la fois pour les internautes et le référencement.

En réalité, Google ne cherche-t-il pas à se donner une bonne image, celle de celui qui ne se préoccupe que de l’internaute ? Ne cherche-t-il pas à faire la promotion de ses projets comme SPDY ?

Avoir plusieurs sites dans la même niche thématique, louche aux yeux de Google !
« Avoir plusieurs sites couvrant différents aspects de votre secteur d’activité est un signal d’alarme rouge pour Google » ! (la phrase de Matt : having multiple sites for different areas of the same industry can be a red flag to Google)

Ceux qui m’ont fait le plaisir de venir écouter mes conseils en formation savent que je suis très attaché à cette question : est-il plus efficace de faire plein de mini-sites ou un seul gros site ? Avec Fabien, nous sommes clairement de l’école qui conseille de se concentrer sur un seul site, de créer de la valeur et de la notoriété, tout étant ensuite plus facile. Ce n’est sans doute pas un hasard si tous les géants d’Internet qui ont réussi ont suivi cette voie. Cela n’empêche pas qu’il existe des cas où la création d’un mini-site supplémentaire est intéressante.

Cela dit, la façon dont Matt Cutts en parle me semble assez ridicule… Qu’il surveille de près ceux qui créent de multiples petits sites au contenu quasi vide, répété sur de nombreux noms de domaine : OK. Que Google catalogue comme spammeurs des webmasters sous prétexte qu’ils ont plusieurs sites sur leur thématique : non !

Votre avis ?
Je ne suis pas tout à fait de l’avis de Laurent qui pense que Google n’arrive plus à lutter contre le spam. Par contre je trouve que Google devrait revoir sa communication avec les webmasters et référenceurs en arrêtant de profiter de sa situation ultra-dominante pour imposer des règles de plus en plus ridicules. Et si Google remplaçait Matt par un autre employé ?
 
WRInaute occasionnel
Merci pour cet article Olivier !

Les propos de Matt Cutts sont plutôt déroutants... :roll:
A mon sens, Google ne parvient plus à identifier des critères simples pour détecter le SPAM, et finit par se perdre avec des critère plus larges... Tout cela bien sûr, au détriment du webmaster le plus honnête soit-il. qui risque de se retrouver pénalisé alors qu'il avait les meilleurs intentions du monde... :roll:

Déjà que les critères de Google sont souvent discutables, ils versent désormais dans l'arbitraire et la partialité...
 
WRInaute passionné
Concernant le "red flag" pour le blocage d'archive.org, je trouve cela d'une stupidité sans nom.
En gros, on jette le bébé avec l'eau du bain.
Ce n'est pas parce que quelques spammeurs utilisent cette technique que tous ses utilisateurs sont coupables.
Les allers-retour de MC sur ce sujet sont bien dans la lignée d'une communication assez opaque de la part de Google à laquelle nous nous sommes habitué au fil du temps.
Ce paramètre sera t-il un complément à d'autres facteurs ayant permit d'alerter sur les tentatives spammy du site, ou bien l'un des indicateurs phares ?
Le point qui m'inquiète est relatif à un traitement algorithmique de ce facteur. Si c'est le cas, un site bien sous tous rapports pourra descendre aux enfers sans aucune raison valable.

Concernant le temps de chargement des pages, j'ai un avis mitigé.
Sur le fond, cela avantagera sans doute les sites réalisés correctement par des pros. C'est donc pour moi un argument commercial indéniable. Les utilisateurs de CMS bien ficelés en bénéficieront aussi.
Dans le même temps, la rapidité de chargement d'une page n'est en aucun cas un critère de pertinence. Nous verrons donc des pages avantagées par une bonne construction technique gagner des places dans les SERP au détriment de pages parfois bien plus pertinentes, mais réalisées avec les pieds (façon de parler).
Je ne suis pas certain que Google y gagne en terme d'efficacité aux yeux des utilisateurs.
 
WRInaute passionné
Je pense que google a déjà repéré tes critiques sr du simple fait qu'ils mettent souvent en concurrence leurs teams et il est facile d'arriver aux mêmes conclusions que les tiennes. Je pense que les outils dont dispose google pour son classement prennent en compte ces intervalles de doute ou d'approximatif. Bien sûr, il y aura toujours des lésés, mais tout le monde sait que rien n'est parfait ici bas.
 
WRInaute passionné
l'avantage donné aux site pas trop lents est une bonne chose si c'est pour une pertinence équivalente.
après si il faut avoir un super serveur dédié pour être bien classé, ca ne va pas le faire.
 
WRInaute impliqué
oui, bon rien de neuf, comme d'habitude tu subis, le moteur et adsense également, les foudres de monsieur si tu lui plais pas, et il y a aucun moyen de communiquer suite a la décision du dieu google
Les webmasters l'aiment tant qu'ils reçoivent du trafic GRATUIT (et de l'argent via adsense par suite logique), mais une fois jeter, forcément ils l'aiment moins
 
WRInaute accro
Le spam est l’économie souterraine du Web et les plus gros spammeurs sont les plus grosses sociétés.

Je ne crois pas un instant que Google soit démuni face au spam. A fortiori lorsqu’on constate l’efficacité magistrale dont Google fait preuve concernant la détection de spam avec Gmail.

La volonté d’éradiquer le spam est à mon sens simplement absente.

Que de la com pour brouiller les pistes.
 
WRInaute passionné
sr a dit:
Concernant le "red flag" pour le blocage d'archive.org, je trouve cela d'une stupidité sans nom.
En gros, on jette le bébé avec l'eau du bain.
Ce n'est pas parce que quelques spammeurs utilisent cette technique que tous ses utilisateurs sont coupables.

Je ne crois pas qu'il faille imaginer que la lutte anti-spam chez Google soit uniquement le fait d'algorithmes appliquant automatiquement des sanctions.
Il y a des choses qui peuvent se voir affecter automatiquement une valeur nulle, comme les fermes de liens par exemple.
Pour ce qui est du blacklistage, je crois qu'il y a des systèmes de détection qui créent des listes de spammeurs potentiels évaluées manuellement par les quality raters.

En ce qui concerne la prise en compte du chargement des pages, c'est pour moi la plus grosse entorse à la primauté de la pertinence. On est là clairement face à un critère économique : l'économie des ressources des crawlers de Google.
 
WRInaute passionné
Désolé de vous contredire, mais de mon point de vue d'internaute, le temps de chargement est un critère de choix dans mes visites de sites :mrgreen:
 
Olivier Duffez (admin)
Membre du personnel
la comparaison avec l'antispam de Gmail ne me semble pas tout à fait adéquate...
en résumé je ne pense pas que Google soit si dépassé que ça dans la luttre contre le spamdexing, par contre leur communication avec nous est pire qu'avant. Soit c'est voulu (pour cacher leur jeu) soit faut changer de "porte-parole" :)
 
WRInaute passionné
fandecine a dit:
Désolé de vous contredire, mais de mon point de vue d'internaute, le temps de chargement est un critère de choix dans mes visites de sites :mrgreen:
c'est clair, ya des sites, avec popup, pub flash + banniere gif, animation, logo partenaire qui clignotent, sont d'une lenteur et d'un chiant :)
 
WRInaute accro
C'est toujours bon d'avoir des nouvelles fraiches.

Merci.

En effet c'est vrai que je en voit pas l'inconvénient à avoir quelques sites bien faits sur la même thématique. S'il ne sont pas des sites satellites bien sur :mrgreen:
 
WRInaute accro
Et voilà... il a encore réussi son coup.

La seule chose qui restera dans les esprits, c'est que toute tentative même la plus insignifiante de faire quelquechose de "spécial" peut comporter un risque... alors tant qu'à faire, soyons de bons petits moutons et contentons nous de faire des sites tous simples sans chipotage.

C'est ni plus ni moins que du terrorisme !
 
WRInaute passionné
En même temps c'est normal que Google essaie d'imposer sa vision du Web. C'est d'abord une société avec son idéologie et ses priorités. Tant qu'il n'y a pas de concurrence valable il faudra s'y faire.
 
WRInaute passionné
Firewave a dit:
En même temps c'est normal que Google essaie d'imposer sa vision du Web. C'est d'abord une société avec son idéologie et ses priorités. Tant qu'il n'y a pas de concurrence valable il faudra s'y faire.
Quelle idéologie? Demain le site de celui qui sort de chez lui avec une cravate jaune et des pantalons marron perdra 50 places sur Google? Si je vois trois chiens blancs et un cercopitèque sur un arbre de nuit ton site va perdre 400 places sur Google? Si demain il fait beau tu seras bien positionné? C'est ça l'idéologie?
 
WRInaute passionné
Non ce n'est pas cela que ça veut dire. Google essaie au travers de ses diverses applications d'instaurer une certaine norme sur internet, pourquoi? Parce que tout simplement ça l'aiderait à classer les sites, proposer du contenu pertinent plus facilement et donc générer plus de recettes pub.
En gros oui, on risque de perdre en diversité et le web deviendra quelque peu uniforme. Il faudra appliquer les règles pour profiter des avantages offerts par les outils google. Est-ce un mal? D'une certaine manière oui, d'une autre non.
Faut peser le pour et le contre, et quoi qu'il arrive si un nombre important de personne n'aime pas le principe ils se tourneront vers d'autres moteurs de recherche, c'est peut-être une porte pour Bing.
 
WRInaute occasionnel
Oui, et bien quoi qu'on en dise, ce que je répète souvent, ça leur ferait du bien de redescendre à 50% de parts de marché.

Voici un dossier intéressant sur pourquoi google n'est pas invincible, doc que vous connaissez surement :
Pourquoi google n'est pas invicible

Le temps de chargement des pages ? leurs services rament de plus en plus (chargement Adsense qui bloque les pages, analytics, Gmail pas exempt du tout de tout reproche...).
Donc ils me font bien rire. Je crois qu'à force de vouloir être partout et dominer le monde, google se disperse, se créé des contraintes internes qui vont tôt ou tard aller à l'encontre de la performance et de leur stratégie initiale : organiser l'information et la rendre accessible à tous.

Plus leur pouvoir augmente, plus ils veulent s'approprier l'information, plus ils triquent les gens sans qui ils n'existeraient pas aujourd'hui, à savoir les Webmaster.

Pour ce qui est de leur communication, elle est unilatérale. De temps en temps, ils nous demandent de leur servir de cobayes pour mener des tests, et puis ensuite, on se plie à leur décision.

A tout moment, sur simple décision de google et sans qu'ils ne justifient rien du tout, on peut se retrouver blacklisté (sans faute intentionnelle et ou grave parfois. Ex : spam report abusif) et déposer le bilan pour certaines sociétés trop dépendantes du moteur.

Je pense (et cet avis n'engage que moi) que les rapports deviennent trop déséquilibrés, que google tend malgré lui vers Microsoft et ses travers (tôt ou tard, on se retrouvera dans avec des problématiques plus ou moins similaires) et que ça ne pourra pas durer.

Plus ils chercheront à canibaliser le Web et à tout maîtriser, et plus ils feront naître des initiatives parallèles sur lesquelles ils n'auront pas de contrôle.

Je m'explique : une fronde anti google qui commencerait à créer du contenu et des communautés, notamment à travers les réseaux sociaux et interdire l'accès à google. Que se passerait il si l'on voyait un mouvement de fond émerger et suivi de millions de gens ?
Ne serait ce pas dans l'intérêt de facebook un jour d'être capable de shunter le moteur ?

Pensez vous que google ne pourrait pas subir des conséquences lourdes de réseau parallèles, au même titre que l'open source a mis un sérieux coup de pied à certaines entreprises adeptes des logiciels propriétaires ?
Si GG ne fait pas (ou moins) l'erreur du logiciel propriétaire et donne partiellement accès à certaines de ses sources, il a bien d'autres travers.

Tout ça pour dire qu'on est pas là pour faire de la philo, mais je suis convaincu que google devrait mettre de l'eau dans son vin, se recentrer sur certaines priorités et respecter le travail des gens qui lui donnent à manger mine de rien (éditeurs pour sa régie, webmaster pour son contenu...).

L'empire Romain est tombé, malgré sa toute puissance :roll: Toutes les bonnes choses ont une fin
 
WRInaute passionné
Toutes les choses ont une fin, mais ça ne veut pas dire que GG tombera de si tôt.
Ils ont encore de la marge pour changer, muter, agir, lobotomiser les gens et préparer des révolutions et autres évolutions.

Les gens n'ont pas arrêté de crier que Microsoft tombera, il reste que les bénéfices de Crosoft sont astronomiques. Donc oui GG tend vers le monopole et c'est un danger, mais ça ne veut pas dire que tout ce qui en sort est mauvais. Google peut se permettre de jouer l'outsider sur les OS portables et fixes ainsi que sur le contenu éditorial.
MS fera la même chose à Google avec l'aide de FB et Twitter sur le domaine des moteurs.

Bref pour l'instant ça va être un lead bicéphale d'internet qui va prédominer à moins que les chinois se mettent à vouloir bouffer ailleurs que dans leur Empire.
 
WRInaute occasionnel
Je dis pas que tout ce qui sort de google est mauvais, je suis un de leurs premiers utilisateurs.

Je dis que leur position commence à mon sens à générer des abus de position dominante de leurs part, qu'ils ont parfois tendance à oublier qui produit et leur donne du contenu à organiser (sans quoi pas de google, au moins à leur origine) et que ça ne va pas dans le bon sens.

Je dis également que voir leurs parts de marché sur le search (et tout ce qui va avec) baisser au profit d'un challenger et effectivement (je te rejoins là dessus) voir leurs parts de marché sur les OS par exemple augmenter, au détriment de Microsoft notamment, rétablirait un équilibre un peu plus sain.

Par contre attention à la dispersion, parce que ils veulent gérer de plus en plus de choses, être partout, et ça ne réussi pas à tout le monde (et je parle pas de Sarko :D )
 
WRInaute passionné
C'est sûr, mais la diversification est aussi une force. SI un tentacule tombe ce n'est pas bien grave la pieuvre tendra encore plus l'un d'entre eux vers une assise plus solide. Ca semble la stratégie adoptée, on verra ce que cela donne dans dix ans.
 
WRInaute passionné
Oui dans dix ans, si ton travail ne sera pas mis en difficulté par une disparition arbitraire: tu parlerais différemment si tes ou ton site était en difiiculté pour des raisons futiles. Je suis Romain, je suis guide touristique privé et je sais pourquoi l'Empire Romain est tombé. Le parallèle est TRES similaire....
 
WRInaute passionné
Panoramix a dit:
Oui dans dix ans, si ton travail ne sera pas mis en difficulté par une disparition arbitraire: tu parlerais différemment si tes ou ton site était en difiiculté pour des raisons futiles. Je suis Romain, je suis guide touristique privé et je sais pourquoi l'Empire Romain est tombé. Le parallèle est TRES similaire....
salut panomarix. pourquoi l'empire romain est tombé? à cause de ta potion magique ? :lol:
 
WRInaute passionné
Oui dans dix ans, si ton travail ne sera pas mis en difficulté par une disparition arbitraire: tu parlerais différemment si tes ou ton site était en difiiculté pour des raisons futiles. Je suis Romain, je suis guide touristique privé et je sais pourquoi l'Empire Romain est tombé. Le parallèle est TRES similaire....

Tu vas nous faire un site là dessus? Merci je connais bien l'histoire de Rome mais ça peut toujours servir!
Je dénote une pointe d'agacement dans ton texte. Je t'ai froissé d'une quelconque manière?
 
WRInaute accro
Mountain Magazin a dit:
Le temps de chargement des pages ? leurs services rament de plus en plus (chargement Adsense qui bloque les pages, analytics, Gmail pas exempt du tout de tout reproche...).
tu n'es pas obligé d'utiliser gmail, analytics et encore moins adsense
Mountain Magazin a dit:
Je m'explique : une fronde anti google qui commencerait à créer du contenu et des communautés, notamment à travers les réseaux sociaux et interdire l'accès à google. Que se passerait il si l'on voyait un mouvement de fond émerger et suivi de millions de gens ?
tu sais comment peut (et doit) commencer une fronde anti google ? par ce qui le fait vivre : la pub. Les frondeurs anti google doivent commencer à montrer l'exemple en ne mettant plus de adsense sur leurs sites (donc moins de rentrées publicitaires pour gg et moins de revenus), mais évidemment, pas parce que leur thématique ne peut mettre gg ou qu'ils ont été virés, juste par choix délibéré.
Donc pas de adsense, pas de adword, plus de gmail, car sur le webmail il y a aussi des pubs et pas de analytics (car c'est donner gratuitement des stats à gg)
Sinon ce ne sont que des paroles en l'air
 
WRInaute occasionnel
Ola, doucement, j'ai pas dit que je montais une fronde anti google. Pour l'instant, j'utilise encore leurs services, Gmail à titre perso uniquement, leurs map, Adsense / Adwords et analytics.

Je dis que je constate de plus en plus de soucis, de ralentissements et qu'ils devraient faire attention à ne pas trop se disperser, certes, mais surtout prendre un peu plus soin des millions de gens qui leur donnent à bouffer.

Si un jour ça va plus, je changerais de régie (sachant que l'objectif est de vendre les espaces en direct de plus en plus), pour les map, IGN en propose, yahoo également....

Pour les web analytics, j'aime la gratuite d'analytics et ça fonctionne pas mal, mais si demain faut payer pour passer chez Xiti ou autre, pas de soucis... je ferais cet effort.

Conclusion : j'aime les services de google, à ce jour je les utilise, mais je n'aime pas leur attitude vis à vis des webmaster, je n'apprécie pas leur com (c'est lié) ni leur monopole quasi absolu, et j'affirme haut et fort que google n'est pas à l'abri d'une tuile.
Sa position est ce qu'elle est aujourd'hui, il va pas disparaitre du jour au lendemain, c'est sur, mais attention tout de même à ne pas en faire trop, notamment avec les communautés sans qui ils ne seraient pas grand chose.
 
WRInaute accro
Mountain Magazin a dit:
Si un jour ça va plus, je changerais de régie (sachant que l'objectif est de vendre les espaces en direct de plus en plus),
oui, mais après l'annonceur veut avoir un tiers de confiance
Mountain Magazin a dit:
pour les map, IGN en propose, yahoo également....
il me semble que IGN limite fortement la taille affichable (en pixels)
 
WRInaute occasionnel
Pour les annonceurs, c'est pas un souci, ça se met en place et j'ai un serveur d'annonces.
Donc pas inquiet.

Pour les map IGN, je crois qu'il y a des limites oui, mais chez Yahoo, ça fonctionne bien.
 
WRInaute passionné
Peut-être que Google lutte contre le spam, mais le fond du problème est que les spammeurs n'ont absolument pas peur du moteur de recherche. Il n'y en a pas un qui redoute n'importe quel moyen mise en place pour les contrer.
J'ai publié un billet sur le sujet, donc sans répéter sa teneur, je veux juste dire qu'on s'en fout pas mal de archive.org. Le vrai problème est la manière de nous prendre pour des véritables benêts comme le souligne Olivier. Cette pseudo communication est destinée aux médias et aux incrédules, mais il n'y a rien à apprendre pour celui qui connait un minimum le réf (j'ai bien dit un minimum).
 
WRInaute accro
Leonick a dit:
tu sais comment peut (et doit) commencer une fronde anti google ? par ce qui le fait vivre : la pub. Les frondeurs anti google doivent commencer à montrer l'exemple en ne mettant plus de adsense sur leurs sites (donc moins de rentrées publicitaires pour gg et moins de revenus), mais évidemment, pas parce que leur thématique ne peut mettre gg ou qu'ils ont été virés, juste par choix délibéré.
Donc pas de adsense, pas de adword, plus de gmail, car sur le webmail il y a aussi des pubs et pas de analytics (car c'est donner gratuitement des stats à gg)
Sinon ce ne sont que des paroles en l'air

Je dirais pas la pub, déjà commencer par ne plus envoyer les utilisateurs systématiquement sur Google à partir des sites. La première fonction de Google est la recherche. Et c'est à force d'être connu des internautes qu'il est utilisé et ... utilise sa notoriété pour mettre des pubs. D'aillieurs, la majorité des rentrées se font via les pubs affichés dans les résultats de recherches: le reste est le plus souvent du remplissage sur les sites
Quelqu'un connait le système pour permettre de faire des recherches à partir de Bing sur un site? (c'est aussi pour essayer syr un de mes sites, l'ai déjà vu d'aillieurs quelqes fois.).

Pour Google, ca fait déjà quelques années qu'il se fout de nous (MAtt raconte chaque fois plus de bétises que de réalité et personne n'a jamais l'air de s'en apercevoir). Dans l'ensemble, je suis assez d'accord avec Mountain Magazin , adsence de plus en plus lent et de moins en moins ciblé, backlistage assez aléatoire de pages ou de sites sans réelles raisons, ... qui revennent aussi parfois sans modifs et sans qu'on sache non plus pourquoi. Je travaille beaucoup a essayer de comprendre les "pénalités" mais honnêtement je suis sûr qu'une partie vient tout simplement du mauvais fonctionnement de Google. Et Matt a beau nous laché du duplicate content (alors pourquoi pas toutes les pages et pourquoi pas garder la première publiée?), de la vente de liens (ca explique peut-être pourquoi des liens entre deux sites du même Webmaster connu par Google via ses outils déclassent les deux sites? A moins que Google préfère qu'un webmasert achète des adwords pour envoyer des visiteurs de l'un vers l'autre tant qu'à faire) ... et l'explication du PR est totalement ridicule. C'est pas le PR qu'il essaye de casser, c'est le fait que pour passer d'un site à l'autre, ils ne repassent pas sur Google :roll:
On pourrait continuer avec l'invention canonique (Dixit le moteur " on est trop con pour voire deux pages quasiment identiques sur le même site, alors vous mettez des liens canoniques au cas ou on s'en rendrait compte ... :twisted: ), ...

Ou avec le sitemap, comme quoi, Google doit plus être performant, il lui faut des assistants pour pourvoir trouver des pages (on a pas dit les positionner, juste les trouver), A cette vitesse lui donne pas 10 ans pour être à Nantes dans une maison de retraite :lol:
On pourrait continuer par Adsence Add Manager, GG gère les emplacements publicitaires de toutes les régies à votre place, une méthode aussi pour supprimer des espaces sur les pages. D'aillieurs, mettre une autre régie sur une page avec adsence déclasse directement le CPC (même en le retirant ansuite: Google aime pas la concurrence)

Honnêtement, il y a encore des Webmasters qui pensent que Google est un gentil petit chien qui fait aller la queue et Microsoft un vilain petit canard malgré le tas de trucs antiwebmasters dans les résultats de recherches. Pourquoi ioptimalisez le référencement d'un restaurant (ou toute autres entreprises) en sachant que Google va en mettre tout au dessus une liste de liens avec ses propres pages et ... ses propres pubs. Pourquoi monter un site de petites annonces en sachant que google est en train de les récupérer pour mettre sur ses propres fiches de recherche (et c'est pas du vol de contenu sans doute?) . Pourquoi monter du texte sur ses sites en sachant que sur les blogs de Google le duplicate content n'est pas sanctionné (souvent l'original oui :? et là non plus c'est pas du vol de contenu de la part de Google). D'aillieurs, s'il se permet de copier des boucains entiers sans autorisation, il doit franchement se geiner pour les pages). Pour les photos, j'ai pas besoin de mentionner les petits problèmes de Google qui photographie des personnes et lieux privées sans aucune autorisation.
Et si c'était bien là le but de Google supprimer tous les sites rentables pour passer devant sur ses propres recherches (en ajoutant es commentaires de plus en plus loufoques de Matt Cutts ....

Bon maintenant que je me suis énervé, je vais retourner à mes sites pour les optimaliser pour les résultats dans Google et adsence :arrow:
 
WRInaute occasionnel
Je ne suis pas en mesure de me prononcer sur tout (IL nous lit, il nous punira ! :oops: :cry: autocensure)...

Trève de plaisanterie (ou pas ?), je me surprends souvent à me faire des réflexions qui recoupent celles de YBet.

Bien entendu qu'il y a une distorsion forte entre le discours "don't be evil" et les intérêts commerciaux de google.

Je serais tenté de répondre à leur doctrine (pour les webmaster) "don't be stupid", autrement dit inutile de boire les paroles du futur ex numéro un de la recherche. Ce n'est pas à eux de déterminer ce qui est légal de ce qui ne l'est pas, tout au plus faire le tri dans ce qu'ils veulent indexer ou non, en faisant attention de ne pas se retrouver un jour sur le banc des accusés avec une class action à l'Américaine d'envergure mondiale, parce que ça pourrait bien être le début de la fin...

Effectivement, je suis curieux de voir ce qu'il adviendra dans 10 ans (en attendant je profite de la vie quand même), je doute que Google continue longtemps à ce rythme. Des voix s'élèvent (Murdock en est une crédible), la fronde s'organise tout doucement, attention à l'arrivée brutale d'un Facebook de la recherche, et même d'un facebook tout court, allié de Twitter et quelques moteurs challenger...

Je ne suis pas d'accord pour subir une justice googlelienne unilatérale, arbitraire, et j'ai coutume de dire que quand dans la vie, on se retrouve toujours deux fois.

Aujourd'hui on subit, on s'écrase, mais si jamais une alternative vraiment crédible voit le jour, avec un transfert massif des utilisateurs des services de google, notre géant vert jaune rouge (et bleu) regrettra sans doute de n'avoir pas pris plus soin de ses ouilles, et de leur avoir volé leur contenu.

J'observe effectivement que Google a tendance à s'emparer de tous les secteurs rentables du web, et à couler ceux qui en vivaient.

Tout ce paie un jour. Ca, c'est une certitude. A bon entendeur.
 
WRInaute discret
ybet a dit:
Leonick a dit:
tu sais comment peut (et doit) commencer une fronde anti google ? par ce qui le fait vivre : la pub. Les frondeurs anti google doivent commencer à montrer l'exemple en ne mettant plus de adsense sur leurs sites (donc moins de rentrées publicitaires pour gg et moins de revenus), mais évidemment, pas parce que leur thématique ne peut mettre gg ou qu'ils ont été virés, juste par choix délibéré.
Donc pas de adsense, pas de adword, plus de gmail, car sur le webmail il y a aussi des pubs et pas de analytics (car c'est donner gratuitement des stats à gg)
Sinon ce ne sont que des paroles en l'air

Je dirais pas la pub, déjà commencer par ne plus envoyer les utilisateurs systématiquement sur Google à partir des sites. La première fonction de Google est la recherche. Et c'est à force d'être connu des internautes qu'il est utilisé et ... utilise sa notoriété pour mettre des pubs. D'aillieurs, la majorité des rentrées se font via les pubs affichés dans les résultats de recherches: le reste est le plus souvent du remplissage sur les sites
Quelqu'un connait le système pour permettre de faire des recherches à partir de Bing sur un site? (c'est aussi pour essayer syr un de mes sites, l'ai déjà vu d'aillieurs quelqes fois.).

Pour Google, ca fait déjà quelques années qu'il se fout de nous (MAtt raconte chaque fois plus de bétises que de réalité et personne n'a jamais l'air de s'en apercevoir). Dans l'ensemble, je suis assez d'accord avec Mountain Magazin , adsence de plus en plus lent et de moins en moins ciblé, backlistage assez aléatoire de pages ou de sites sans réelles raisons, ... qui revennent aussi parfois sans modifs et sans qu'on sache non plus pourquoi. Je travaille beaucoup a essayer de comprendre les "pénalités" mais honnêtement je suis sûr qu'une partie vient tout simplement du mauvais fonctionnement de Google. Et Matt a beau nous laché du duplicate content (alors pourquoi pas toutes les pages et pourquoi pas garder la première publiée?), de la vente de liens (ca explique peut-être pourquoi des liens entre deux sites du même Webmaster connu par Google via ses outils déclassent les deux sites? A moins que Google préfère qu'un webmasert achète des adwords pour envoyer des visiteurs de l'un vers l'autre tant qu'à faire) ... et l'explication du PR est totalement ridicule. C'est pas le PR qu'il essaye de casser, c'est le fait que pour passer d'un site à l'autre, ils ne repassent pas sur Google :roll:
On pourrait continuer avec l'invention canonique (Dixit le moteur " on est trop con pour voire deux pages quasiment identiques sur le même site, alors vous mettez des liens canoniques au cas ou on s'en rendrait compte ... :twisted: ), ...

Ou avec le sitemap, comme quoi, Google doit plus être performant, il lui faut des assistants pour pourvoir trouver des pages (on a pas dit les positionner, juste les trouver), A cette vitesse lui donne pas 10 ans pour être à Nantes dans une maison de retraite :lol:
On pourrait continuer par Adsence Add Manager, GG gère les emplacements publicitaires de toutes les régies à votre place, une méthode aussi pour supprimer des espaces sur les pages. D'aillieurs, mettre une autre régie sur une page avec adsence déclasse directement le CPC (même en le retirant ansuite: Google aime pas la concurrence)

Honnêtement, il y a encore des Webmasters qui pensent que Google est un gentil petit chien qui fait aller la queue et Microsoft un vilain petit canard malgré le tas de trucs antiwebmasters dans les résultats de recherches. Pourquoi ioptimalisez le référencement d'un restaurant (ou toute autres entreprises) en sachant que Google va en mettre tout au dessus une liste de liens avec ses propres pages et ... ses propres pubs. Pourquoi monter un site de petites annonces en sachant que google est en train de les récupérer pour mettre sur ses propres fiches de recherche (et c'est pas du vol de contenu sans doute?) . Pourquoi monter du texte sur ses sites en sachant que sur les blogs de Google le duplicate content n'est pas sanctionné (souvent l'original oui :? et là non plus c'est pas du vol de contenu de la part de Google). D'aillieurs, s'il se permet de copier des boucains entiers sans autorisation, il doit franchement se geiner pour les pages). Pour les photos, j'ai pas besoin de mentionner les petits problèmes de Google qui photographie des personnes et lieux privées sans aucune autorisation.
Et si c'était bien là le but de Google supprimer tous les sites rentables pour passer devant sur ses propres recherches (en ajoutant es commentaires de plus en plus loufoques de Matt Cutts ....

Bon maintenant que je me suis énervé, je vais retourner à mes sites pour les optimaliser pour les résultats dans Google et adsence :arrow:

enfin une prise de position claire et objective !!!

+1 ybet je te reco pour la peine
 
WRInaute passionné
ybet a dit:
MAtt raconte chaque fois plus de bétises que de réalité et personne n'a jamais l'air de s'en apercevoir

Ben disons que ça permet à quelques uns de savoir lire entre les lignes et surtout comprendre ce qu'il ne dit pas!
Par contre, comme tu dis c'est affligeant d'observer comment la vaste majorité enfile les perles comme si c'était du pain béni.
Exemple flagrant avec l'annonce récente que la meta keywords n'était pas pris en compte. Wouah quel scoop en 2009 de nous informer en prenant même la peine de diffuser une vidéo à ce sujet. Le plus triste est que tout la troupe s'est engouffrée en relayant cette info digne de figurer sur du papier toilette.
 
WRInaute passionné
Je ne crois pas que Matt Cuts raconte beaucoup de bêtises. Tout ce que j'ai pu vérifier de ses propos s'est révélé exact, sur le coup ou six mois après (peut-être le temps que ça passe sur le francophone ?).

Cependant, je ne pense pas que les dirigeants de Google refilent beaucoup d'information chaude au type chargé de communiquer avec l'extérieur.

Il ne fait pas la pluie et le beau temps sur l'algo, ni sur les critères de classement. Je suis persuadé que beaucoup de référenceurs captent mieux que lui un paquet de finesses concernant le classement des pages. Ce n'est pas la véracité de ses propos qu'il faut remettre en question, mais leur portée et leur importance réelle.
 
WRInaute accro
Mountain Magazin a dit:
attention à l'arrivée brutale d'un Facebook de la recherche, et même d'un facebook tout court, allié de Twitter et quelques moteurs challenger...
en clair, plus tu aurais de liens mieux tu serais placé ? comme gg il y a 7-8 ans :wink:
 
WRInaute accro
ybet a dit:
Je dirais pas la pub, déjà commencer par ne plus envoyer les utilisateurs systématiquement sur Google à partir des sites.
le problème, c'est qu'en tant qu'internaute je ne trouve pas les résultats de live et y! assez probants et donc je me vois mal mettre la recherche interne sur un autre moteur que gg, de peur que l'internaute se barre.
Sinon il faut se créer son propre moteur de recherche interne, sans passer par gg, là,
ybet a dit:
Ou avec le sitemap, comme quoi, Google doit plus être performant, il lui faut des assistants pour pourvoir trouver des pages (on a pas dit les positionner, juste les trouver)
le problème c'est que certains sites n'ont aucun vrai linkage interne, ce qui fait que certaines pages sont inaccessibles, du genre site ajax, en flash, avec des formulaires uniquement, ...
 
WRInaute accro
thickparasite a dit:
Ben disons que ça permet à quelques uns de savoir lire entre les lignes et surtout comprendre ce qu'il ne dit pas!
Par contre, comme tu dis c'est affligeant d'observer comment la vaste majorité enfile les perles comme si c'était du pain béni.
Exemple flagrant avec l'annonce récente que la meta keywords n'était pas pris en compte. Wouah quel scoop en 2009 de nous informer en prenant même la peine de diffuser une vidéo à ce sujet. Le plus triste est que tout la troupe s'est engouffrée en relayant cette info digne de figurer sur du papier toilette.
Bon alors trois solutions:
1. Matt Cut fait de très loin partie de l'équipe de Google (il travaille même peut-être pour Google mais comme technien de surface - dans le sens actuel).
2. soit, Google joue avec les webmasters et commun "mal" (se fout de notre gueule) avec le copainMatt: c'est une société commerciale - son but est de faire du profit et on utilise aussi GG pour faire des visiteurs et du profils, sauf que depuis 5 ans, GG utilise les sites internet pour faire du profit mais de plus en plus CONTRE les webmasters (ca fait combien d'années que Miss Google fait plus partie du forum).
3. (la pire peut-être) Matt clutts est membre de Google mais n'est pas d'accord et recoit les informations (c'est un bête sous-fifre :roll: ), il lache juste ce qu'on lui permet de donner.

C'est pas les trois pires des solutions... La quatrième est dans mon post de départ ... Est-ce que GG a encore besoin de nos sites pour vivre? (pour répondre à Montain Magazin :wink: , c'est une stratégie de ne rien dire (je te comprend, je sais c'est en demi mot ce que j'ai dis dns le post au-dessus).


D'un autre coté, mon caractère est plutôt "rué dans les brancards" (si les habitués du forum l'ont pas encore compris :oops: ) et dire ce que je pense (y compris souvent des bétises)). Que reste t'il de Google de 2003 ... Un moteur de recherche (certe nettement moins pertinent (Là je parle à l'équipe Google qui lit régulièrement WRI), une stratégie de tout et de rien (toutes les directions sont bonnes à prendre sans doute).

Honnêtement, ce que je vois et anallyse de Google depuis deux ans, c'est des déclassements de pages sites sans "réelles raison", des pages débilles qui passent (peux pas tout dire ici mais j'ai déclassé un de mes sites pour éviter le duplicate content avec redirection en header et GG a continué a déclassé le site principal ... Ca tombe bien, l'ancien en reprogrammant (avec soon ancienneté) va véritablement devenir un truc qu'on nommme MFA (et GG les coule :lol: , l'algorythme est NETTEMENT MOINS à l'aise maintenant ... rentabilité aux clicks sans doute).
En 6 ans:
Le Mathcalcul est apparu en essayant de communiquer: soit n'importe quoi, soit tellement obsolète qu'on travaillerait encore avec un ordinateur à base de 8088 (l'XT) et un DOS 3.0 . Et encore, ... pour la majorité (le duplicate content ne casse pas des pages (l'année dernière en pleine conclusion de tests d'ici et les américains sont en avance).
. Le moteur intègre de plus en plus ses services AU DETRIMENT des sites (je veux bien faire un post là dessus et y compris donner les comptes rendus à une commission européenne).
. Des sites standards se font casser par l'algorythme, des spamsmeurs, mais surtout des sites standards (je suis sur un autre essais et GG laisse les pages que je rebricole (des pages anciennes de contenu déclassée -ca rapporte pas grand chose en adsence pais juste un petit peu à google AU DETRIMENT de vrais sites).

Ma pensée: GG ne gère plus les recherches, leurs dirigeant ne voiet plus que la rentabitilé (tiens viens de perdre 50 % de revenus adsence en un post sur mes sites - ca tombe bien: je suis en train de remplacer adsence tout doucement par des tarifs vers mon propre magasin enn analysant page par page). Entre GG il y a 5 ans (parle pas de GD ou autres trucs obsolètes) et GG maintenant, on en est où?
N'importe quoi en positionnement.
Je viens de créer un profil sur BING (qui est loin d'être aussi pertinent mais les résultats sont nettement moins encobrés que celles de Google), les outils équivalents de GWT sont plutôt primaires (là mon égo en a prit un coup, mon site principal est 5 barres sur 5 :lol: mais pour le reste, les reseignements sopnt nettement moindres.

Je suis pas un anti-Google (donc pas trop prendre mes deux posts au premier degré), juste un webmaster qui a beaucoup travaillé sur Gogle (avec beaucoup d'autres), un technicien informatique qui virait automatiquement msn de la page d'entrée d'explorer pour la remplacer par celle de Google en livrant un nouvell ordinateur (et là ca commence à bien faire a force: je laisse MSN .... mais installe quand même Open Office à la place de Office en virant la barre d'outils de Google mise par défaut - aussi celle de Yahoo par principe).
Un peu comme un suporter d'un club de foot avec des joueurs qui déconne et qui finalement descend de division, un peu perdu et pas crédule.
 
WRInaute accro
et je dirais même plus : pas de gg barre sur mon navigateur habituel (FF). Je ne l'ai mis que sur IE qui ne me sert que pour vérifier la bonne mise en page de mes sites sur IE. Et sur IE je ne vais pas sur mes comptes gmail
 
WRInaute passionné
Désactivé également chez moi la Toolbar. Elle faisait grimper FF en termes d'utilisation ressources hardware.

Matt Cutts est certainement un excellent outil marketing pour Google. Si vous avez déjà écouté d'autres googlers, ils sont beaucoup moins persuasifs. C'est bien MC qui possède cet aspect rassurant et bon enfant, tout en étant parfaitement à l'aise en face de la caméra. Cependant, ce n'est pas vrai qu'il annonce des trucs intéressants. Il est plutôt du genre à dire qu'il pleut, alors que nous sommes sous la pluie en train de se mouiller.

Sans vouloir dédouaner Google, nous faisons des observations du côté de notre lucarne à partir de zones qui sont microscopiques à l'échelle de l'index. Les effets de bords sont inévitables pour un index de cette taille et un algo par couches qui ne peut qu'être des plus sensibles.
 
WRInaute passionné
Non mais c'est sûr que google favorise sa rentabilité financière dans une certaine mesure, mais garde aussi de la pertinence en masse suffisante pour rester crédible.
Vous avez fait des centaines de tests pour arriver à ces conclusions, mais 99% des internautes ne font pas ces tests, ils s'adaptent au moteur et c'est ça la stratégie de Google ou de MS: Eduquer le client à ses propres us pour en tirer un maximum de bénéfice.

Maintenant on dit googler une recherche, on dit aller sur le poste de travail, sur le bureau etc Et ce n'est pas près de changer.

Vous pensez que c'est un mal? Ce n'est rien d'autre que ce que fait tout leader d'opinion dans tous les domaines, les assos et les politiques en première ligne.

C'est du Marketing pur et dur. Faut-il s'en plaindre? Certainement. Faut-il jeter Google ou MS par la fenêtre pour autant? Non.
MS et GG produisent des avancées technologiques qui sont à l'échelle de leurs moyens, sans eux tout irait plus lentement niveau recherche ou ils seraient remplacés par d'autres mastodontes.

Des fois il est bon d'avoir ce genre de Goliath dans la place. Ca permet à quelques Davids d'essayer de les tuer et d'innover donc plus en avant.
 
WRInaute impliqué
forummp3 a dit:
fandecine a dit:
Désolé de vous contredire, mais de mon point de vue d'internaute, le temps de chargement est un critère de choix dans mes visites de sites :mrgreen:
c'est clair, ya des sites, avec popup, pub flash + banniere gif, animation, logo partenaire qui clignotent, sont d'une lenteur et d'un chiant :)
Complètement d'accord. Mais il faudrait pénaliser justement que ces sites là, et pas tout et n'importe quoi.

Ybet a dit:
3. (la pire peut-être) Matt clutts est membre de Google mais n'est pas d'accord et recoit les informations (c'est un bête sous-fifre ), il lache juste ce qu'on lui permet de donner.
Je suis certain qu'il est même membre de WRI, et qu'il tire ses informations de ce forum. :mrgreen:
 
WRInaute impliqué
HawkEye a dit:
Et voilà... il a encore réussi son coup.

La seule chose qui restera dans les esprits, c'est que toute tentative même la plus insignifiante de faire quelque chose de "spécial" peut comporter un risque... alors tant qu'à faire, soyons de bons petits moutons et contentons nous de faire des sites tous simples sans chipotage.

C'est ni plus ni moins que du terrorisme !

Je n'irais pas jusqu'au terrorisme car je ne beux pas galvauder le mot mais je suis assez d'accord :)
Pr
 
WRInaute accro
Lomax7 a dit:
Ybet a dit:
3. (la pire peut-être) Matt clutts est membre de Google mais n'est pas d'accord et recoit les informations (c'est un bête sous-fifre ), il lache juste ce qu'on lui permet de donner.
Je suis certain qu'il est même membre de WRI, et qu'il tire ses informations de ce forum. :mrgreen:

Tu rève? Même un lecteur de WRI débutant qui a lu un peu le forum en sait plus que ce que dit Matt Cutts: genre 5 ans pour comprendre que les keywords sont plus utilisés, que le duplicate casse le positionnement d'une page (lui le sait pas encore), la description n'est plus utilisée (mais il ne le sais - ou le dis pas), les pages rapides seraient mieux positionnées mais les autres pas déclassées :?: :?: :?:
Si on suit ses "posts", il en est à https://www.webrankinfo.com/forum/les-methodes-base-marketing-pour-optimise ... 19161.html (parle pas des réponses en dessous :mrgreen: )
 
Nouveau WRInaute
forummp3 a dit:
fandecine a dit:
Désolé de vous contredire, mais de mon point de vue d'internaute, le temps de chargement est un critère de choix dans mes visites de sites :mrgreen:
c'est clair, ya des sites, avec popup, pub flash + banniere gif, animation, logo partenaire qui clignotent, sont d'une lenteur et d'un chiant :)

ah bon? vous n'utilisez adblock et no script??? 8O
 
WRInaute passionné
thejoker a dit:
forummp3 a dit:
fandecine a dit:
Désolé de vous contredire, mais de mon point de vue d'internaute, le temps de chargement est un critère de choix dans mes visites de sites :mrgreen:
c'est clair, ya des sites, avec popup, pub flash + banniere gif, animation, logo partenaire qui clignotent, sont d'une lenteur et d'un chiant :)

ah bon? vous n'utilisez adblock et no script??? 8O
t'es webmaster et tu ose dire cela? :|

edit: t'as seulement 2 messages a ton actif depuis 1 an et c'est juste pour dire une betise? 8O
 
WRInaute occasionnel
Archiv.org n'index plus rien depuis 2008 !!!!!

je vais poser une question qui devrait me faire passer pour un C.... :oops:

Un truc qui me gene pour comprendre toute la discution :

Webrank a dit:
""Matt a indiqué que l'historique d'un site (ou plus précisément de son nom de domaine) était analysée par Google. ............................ Le problème est que Matt a précisé que son équipe regardait si le webmaster interdit au site archive.org ""

hors depuis aout 2008 archiv.org n'index plus rien ... donc je ne comprend pas comment il pourrait vérifier quoique ce soit d'actuel ..... non ?
 
WRInaute discret
Ce qui me déçoit réellement avec Google, c'est que certains webmasters comme moi travaillent depuis des années leur site. On met du contenu , on se plie au règles, on conformise nos sites on passe des mois et des mois à faire et défaire suivant le bon vouloir de Google. Et du jour au lendemain ton site se prend une target. Tu refait des changements tu réaméliore ton site, tu retravaille comme un acharné , comme un esclave tu envoie je sais pas combien de demande de reexamen, pas de réponse ! Ca fait un an que je bosse sur un site pour le faire revenir et ces abrutis ne sont même pas foutus d'envoyer un mail pour nous expliquer ou encore comprendre.

Que dalle. Google quand il te sanctionne après c'est silence Radio. C'est un scandale de voir que Monsieur Google fusille des milliers d'entreprises sans donner une raison... C'est intolérable ! Et franchement il était bien plus pertinent il y'a quelques années.

C'est bien les filtres, mais trop de filtres tuent la pertinence.

Google :

Communiocation 0
Ethique 0
Pertinence 0

Et pour mon ami Matt j'aimerais lui passer un petit message qui je l'espère le comprendra : On s'en carre de ta vie !
Ras le bol de voir un sale Geek qui nous raconte sa vie, si par hasard il veut que je lui fasse une petit houpette là ou je pense, je suis son homme.

Le jour ou les webmasters comprendront qu'en mettant tous et de manière groupé un "no index" Google prendra une sacrée claque sur son cours boursier et la peut être qu'il arretera de nous prendre pour des cons...

Google n'a pas de pouvoir, c'est nous tous qui décidons et Franchement je suis pressé de leur rendre la monnaie de leur pièce.

Un grand merci Olivier pour cette petite séance de thérapie j'en avait bien besoin.
 
WRInaute impliqué
Je n'étais pas revenu depuis un moment ici, mais je vois que certaines choses n'ont toujours pas changées.
thickparasite a dit:
forummp3 a dit:
c'est qui ce matt cutts? un bloggeur comme les autres? un employé de google? un "boss" de google ?
C'est le monsieur Météo qui nous annonce de la pluie quand tu es déjà en train de te noyer sous des trombes d'eau.
J'adore :D
 
WRInaute passionné
M'enfin bon, j'ai déjà largement rempli ma part pour interpeller Matt Cutts au travers de l'action DarkSEOTeam.
A d'autres de prendre le relais.
En tout cas, nous sommes la preuve qu'il est possible de titiller Google et il a dit récemment à un des membres de la DST qu'on lui manquait.
 
WRInaute accro
thickparasite a dit:
On pourrait faire un site là dessus.

Matt Cutts est ...

à vous de terminer la phrase :D
Non là j'oserais pas, après ce que j'ai déjà dit sur le post, c'est un truc à se faire bannir tous ses sites à vie du moteur de recherche et autres outils

PS (au passage): beau blog avec suivant ton article sur le sujet pas l'air de s'habituer à te taire non plus :oops:
 
WRInaute passionné
T'es déjà profilé comme il faut chez GG ;)
Mes propos à l'encontre de Google n'ont jamais engendré une quelconque réprimande en termes de positionnement et Matt Cutts avait apparemment apprécié le foin qu'on a fait puisqu'il nous avait dédié un poisson d'avril (faux hack par darkseoteam)
 
WRInaute passionné
Pour relancer la discussion sur la vitesse de chargement d'une page, je souhaiterais préciser ma pensée qui n'a pas totalement été comprise. :mrgreen:

imaginez que vous soyez (comme moi) un pauvre internaute en milieu rural disposant d'une liaison internet 1Mo (et encore, quand le réseau est en forme). Dans ce cas, c'est effectivement le poids de la page et de son contenu qui sont un facteur de lenteur de chargement.

Mais, le problème c'est que le poids des contenus n'est pas le seul facteur de ralentissement du chargement d'une page. L'exécution de javascript peut-être bien plus pénalisant (la puissance de la machine cliente entre en jeu), le nombre de requêtes DNS aussi (temps de latences), le nombre de fichiers également et il y en a bien d'autres.

Pour que Google soit en mesure de mesurer le temps de chargement d'une page, il faut donc, qu'en plus de tous les éléments constituants la page, google simule l'exécution de celle ci dans un navigateur et je ne voie pas très bien comment il peut faire concrètement puisqu'il ne se comporte pas comme un navigateur (en particulier il n'exécute pas les scripts javascript) et dispose d'une liaison avec le serveur hébergeant la page bien plus rapide que nos malheureux PC (moi j'ai tout juste du 1Mo et même pas garantie !)

Alors, la solution ! mais la toolbar bien sur, qui elle est capable de remonter pas mal d'infos sur le client :wink:

Mais comme la toolbar n'est ni universelle, ni représentative de l'ensemble des internautes, ce fameux critère de rapidité de chargement est tout à fait arbitraire et ne représente en rien une valeur fiable.

Si vous consultez la fiche de certains sites sur alexa, vous comprendrez ce que je veux dire ... Vous verez des pages de 50ko (poids html) annoncées autour de 8 ou 9 sec en vitesse de chargement :mrgreen:

Donc, pour résumer, je pense que si la vitesse de chargement d'une page est un critère de choix pour l'internaute google est face à un problème assez complexe pour intégrer une valeur représentative de cette vitesse dans son algo.

thickparasite, je ne te l'ai jamais dit, mais je lis tes papiers avec intérêt, car, après avoir enlevé le côté impertinent, ils n'en restent pas moins plein de bon sens :wink:
 
WRInaute accro
fandecine a dit:
Si vous consultez la fiche de certains sites sur alexa, vous comprendrez ce que je veux dire ... Vous verez des pages de 50ko (poids html) annoncées autour de 8 ou 9 sec en vitesse de chargement :mrgreen:

Donc, pour résumer, je pense que si la vitesse de chargement d'une page est un critère de choix pour l'internaute google est face à un problème assez complexe pour intégrer une valeur représentative de cette vitesse dans son algo.
et du coup l'annonce par Gogle de spdy? Probablement une idée ....
 
WRInaute passionné
@fandecine: mon avis, GG s'en tape complètement du côté usabilité. C'est plutôt par rapport à ses serveurs chéris et la nouvelle infrastructure qui va avec.
Cela dit, notre bon MC avait déjà indiqué il y a bien longtemps que les URLs absolues étaient un véritable bienfait pour les ressources serveur.

PS : merci de me lire. Désolé pour la caisse de résonance impertinente qui prend parfois le dessus :D
 
WRInaute occasionnel
Ca fait déjà bien longtemps que Google nous fait tourner en rond avec ses algos de plus en plus affûtés à un point tel qu'une boussolle ne serait même plus où est le Nord, le Sud..., avec en plus sur le podium communication, le ridicule Cuts de Matt.

Bref, comme je l'avais déjà stipulé sur plusieurs posts, monopole = dictact, que cela vous plaise ou non. Stoppez gmail, analytics, adsence et j'en passe serait déjà un bon avertissement pour sa politique absurde, mais qui gère encore le monde de la recherche. En 2002-2006, la tendance sur ce forum était de faire du contenu pour avoir le clin d'oeil de bienvenue de Google. L'adage récurrent était, faites des sites pour vous, pour l'internaute... Désormais, la tendance est inversée: faites des sites pour Google en tenant compte de ses règles devenues complètement loufoques et arbitraires pour certaines.

Reléguer des sites anciens qui ont fait leurs preuves en traffic direct est une erreur fondamentale de classements. Google n'est plus et ne sera plus le Maître bientôt, du moins, je l'espère quand on constate ses résultats abérrants dans tous les thèmes depuis l'hécatombe de déclassements en 2008. Rien que dans mon humble entourage, les personnes lambda se rendent compte que les classements de Google sont impertinentes. Il faut maintenant se taper des pages et pages pour trouver un site respectant notre recherche.

Un joli txt l'interdisant d'indexer serait l'ultime avertissement sur sa dictature. Mais il faut faut se rassembler, se regrouper en masse pour faire tilt. Et un tilt comme celui-là, ce sont des millions de dollars en fumée que ce moteur perdrait, une chute de son cours en bourse et...

Merde, ca n'a rien à voir, mais les femmes sont descendues dans la rue en 46 pour obtenir le droit de vote. Là, ce que vous faites, ce n'est que de la prose, du poème de rue qui fait marrer les cuts, les alec et tout ces bambins qui se la pêtent. Agir, agir, agir est la meilleure méthode.
 
Olivier Duffez (admin)
Membre du personnel
J'ai interviewé un membre français de l'équipe qualité de Google, il s'appelle Ambroise Fensterbank
je vais essayer de lui en dire 2 mots...

je n'étais pas au courant de ces problèmes avec les .pro, c'est assez étonnant. C'est la seule extension concernée ("pénalisée") ?
 
WRInaute passionné
Je me rappelle d'un débat à propos du .info en 2008 sur WebMasterWorld.
Google avait toujours nié une quelconque pénalité sur un tld, puis miraculeusement, un jour après le coup de gueule sur WMW, tout était revenu à la normale.
http://www.webmasterworld.com/google/3657421.htm

Donnons le bénéfice du doute à Google en pensant que le .pro est victime d'une coquille d'algo (si c'est avéré), plutôt qu'une pénalité car ça n'est pas très logique.
 
WRInaute impliqué
Merci olivier !!!
On n'a une réponse d'Ambroise.
« on ne traite pas les domaines de premier niveau de manière différente. »
...
 
WRInaute accro
Bonjour

Pour ma part, je pense (sincèrement) qu'il existe une interactivité humaine dans le classement et/ou la gestion générale de certaines requêtes fortement concurrentielles.

Quand d'une part vous avez des sites qui squattent une première place sur une requête ultra concurrentielle (commercialement parlant) en utilisant des techniques dignes des années 90 (genre la DIV hidden avec du H1 suroptimisé sur TOUTES les pages du site), et que de l'autre, vous avez des dizaines de sites qui n'apparaissent pas même dans le top 300 des SERP... J'ai du mal à croire que sur tous ces sites, tous soient mal optimisés (je sais que non ;) ) et que le premier, maintes fois "spamreporté", reste premier sans action humaine derrière !

C'est inéluctable. Et rien que pour ça, je vais petit à petit cesser mes activités de référencement pro. À quoi sert de se battre, c'est le pot de terre contre le pot de fer !
 
WRInaute passionné
Est-ce que tu as déjà estimé la valeur de tes observations à l'échelle de l'index Google ?
Remets un peu les choses en perspective et tu t'apercevras qu'il vaut mieux ne rien dire, plutôt que se ridiculiser à colporter des fantasmes qui n'ont jamais été prouvé.
Par prouver, j'entends qu'il faille démontrer d'une manière qui dépasse la poignée de requêtes qui t'obsèdent parce que d'autres sites sont devant le tien.
 
WRInaute passionné
thickparasite a dit:
Est-ce que tu as déjà estimé la valeur de tes observations à l'échelle de l'index Google ?
Remets un peu les choses en perspective et tu t'apercevras qu'il vaut mieux ne rien dire, plutôt que se ridiculiser à colporter des fantasmes qui n'ont jamais été prouvé.
Par prouver, j'entends qu'il faille démontrer d'une manière qui dépasse la poignée de requêtes qui t'obsèdent parce que d'autres sites sont devant le tien.
Il n'a pas de preuves à l'appui (et c'est juste ce que tu dis par rapport aux preuves à l'appui: ce ne sont pas que quelques sites qui font juridiction), mais c'est une thèse qui pourrait peut-etre se révéler possible, suivant le raisonnement de la possible intervention humaine. Regarde ce qui se passe autour de nous dans les autres domaines de la vie courante...
 
WRInaute passionné
C'est un débat stérile qui a déjà été évoqué un tellement grand nombre de fois, que j'ai moyennement envie d'entendre à nouveau les mêmes arguments miteux.
Je suis prêt à tout croire du moment qu'on arrive à me persuader et je ne suis pas le dernier à flinguer Google si je trouve qu'il n'agit pas correctement. D'ailleurs, je n'en connais pas beaucoup dans les parages qui ont poussé le bouchon aussi loin qu'un tout petit groupe de SEO, dont je fais partie, l'a fait en 2005 (voir l'épopée DarkSEOTeam pour ceux qui n'étaient pas là).
Par contre, j'ai vraiment du mal avec les théories sur la comète qui se basent sur des observations aussi valables que la machine à transformer le sable en or.
Libre à vous ce croire ce genre de mythologie, mais comptez sur moi pour remettre les pendules à l'heure sur certains points.
Il y en a assez de ce mysticisme notoire qui règne autour du réf. Il faudrait commencer à prendre les choses un poil plus sérieusement.
Si jamais je te disais que l'écran de mon iPhone avait explosé, puis comme y a un autre mec qui est passé à la TV en disant pareil. Sans oublier un autre au japon et encore un en Allemagne. Ben du coup, Apple doit officialiser le fait que les vitres d'iPhones sont vachement dangereuses et risquent à tout moment d'exploser. 4 gonzes font un foin pas possible à propos d'un problème, donc c'est la vérité absolue ?
Sorry, mais je gobe pas.

PS: y avait même eu une théorie qui disait que si tu arrivais avec une valise pleine de cash à poser sur le bureau de Larry et Sergei, c'était la première position assurée. Ils n'ont qu'à presser un bouton.
 
WRInaute discret
Est-ce qu'on serait pas en train de rejeter nos propres "fautes" sur GG ?
Certes la qualité des résultats ne va pas dans le bons sens mais d'un autre côté résiste quand même remarquablement à sa première place et aux tentatives de suroptimisation.
 
WRInaute passionné
Orgevalscope a dit:
Est-ce qu'on serait pas en train de rejeter nos propres "fautes" sur GG ?
Certes la qualité des résultats ne va pas dans le bons sens mais d'un autre côté résiste quand même remarquablement à sa première place et aux tentatives de suroptimisation.
Je ne te suis pas, là 8O
 
WRInaute accro
thickparasite a dit:
Est-ce que tu as déjà estimé la valeur de tes observations à l'échelle de l'index Google ?
Remets un peu les choses en perspective et tu t'apercevras qu'il vaut mieux ne rien dire, plutôt que se ridiculiser à colporter des fantasmes qui n'ont jamais été prouvé.
Par prouver, j'entends qu'il faille démontrer d'une manière qui dépasse la poignée de requêtes qui t'obsèdent parce que d'autres sites sont devant le tien.

Ce n'est pas une poignée de requêtes qui m'obsèdent, à vrai dire sur mes propres sites je n'ai jamais eu ce genre de soucis (il ne s'agit pas de mon ou de mes sites :twisted: )

Ce sont des constatations sur des requêtes très précises. Si tu veux je t'envoies par MP un exemple, et tu me donnes ton avis sur la question : je suis ouvert à toute explication "rationnelle" et même prêt à prendre des leçons :mrgreen:

La seule chose constatée sur l'un de mes sites, c'est une pénalité sur UN mot-clé unique et uniquement sur Google (résorbée depuis). Là aussi rien d'officiel, juste des constatations...
 
WRInaute impliqué
Alors je viens foutre ma merde aussi :)

Je ne vais pas donner la requête. Il s’agit d’une chaîne de TV (non TNT).
Je n’ai plus de site sur la requête mais je continu de faire des reports de spam pour le plaisir (SUPER CONNARD !) rien ne bouge.

La raison : contenu dupliqué. Le site reprend l’intégralité du contenu (marque blanche donc avec accord) d’un site positionné en 2 et se positionne en première page (pour une requête relativement concurrentielle).

Quelqu’un a t-il déjà constaté l’efficacité du formulaire de report de spam ?
Personnellement non.
 
WRInaute passionné
Le spam report fonctionne s'il justifie son bien fondé.

LA question est Google manipule t'il les résultats manuellement ?
Certains donnent des pouvoirs importants aux Quality Raters ou Adwords Account Managers.
Pour moi, jusqu'à preuve du contraire, c'est négatif.
 
WRInaute accro
Je t'envoie un MP si tu permets, et tu me donneras ton avis en privé ;)

Tu verras que dans ce cas précis, le spamreport est parfaitement justifié, et que "pourtant" il ne fonctionne pas !
 
WRInaute passionné
Je n'ai pas entre les mains le processus auto et manuel du spam report ;)

Il est évident que Google est dépassé dans son combat contre le spam. Il n'y a pas un spammeur sur le Web qui a peur du grand méchant loup.

Je révise mon propos : le spam report fonctionne la plupart du temps.
Pourtant, je tiens de source interne à Google France que le spam report est un élément fondamental chez eux.
 
WRInaute accro
thickparasite a dit:
LA question est Google manipule t'il les résultats manuellement ?

Je pense que oui .... Certaines petites requêtes intéressantes au niveau adsences - adwords sont manipulées. Dans ces requêtes (dans mon cas, c'est plutôt dans les logiens de compta, ...). Il y a systématiqement dans les 5 premiers un site avec des adsences ...
J'ai analysé plusieurs de ces pages il y a quelque mois pour essayer de comprendre pourquoi pas 2 ou trois ni aucune (c'est une des direction que j'ai testé dans la série de tests en cours sur les pénalités mais dans l'autre sens en analysant les positions de deux dictionnaires: chaque fois un positionne une page mais jamais les deux) et aucune raison que ces pages soient là.
En même temps, tous les sites d'informatiques (mais c'est valable pour d'autres thématiques) s'écroulent chaque année entre le 15 décembre et le 5 janvier au profit des magasins de vente en ligne ....: 5% je veux bien puisque c'est la période des achats mais c'est plus souvent 20.

Maintenant, pour les magasins de vente en ligne (parle toujours informatique). Les plus gros sont devant (logique) mais ce sont aussi ceux qui mettent le plus d'adword: c'est du moins ce que j'ai analysé sur la Belgique.
 
WRInaute passionné
le retour de la théorie du complot ...

tiens voilà peut être une façon de faire perdre des parts de marché à google : monter un site le complot googlien en exposant clairement des preuves irréfutables: soit gg sanctionne le site et donc c'est de la censure et pas bien vu, et ça fera un gros buzz interplanétaire qui réveillera l'esprit des gens ...
 
WRInaute discret
rudddy a dit:
le retour de la théorie du complot ...

tiens voilà peut être une façon de faire perdre des parts de marché à google : monter un site le complot googlien en exposant clairement des preuves irréfutables: soit gg sanctionne le site et donc c'est de la censure et pas bien vu, et ça fera un gros buzz interplanétaire qui réveillera l'esprit des gens ...
Manuellement, j'en doute. On imagine déjà l'armée de personnes qui serait nécessaire pour chaque ensemble de requêtes .... (faut pas rêver non plus), juste une pondération dans l'algorythme. Je sais plus qui avait donné des explications sur les méthodes de Google pôur détecter qu'elles pâges sont des forum (et comme par hasard, les résultats des forums sont présentés autrement depuis), les sites de vente en ligne, les sites d'informations, les sites collaboratifs, ... reste à voire comment il fait mais ca doit être une simple analyse de construction des pages. Par tant de celà, ca doit pas être difficile de pondérer pour un avoir un de chaque sorte dans les premiers (et pour les résulats adword, il doit être beaucoup plus au courant que nous :mrgreen: ). Manuellement est impossible mais pondérer pour en faire ressortir un par classe de contenu, OUI. GG déclasse pas forcément, il pondère ... et une petite modification de pondération dans l'algorythme doit avoir de sacrées répercutions sur des sites (mais pas tous). Pourtant, à force de pondé&rer, de filtrer, ... Ce sont les serveurs qui doivent avoir du mal. Qui sait si les financiers de GG n'ont pas pris les devants avec la crise pour réduire d'avance les investissements (et par expérience, les financiers et les spécialistes réseaux font rarement bon ménage :wink: ), ce qui expliquerait aussi des ralentissements dans certains cas. (Si on faisait du traitement de texte avec un 286 et 1 MB de mémoire en 1980, il faut bien un triple core et 2 GB de mémoire maintenant avec Microsoft :lol: , alors ce que faisait Google il y a 6 ans et maintenant, .... la marche de puissance doit être la même)

Maintenant, je viens d'être surpris en quelques jours par Google. Je suis un vieux DJ et je suis en train de reprendre la liste de mes vieux 45 tours de 1980 ... Pour la première fois, j'utilise un logiciel de peer to peer. Pourtant, je connais à peu prêt mes vieux disques et mon but n'est pâs de téléchareger de la musique "gratuite" mais bien de reprendre mes 45 tours en MP3 pour en refaire des CD pour travailler en public (donc pas question de récupérer des chansons que je n'ai pas) mais classés par année. Mais reste à retrouver l'année. Toutes les recherches tombant sur des noms de groupes (y compris inconnus pour le grand public standard) et de chanson tombent justes et sans les " " pour les titres de chansons avec de nouveau Wikipedia souvent devant :evil: (j'ai essayé Bing pour la même chose c'est n'importe quoi). Google doit avoir une sacrée base de donnée pour analyser les résultats de clicks sur les recherches. Du coup, on peut imaginer GG moins performant mais ils doivent travailler aussi sur d'autres requêtes que les trucs standards. Et là bizarement, le duplicate dans les paroles de chansons n'a pas l'air de jooer (sauf que de nouveau, ce sont le plus souvent les mêmes sites qu'on retrouve devant, différents suivant des titres anglais de titres français en plus). On peut parler de partialité de Google sans doute mais chapeau quand même
 
Discussions similaires
Haut