KeyBox et FeedBox, deux nouveaux noms pour deux pénalités?

WRInaute passionné
Dans la lignée très "in" des néologismes concernant les nouvelles pénalités/filtres Google (dernière en date: la random penalty) j'expose dans mon blog mon point de vue concernant ce qui se passe depuis quelques mois sur les SERPs Google.

De cette réfexion naissent donc deux nouveaux termes: les pénalités KeyBox et FeedBox.
 
WRInaute accro
De mon analyse perso (qui n'est pas terminée, et ne sera donc pas exposée), tu n'es pas loin de la vérité pour ce qui est de KeyBox. Par contre, pour FeedBox je suis plus que certain que c'est un tir dans l'eau: le problème n'est pas là où tu crois l'identifier ;)
 
WRInaute passionné
HawkEye a dit:
De mon analyse perso (qui n'est pas terminée, et ne sera donc pas exposée), tu n'es pas loin de la vérité pour ce qui est de KeyBox. Par contre, pour FeedBox je suis plus que certain que c'est un tir dans l'eau: le problème n'est pas là où tu crois l'identifier ;)
dans ce cas, où identifies-tu le problème pour FeedBox, de ton côté?


Marie Aude a dit:
Je partage assez l'idée d'un Keybox, mais sur des critères un peu différents des tiens...
quels seraient tes critères?

:?
 
WRInaute impliqué
Ton explication de la feedBox vaut bien une reco...
HawkEye, j'aimerai bien connaitre ton avis là-dessus surtout que tu es toi aussi un feeded ;-)
 
WRInaute accro
Salut,

Je ne crois pas trop à la probabilité d'une feedbox car effectivement le site de HawkEye se maintient ;), et ce n'est pas le seul.

Quant à la keybox, je n'y crois pas non plus car je vois mal Google sanctionner les menus (source par nature de liens à ancre identique) s'agissant des liens internes enfin la plupart des sites sanctionnés ne le sont pas sur leur mot clef naturel c'est à dire le NDD ou le titre d'accueil qui par nature concentre le plus de liens externes contenant la même ancre.
Qui plus est tu sembles indiquer que la sanction est partielle, hors je peux te dire pour subir la sanction que celle du 26 est loin de l'être.
Enfin, sur le h1, h2, h3, etc c'est, excuse moi du terme, de la "branlette de référenceur" car tous les sites récents (en particulier les blogs et les nnuaires) les emploient sans y faire gaffe et ne sont pas forcément sanctionnés.

Donc le mots sonnent bien, mais sonnent un peu faux. A mon unique avis bien sûr.
 
WRInaute passionné
serval2a a dit:
Enfin, sur le h1, h2, h3, etc c'est, excuse moi du terme, de la "branlette de référenceur" car tous les sites récents (en particulier les blogs et les nnuaires) les emploient sans y faire gaffe et ne sont pas forcément sanctionnés.
tu confonds les symptômes (qui eux, sont observés par beaucoup, et en effet il s'agit de sanctions sur certains mots-clés, et non sur tous) et le diagnostic (là j'ai émis des hypothèses qui bien sûr sont peut-être incomplètes voire erronées)

ce qui n'empêche pas qu'il existe d'autres pénalités qui affectent tout un site, ce n'est pas parce que ton site pénalisé ne rentre pas dans cette catégorie que cette catégorie n'existe pas ;)

donc KeyBox est le nom du symptôme, qui est observé par beaucoup de monde, peut-être pas sur ton site mais par bcp de monde crois-moi, il ne s'agit pas de mon diagnostic (forcément incomplet), tout comme on parle de sandbox pour parler des effets et pas des causes (que personne ne connaît complètement).

je pensais avoir été assez claire mais à priori ce n'est pas le cas. ne pas confondre effets (keybox) et causes (inconnues, je n'ai donné que quelques pistes!)

quand je parle des h1, h2 etc, je ne parle bien sûr pas de leur présence :p mais du bourrage de mot-clés auxquels on assiste à l'intérieur de ces balises. ;)
 
WRInaute accro
Bah franchement tu m'excuses Carole mais je crois que tu affubles de ces termes les sites sanctionnés dernièrement alors on va prendre dicodunet (si tant est qu'il est sanctionné puisque les graphs d'alexa sont notoirement aussi fiables que la lecture des logs dans le pipi de chat :) ), wikio, mes sites, echosdunet, scoopeo et on va constater qu'en "bons référenceurs" nous avions tous bourré nos balises de mots clefs.

Ensuite on va prendre des MFA bourrés de mots clefs, des agrégateurs qui publient chaque billet extrait d'un flux par l'intermédiaire de liens internes sur les mots clefs contenus dans le titre du billet, et on va voir si ils sont sanctionnés.

Qui plus est, je suis assez ancien sur le forum et je peux t'affirmer que la "keybox" pour autant séduisante qu'elle apparaisse au premier abord ne fait que reprendre de vieilles recettes dont nous avions déjà traité ici, savoir diversifier les ancres (l'absence de diversification étant avancé comme une des causes de sandbox), dès lors, quand bien même, je n'ai pas listé tous les liens des sites sanctionnés, je pense que bien peu de gros sites ont oublier de travailler la dessus.
Sandbox qui curieusement a disparu aussi rapidement qu'elle était venue.

Pour reprendre tes termes, ce sont évidemment les symptômes qu'il faut analyser pour établir le diagnostic mais tu sembles en omettre ou en masquer plusieurs ce qui vient contrarier la pertinence du différentiel.
On ne peux analyser les sanctions du 26 qu'en observant tous les sites et l'éventail de problèmes qu'ils rencontrent, ces derniers vont d'une perte de positionnement à un déclassement systématique ou encore à une désindexation totale.

Courage donc pour tout reprendre.
@+
 
WRInaute accro
serval2a a dit:
Je ne crois pas trop à la probabilité d'une feedbox car effectivement le site de HawkEye se maintient ;), et ce n'est pas le seul.

Attends, elle n'a pas forcément tord: je pense simplement que c'est incomplet, et que la notion "feed" est partiellement correcte.
J'ai un truc à proposer à ce sujet, on en reparlera ce soir.
 
Nouveau WRInaute
Il est vrai que de nombreux agrégateurs de contenus et autres sites utilisant du contenu externe issus de divers API ont été lourdement sanctionnés fin juin.
Apparement vous êtes plusieurs a avoir des avis différents sur la cause de ces sanctions, ca serait bien de partager l'information je pense. :wink:

Personnellement je fais parti des sites sanctionnés et j'ai remarqué sur mes stats que mon site avait été visité plusieurs fois par un humain (donc pas robot) de chez google avant et après cette sanction....

Rocca
 
WRInaute accro
Certes mais faut voir aussi que la concurrence s'est vachement améliorée depuis le début d'année dans le secteur des agrégateurs. Je vais pas m'épancher sur le sujet mais des nouveaux acteurs sont bien plus performants que ceux déjà en place et ils leur ont pas mal taillé de croupières.
@+

@rocca : C'est ce qu'on fait, comme tu peux le voir je joue le rôle de celui qui n'est pas d'accord. :wink:
 
WRInaute passionné
(modéré par WRI, inutile de cracher sur un site en particulier, ça n'apporte rien à la discussion et me pose des pb en tant qu'admin)

Il est certain que le défaut de contenu original est la cause de la pénalité, et même si certains ne l'on pas subie, on se rappellera que les annuaires ont été pénalisés l'un après l'autre, mois après mois. Alors, ne reste qu'à proposer un vrai contenu et tout ira mieux...

Précisions que les graphes Alexa sont tout à fait valables pour les 100 000 premiers sites
 
Nouveau WRInaute
beaucoup de sites gagnent ENORMEMENT d'argent avec du contenu généré facilement soit par une API soit du RSS etc... et ce ne sont pas forcement des agregateur mais bien souvent des dicos ou sites apparentés, c'est un peu l'attaque du train postale et cela a peut être énervé google ???
:roll:
Bref, c'est peut etre la fin de l'age d'or pour ce genre de site ?
 
WRInaute impliqué
rocca a dit:
beaucoup de sites gagnent ENORMEMENT d'argent

donc Google gagne aussi énormément d'argents car beaucoup de ces sites sont monétisés par adsense...
je vois pas trop Google se tirer une balle dans le pied non plus.
 
Nouveau WRInaute
oui mais son index est spammé a cause de ce genre de site, c'est surement pas dans son interet.
Il est moins dangereux pour google de ne plus gagner des $$$ avec ce genre de site plutot que de voir les utilisateurs partir petit a petit.


Rocca
 
Olivier Duffez (admin)
Membre du personnel
Je vous rappelle que cette discussion n'a pas pour objectif de demander à chacun son opinion sur les sites concernés (ou même d'autres), surtout si c'est pour émettre des propos diffamatoires (comme ce fut déjà le cas, cause de la modération d'1 ou 2 messages de ce topic). Il est tout à fait possible de discuter du sujet sans émettre de jugement personnel sur tel ou tel site.

Pour revenir au sujet : l'idée de la variation des ancres de liens est bonne (quoique ancienne) mais ne me semble pas à propos. D'une part on trouve de trop nombreux contre-exemples sur les sites concernés, d'autre part les chutes de positionnement sont plus vastes que ça ne l'aurait été avec cette cause.

La piste des flux est sans doute à creuser, mais j'ai l'impression qu'elle ne colle pas non plus à ce qu'on constate. D'ailleurs il me semble qu'il y a des sites qui n'utilisent pas les flux et qui ont été pénalisés.

L'algo de Google est devenu une telle accumulation de couches de filtres qu'il sera sans doute très difficile de trouver une explication qui corresponde à l'ensemble des cas étudiés...

Olivier
 
WRInaute passionné
WebRankInfo a dit:
D'une part on trouve de trop nombreux contre-exemples sur les sites concernés, d'autre part les chutes de positionnement sont plus vastes que ça ne l'aurait été avec cette cause. La piste des flux est sans doute à creuser, mais j'ai l'impression qu'elle ne colle pas non plus à ce qu'on constate. D'ailleurs il me semble qu'il y a des sites qui n'utilisent pas les flux et qui ont été pénalisés.

ce que je ne comprends pas, c'est pourquoi lorsque j'émets l'hypothèse de 2 "nouvelles" pénalités, tout le monde voudrait qu'elles expliquent l'ensemble des pénalités.

ce n'est pas parce que tel ou tel site a été pénalisé mais ne rentre pas dans KeyBox ou dans FeedBox ou dans SandBox, que ces pénalités n'existent pas!

tous les sites pénalisés ces derniers mois ne sont en aucun cas touchés par une seule pénalité, c'est évident:

il y a des pertes de prime de fraicheur, des sandbox, des délations auprès de Google, du blackhat, des problèmes de serveur, le problème des annuaires, j'en passe et des meilleures.
 
WRInaute accro
Re,
Ne te fâches pas le problème c'est qu'une pénalité spécifique à un type de site, par exemple, ne doit pas souffrir d'exception parmi ce type de site, hors pour reprendre ta seconde, trop d'exception viennent infirmer ta règle pour qu'on puisse y appliquer l'adage.
Quant à la 1e effectivement, il peut que quelques sites aient été sanctionnés mais si l'on ne doit pas envisager qu'elle s'applique le 26 il ne s'agit pas d'une nouvelle sanction mais d'une continuité de la "sandbox".

Pour ma part, et pour t'expliquer pourquoi je ne suis pas d'accord avec ton point de vue, la sanction a été ressentie par une variété de sites et essentiellement les effets sont les mêmes (perte totale ou presque du trafic Google avec déclassement massif), donc avec identité de date et d'effet doit correspondre une identité de sanction.

M'est avis, compte tenu de ce que j'ai lu depuis sur les forums et les blogs que certains ont mal saisi le concept de la "pénalité aléatoire" qui ne contient pas forcément ce que l'on comprend initialement.

Sur ce bonne soirée tout le monde.
 
Olivier Duffez (admin)
Membre du personnel
oui c'est vrai qu'on ne pourra sans doute pas trouver une explication commune, je me suis sans doute mal exprimé. Par contre je n'ai pas bien compris ce que keybox comporte de nouveau ?
 
WRInaute accro
Analyse completement à côté de la plaque, ça impliquerait que le site ait un système de lien permettant d'appuyer sur des mots clefs, genre nuage de tags.

Mon site n'a pas de nuage de tags, le référencement appuie certes sur certains mots clefs, mais rien d'anormal.

J'ai perdu 70 à 75% de mes visiteurs par moteur, non pas sur ces fameux mots clefs mais sur ce qu'on appelle la longue queue, donc des mots ou phrases clefs sur lesquels il n'y a aucun référencement.

Donc ton analyse tombe à l'eau.

Concernant les feedbox, mon site est un site d'actualité et non pas un agrégageur de contenu.

Ton bateau est coulé, désolé la vérité est ailleurs.
 
WRInaute passionné
achtungbaby a dit:
Concernant les feedbox, mon site est un site d'actualité et non pas un agrégageur de contenu.
Ton bateau est coulé, désolé la vérité est ailleurs.

Je ne pense pas que l'article concernait ton site en particulier.

Tout tentative d'explication est bonne à prendre, inutile de s'énerver.

Même chose pour l'admin:
"inutile de cracher sur un site en particulier, ça n'apporte rien à la discussion et me pose des pb en tant qu'admin"

J'ai déjà vu "cracher" sur pas mal de sites sans que cela ne semble poser de problème.
C'est vrai que c'est un site affilié à WRI, ce n'est donc pas le lieu pour pisser dessus :D
 
WRInaute accro
Je ne pense pas avoir dit que cet article concernait mon site. J'ai simplement évoqué le fait que cette théorie était caduque et ne tenait pas debout, en prenant pour exemple mon site.
 
WRInaute passionné
crindor a dit:
WebRankInfo a dit:
Par contre je n'ai pas bien compris ce que keybox comporte de nouveau ?

bah, rien de nouveau effectivement, on en parlait déjà en 2006
https://www.webrankinfo.com/forum/t/referencement-peut-on-etre-puni-sur-un-seul-mot.60530/

en effet la pénalité spécifique aux mots-clés n'est pas nouvelle, il y a eu d'autres posts sur le sujet; le problème des agrégateurs semble, lui, un peu plus récent, du moins au vu des stats des sites concernés.

mais sans doute auront-nous plus de précisions sur ces stats lorsque les courbes Google Trends Websites seront mises à jour pour le mois de juillet. le facteur saisonnier n'est pas à négliger non plus.

non, ce que j'ai proposé de nouveau, c'est les deux noms qui permettraient de préciser tel ou tel type de pénalité, et de plus facilement s'entendre sur certaines discussions concernant les pénalités. évidemment, si ces pénalités sont fantasques ou inexistantes, il convient de ne pas utiliser ces termes. on peut aussi carrément s'avouer vaincus et affirmer que les couches de filtres sont devenues inextricables.

je remets donc ici le titre du topic:
deux nouveaux noms pour deux pénalités

un extrait de mon premier post:
[...]néologisme[...]De cette réfexion naissent donc deux nouveaux termes[...]

et un extrait du billet
...le terme keybox me semble bien décrire ce qu’il se passe pour certains sites...

je ne parle pas de nouvelles pénalités, en tout cas pour ce qui est de la pénalisation des mots-clés trop ciblés, et je précise bien dans l'article, quant aux causes de ces pénalités, que se sont des hypothèses. j'ai effectivement écrit "néo-pénalités" au pluriel dans mon article, mais c'est mis entre guillemets et le terme "néo-logismes" aurait été certes plus approprié que "néo-pénalités".

disons donc qu'il s'agit d'une proposition de deux nouveaux termes pour des pénalités dont l'une est déjà connue.

donc inutile de s'emballer, en fait. :roll:
 
WRInaute passionné
achtungbaby a dit:
J'ai perdu 70 à 75% de mes visiteurs par moteur, non pas sur ces fameux mots clefs mais sur ce qu'on appelle la longue queue, donc des mots ou phrases clefs sur lesquels il n'y a aucun référencement.
ce n'est pas parce qu'une pénalité n'explique pas la tienne qu'elle n'existe pas. le pb de la longue traine qui devient plus difficile, j'en ai parlé dans ce post. qui date d'ailleurs... du 26 juin.
;)
 
WRInaute occasionnel
WebRankInfo a dit:
Pour revenir au sujet : l'idée de la variation des ancres de liens est bonne (quoique ancienne) mais ne me semble pas à propos. D'une part on trouve de trop nombreux contre-exemples sur les sites concernés, d'autre part les chutes de positionnement sont plus vastes que ça ne l'aurait été avec cette cause.

La piste des flux est sans doute à creuser, mais j'ai l'impression qu'elle ne colle pas non plus à ce qu'on constate. D'ailleurs il me semble qu'il y a des sites qui n'utilisent pas les flux et qui ont été pénalisés.

L'algo de Google est devenu une telle accumulation de couches de filtres qu'il sera sans doute très difficile de trouver une explication qui corresponde à l'ensemble des cas étudiés...

Olivier

Là je partage que trop bien ces dires, nous assistons à un trop grands déclassements, de sites n'ayant aucun points commun (dans leur globalité) qu'il n'est a priori pas possible d'extrapoler sur une Keymachin ou une feddtruc, les appellations tout a fait farfelu, n'ont de réponses que sur un panel de sites trop restreint, si je prends les miens, pas de RSS n'y sur-op. Dois je en conclure que c'est pour cela ?

Non, quand bien même j'en aurait 74200 sites comme celui-ci !

Des réseaux aussi différents qu’identiques sont touchés, des sites outre manche et outre atlantique, ne sont pas épargnés, et quand on en regarde certain qui sortent du lot on s'aperçoit qu'ils n'ont rien avoir avec nos sites, mais on se fait retourner le cerveau en s'apercevant que 100 autre sont identiques...

Ce que j'ai remarqué également (à ma plus grande surprise), c'est que certain petits sites étaient touchés, c'est moi flagrants, puisqu'ils n'ont que 1000 ou 1500 visiteurs par jours voir moins d'ailleurs, et ils représentent une plus large quantité. Ils m'étaient passés inaperçus puisqu'insignifiants et donc pas d'alexa, Yoovi et autre outils.

En gros, soit nous rejoignons l'idée d'Olivier, qui mets le down-grade sur le compte d'un énième filtre qui mis bout à bout ont tués notre trafic (et là je penche vers cette solution) soit vers les idées (Hawk & co ) du Feed qui finalement n'est pas nouvelle, puisque mettez un lien vers un site de C** sur toutes vos pages home comprise, et vous devriez comprendre votre douleur.

Depuis déjà 2 ans ceux qui ont des sites pour adultes sont dans notre M** ils ont fait avec, mieux, ils nous apprennent comment s'en sortir ;)

J'ai vu récemment ces pénalités qui m'étaient inconnue, j'ai donc demandé à sur les forums de web adulte , pour me confirmer que rien n'était nouveau, sauf, que là cela s'étant aux sites normaux...

Blocage sur les keywords, blocage de voisinage, blocage sur les pages d'un sites blocage duplicate, blocage de récupe etc...

Messieurs je vous donne peut être une solution, nous sommes considérez comme les sites pour adultes, avec 2 ans de retard et GG applique tous les filtres connus en une fois sur un sites....
 
WRInaute accro
Ce que j'ai remarqué, sur celui de mes sites qui a été touché, c'est que la "keybox" frappait des mots clés sur lesquels j'avais effectivement beaucoup forcé dans les ancres, mais qui sont peu présents sur le site.

Ce qui est très clair, c'est que les filtres de Google deviennent de plus en plus complexes, et qu'à moins de très bien connaitre le site, une analyse rapide ne permet pas de tirer une règle, parce que les cas filtrés sont plus divers, et que les outils actuels ne les analysent pas.
Pour faire la constatation que j'ai faite, ou que Carole a faite sur ses sites, il faut analyser conjointement les liens externes et la densité des mots clés en interne, avec la répartition de ces mots clés dans les pages, les balises, etc...

Combien d'entre nous ont la possibilité de faire une analyse statistique fiable sur ce genre de choses ?
 
WRInaute accro
Re: KeyBox et FeedBox, deux nouveaux noms pour deux pénalité

carole heinz a dit:
Dans la lignée très "in" des néologismes concernant les nouvelles pénalités/filtres Google (dernière en date: la random penalty) j'expose dans mon blog mon point de vue concernant ce qui se passe depuis quelques mois sur les SERPs Google.

De cette réfexion naissent donc deux nouveaux termes: les pénalités KeyBox et FeedBox.
Comme quoi on peut tout lire et tout conclure (moi perso je ne crois pas a la notion de keybox (cf contre exemple plus bas) et peut être un peu plus a la feedbox ... Mais bon comme d'autres font le constat strictement inverse (ok pour key et niet pour feed), de là à conclure que ni l'un ni l'autre ne sont pertinents ... :roll:

Contre exemple : Sur Yag, quasiment 70/80 % des BL sont ancrés "annuaire webmaster" depuis le debut (ca en fait quelques dizaines de milliers !!!! Et depuis 3 ans voila le résultat :

3eme sur "annuaire"
https://www.google.fr/search?client=fire ... ogle&meta=

5eme sur "webmaster"
https://www.google.fr/search?hl=fr&rlz=1 ... cher&meta=

1er sur "annuaire webmaster"
https://www.google.fr/search?client=fire ... ogle&meta=

Where is keybox ?

[Précaution oratoire]Désolé Hawk de "tout ramener à Yag" selon ta formule préférée mais lorsque j'argumente, j'aime bien appuyer mon propos avec du concret et le concret dont je dispose est celui ... de mes sites.[/Précaution oratoire]

PS :
- Sur "annuaire", de mémoire, j'ai pas le souvenir qu'on soit reparti plus loin que page 2
- Sur "webmaster" : là je sais pas, je viens de me souvenir de cette requete dans le cadre de ce topic mais je la suivais pas plus que cela.
- Sur "annuaire webmaster", je pense qu'on est 1er depuis quasiment 3 ans.

J'ai donc un peu de mal avec "Mistress Keybox" :wink:
 
WRInaute occasionnel
carole heinz a dit:
nous appellerons donc ça la PornBox, je m'en vais faire un billet :mrgreen:
ILs seraient certainement heureux de te lire.. ;)

Marie-Aude a dit:
Pour faire la constatation que j'ai faite, ou que Carole a faite sur ses sites, il faut analyser conjointement les liens externes et la densité des mots clés en interne, avec la répartition de ces mots clés dans les pages, les balises, etc... ?

Sauf votre respect Carole et Aude, vous parraissez être à coté de la plaque....

Vous et certains d'entre vous, mon appris le ref, mais là, je sent une panique sans nom, dans votre monde, reprenez vous, concertez vous, mince, avec la quantité de sites qu'il vous est possible d'étudier, vous testez (selon votre propre aveux ) qu'un ou deux sites de votre réseau ...

Non, non, comme le dit une estimé wrinaute Szarah reprenez vous analysez, épluchez, mince, arrêtez de vous, je cite : Désindexer" avec de futiles explications..

En bref, revenez sur le devant de la scène, comme en 2004 .... ou les cigognes n'attendaient pas d'être chaudes pour être mangées...
 
WRInaute occasionnel
carole heinz a dit:
ben moi perso ça va (sauf quand je me fais un peu casser mais bon faut assumer, hein), et toi sinon ça va comment?

L'idée n'était pas là.. et merci Je vais bien, mais j'irais encore mieux, quand tout sera limpide et doux que le chant suave ventilateur de mon serveur reprendra du à la surchauffe...

Comme vous non ?
 
Nouveau WRInaute
je trouve que la pénalité du 26 au 27 juin concerne beaucoup de site utilisant du contenu externe (RSS, etc...), et si un nouveau filtre google permettant de repérer un ratio contenu duplicate / contenu original sur un site donné avait vu le jour ?
(j'ai regardé sur alexa les stats de plusieurs sites utilisant du contenu RSS ou contenu externe (sites célèbre et moins connu, j'en connais quelques un), et le constat est le même, lors de la nuit du 26 au 27 ils ont tous subit cette sanction...)

Rocca
 
WRInaute occasionnel
pour les sites adultes ?

depuis deux ans ils subissent exactement ce qui se passe aujourd'hui, des filtres, des filtres, et encore des filtres... même les plus honnêtes, n'arrivent à paraître que sur 1 mot clef, et le reste de leur trafic n'est du qu'à des refer, des pubs etc...

Sérieux vous n'avez jamais fait un lien (footer) vers un site clairement identifié comme XXXX ? les filtres de mauvais voisinages vous plombe direct, vous ne vous sérieusement pas posez la question, de pourquoi nous ne nous fréquentons pas ? (web adultes et le classic)

Ils ne sont touts simplement pas fréquentable

Non plus sérieusement, je vous assures demandez à un copains vivant du web adulte de vous parler de ses techniques de promotions "naturelles" (pub, ref nat, affil etc.. pas black )
et demandez lui pourquoi il ne fait pas autrement que du bon gros lien avec de bonne ancres, et de vraies pages optimisées...

outre atlantique et ici même réponses , : GG nous aiment pas...
 
WRInaute accro
Re: KeyBox et FeedBox, deux nouveaux noms pour deux pénalité

Zecat a dit:
Contre exemple : Sur Yag, quasiment 70/80 % des BL sont ancrés "annuaire webmaster" depuis le debut (ca en fait quelques dizaines de milliers !!!!

Comme on l'a déjà précisé, ça ne touche pas tout le monde au même moment. Tu peux voir que certains sont tombés depuis plusieurs mois déjà, d'autres depuis 3 semaines seulement, certains depuis quelques jours à peine.

Ne généralisons donc pas, dans les deux sens: ni en exemples, ni en contre-exemples.

Mon avis est et reste que si la pénalisation (ou le recadrage, car on parle de "pénalité", mais rien ne dit que les sites "pénalisés" méritaient leur positionnement au préalable) requiert une très lourde analyse et le dépassement suffisamment franc d'un certain seuil de tolérance par un "spam score" attribué sur base de multiples critères, dont -par exemple et sans exhaustivité- le duplicate content, la qualité des IBL (référencement foireux), la qualité des OBL (mauvais voisinage), la "quantité appréciable" d'optimisation / suroptimisation, (etc...), et donc des ressources importantes pour calculer tout ça, on assiste naturellement à des vagues de pénalisation, auxquelles on peut échapper -ou pas.
 
WRInaute accro
Neillys a dit:
Je sens une panique sans nom, dans votre monde, reprenez vous, concertez vous, mince, avec la quantité de sites qu'il vous est possible d'étudier, vous testez (selon votre propre aveux ) qu'un ou deux sites de votre réseau ...

Je crois qu'on ca se calmer sur les interprétations psychologiques.

Quant à savoir sur combien de sites je teste et je regarde, je te rassure, mon réseau est assez large pour me permettre d'en voir plusieurs. Et sur certaines requêtes, d'avoir une connaissance détaillée des vingt sites qui se partagent les trois premières pages....

Et quand tu vois un truc très spécifique, qui ne s'est jamais produit avant, se produire uniquement pour un ou deux sites, et que tu sais, que justement cela correspond pour ceux là à ce que décris Carole, et qu'en plus tu sais, parce que tu surveilles ces requêtes, que les autres sites n'ont pas fait la même chose... disons que tu peux te permettre d'avoir une intuition hypothétique.

De toutes façons, la conclusion réelle c'est qu'une seule règle n'explique pas tout.
 
WRInaute occasionnel
Re: KeyBox et FeedBox, deux nouveaux noms pour deux pénalité

HawkEye a dit:
Ne généralisons donc pas, dans les deux sens: ni en exemples, ni en contre-exemples.
+1 C'est ce que je me tue à répeter.. pas un test sur un site, mais faites Des tests sur des sites .. et pas du même réseau


Mon avis est et reste que si la pénalisation (ou le recadrage, car on parle de "pénalité", mais rien ne dit que les sites "pénalisés" méritaient leur positionnement au préalable) requiert une très lourde analyse et le dépassement suffisamment franc d'un certain seuil de tolérance par un "spam score" attribué sur base de multiples critères, dont -par exemple et sans exhaustivité- le duplicate content, la qualité des IBL (référencement foireux), la qualité des OBL (mauvais voisinage), la "quantité appréciable" d'optimisation / suroptimisation, (etc...), et donc des ressources importantes pour calculer tout ça, on assiste naturellement à des vagues de pénalisation, auxquelles on peut échapper -ou pas. [/quote]

J'insiste Hawk (désolé) il est tellement moins couteux en gestion serveurs une fois analyse faite, de plomber tout le réseau que je ne vois tjs pas pourquoi tout un reseau n'est pas touché... ?

rocca a dit:
(j'ai regardé sur alexa les stats de plusieurs sites utilisant du contenu RSS ou contenu externe (sites célèbre et moins connu, j'en connais quelques un), et le constat est le même, lors de la nuit du 26 au 27 ils ont tous subit cette sanction...)

Rocca

Tu n'as regardé que ce que tu voulais voir, beaucoup de sites au contenu propre n'ont pas subit ces sanctions
 
Nouveau WRInaute
ca fait quand meme un sacré point commun, j'ai regardé TOUS les sites que je connaissais proche (même techniques d'indexation et de capture de contenu) d'un de mes sites qui avait été sanctionné, ils ont TOUS subit cette sanction...
 
WRInaute occasionnel
Marie-Aude a dit:
tu peux te permettre d'avoir une intuition hypothétique.

De toutes façons, la conclusion réelle c'est qu'une seule règle n'explique pas tout.

Là je suis d'accord..

Mais le probléme de ce que tu dis (pour moi) c'est l'analyse de ton réseau... mais nous avons tous la facheuse tendance à coder sur les même bases, mailler de la même facon etc... même si nous ne le voulons pas, nous avons tjs une marque de fabrique, c'est domage mais c'est comme cela.

Au moins j'aurai réussi à vous faire venir ici à 00h30 ... ;)

Je vous remercie pour vos lectures, et attend avec impatience les prochaines.


rocca a dit:
ca fait quand meme un sacré point commun, j'ai regardé TOUS les sites que je connaissais proche (même techniques d'indexation et de capture de contenu) d'un de mes sites qui avait été sanctionné, ils ont TOUS subit cette sanction...
c'est ce que je dis, tu ne regardes que ce que tu veux regarder... ;)


Bonne nuit à tous ;)
 
WRInaute impliqué
perso, Carole, je trouve ta reflexion sur le sujet assez interessante, et si j'etais google, j'appliquerais ces pénalités

par contre la random penalty, comme vous dites, me semble absurde

:arrow:
 
WRInaute accro
Neillys a dit:
Mais le probléme de ce que tu dis (pour moi) c'est l'analyse de ton réseau... mais nous avons tous la facheuse tendance à coder sur les même bases, mailler de la même facon etc...

Oui mais "mon réseau" ce n'est pas que "mes sites" (construits par moi) ce sont aussi des sites où je fais simplement le référencement, ou des concurrents analysés de très très près ...

Bonne nuit aussi
 
WRInaute occasionnel
Marie-Aude a dit:
Oui mais "mon réseau" ce n'est pas que "mes sites" (construits par moi) ce sont aussi des sites où je fais simplement le référencement, ou des concurrents analysés de très très près ...

Bonne nuit aussi

c'est là ou le bas blaisse, la je comprend mieux, mais puisque t'occupes de leur "Ref" ne leur prodigues tu pas les même soins, plus ou moins grands.

L'explication que vous voyez explique les récupérateurs de contenus, mais pas les autres, et finalement les autre sont beaucoup plus nombreux..

Vous pensez en Seo, mais la plupart des administrateurs de sites ne sont pas des seo, et donc n'optimisent pas autant, ou si bien etc... leurs sites, donc, en effet là ou je pense que O. et vous voyez juste, c'est dans l'application de plusieurs filtre successifs et la ou j'ai besoins de vous lire c'est pour savoir lesquels... ;)

Bonne journée ;)
 
WRInaute accro
Neillys a dit:
J'insiste Hawk (désolé) il est tellement moins couteux en gestion serveurs une fois analyse faite, de plomber tout le réseau que je ne vois tjs pas pourquoi tout un reseau n'est pas touché... ?

Il n'y a pas à être désolé, on est là pour confronter nos opinions ;)

Si le réseau (facile à identifier, j'en conviens) mérite "sanction", il est étonnant effectivement qu'il ne soit pas totalement pénalisé, mais le fait qu'un site d'un même réseau soit un mouton noir ne signifie pas que le réseau entier est gangréné...
Sinon on peut carrément éteindre l'Internet et aller se faire un Mario Kart :D

Par contre, il serait concevable qu'une pénalité puisse déteindre (avec le temps), d'un site pénalisé vers d'autres sites, mais en remontant vers les "responsabilités identifiables"... et les "responsables identifiables", ce sont les sites qui fournissent des liens aux sites pénalisés (on est responsable de ses liens sortants bien plus que de ses liens entrants ;)).

Je dirais donc que ce qui peut devenir pénalisant à [batch+1], c'est de fournir un linking non-naturel à un site pénalis[é/able].

Exemple:
[siteA] est un gros spammeur
[siteB] est un gros brave

[siteA] se fait choper, et est pénalisé
[siteB], partenaire de [siteA], fait du massive footer linking vers [siteA].

--> [siteB] prend une poutre.



(c'est vulgarisé et limité, mais tu vois le sens)
 
WRInaute accro
ça n'explique pas non plus pourquoi certains sites qui correspondent à ton hypothèse passe au travers. A partir de la, il me semble difficile de la prendre pour argent comptant.
 
WRInaute discret
Pénalités = équipe qualité chez Google

Bonjour,

Une équipe qualité gère le coeur du moteur de recherche chez Google ( voici un lien vers une traduction de son ingénieur en chef)

Ce qui est rapporté par rapport à des pénalités sélectives qui touchent des segments précis de la toile ( comme les sites adultes) n'est pas un fantasme.

J'ai perdu l'interview d'un ingénieur qualité Googlien qui expliquait que l'équipe qualité, dans sa lutte anti spamm, travaillait par cibles catégorielles, choisies par des humains pour définir dans la catégorie donnée des sites de référence ( d'aucuns ont appelé cela l'laboration d'une base de trustrank). Le travail semblait long et ardu, les vagues d'ajustements majeures correspondent aux cibles déjà traitées.

Selon moi , L'index Google serait structuré comme un annuaire, et les modification d'algo peuvent ne toucher que les catégories liées à cet annuaire. Une fois les réglages opérés, l'algo peut -être étendu à partie ou totalité du web.

C'est pourquoi je préfère parler de dégâts collatéraux que de pénalités. Quand une tranche d'algo est transposé d'une catégorie ou il semble bien fonctionner vers des catégories plus larges, Google n'étant pas un moteur sémantique, il arrive que la qualité d'un contenu ne contrebalance pas l'aveuglement des filtres. D'ou dégâts collatéraux.

Pour la Feed Box, c'est marrant, mais il ya quelques mois, j'avais le sentiment que GG ne savait pas quoi faire des flux xml-rss. dans un premier temps, les feeds ressortaient dans les résultats naturels en très bonne position. Puis curieusement les pages XML ont disparu mime de GG webmaster tools, et quand on faisait une requête sur les répertoires contenant les fichiers XML, ils semblaient balcklistés !!! aucun résultat ..

puis à présent les flux rss et xml natifs sont revenus dans les résultats et dans GGwT. Que l'équipe qualité ce soit penchée de près sur les aggrégateurs ne fait aucun doute pour moi.
 
WRInaute accro
A véritablement chacun a un avis très divergent, c'est vraiment intéressant. Le mien est plutôt proche de celui de Zecat, Olivier D et achtungbaby vous l'avez compris.

Mention spéciale pour Neillys et Zantar qui nous apportent un nouvel éclairage : la catégorisation du web, éclairage intéressant puisqu'effectivement il pourrait expliquer la variété des sites touchés. Quand bien même les causes semblent être différentes (par exemple je ne crois pas du tout au "mauvais voisinage").

@+
 
WRInaute discret
Baisse de fréquentation

Une modeste contribution pour expliquer les baisses de fréquentation constatées :

Tout le monde a constaté que l'effet longue traine a sensiblement été réduit. Et personnellement je trouve cela bien dans la mesure où je trouvais ridicule le fait de devoir mettre des **** quand on évoquait "les escargots de mésopotamie" sur un forum de formule1 afin de ne pas se faire passer devant.

Désormais place aux sites spécialisés : vous montez plus facilement avec qelques pages d'un site spécialisé qu'avec des centaines de pages d'un site généraliste. Hélas GG n'est pas encore capable de faire la corrélation totale sur toutes les ramifications et interdépendances d'un secteur d'activités ou de connaissance.
Alors les derniers ajustements font que les requêtes remontent vers la thématique principale de la home.
 
Olivier Duffez (admin)
Membre du personnel
Re: Baisse de fréquentation

Zantar a dit:
Une modeste contribution pour expliquer les baisses de fréquentation constatées :

Tout le monde a constaté que l'effet longue traine a sensiblement été réduit. Et personnellement je trouve cela bien dans la mesure où je trouvais ridicule le fait de devoir mettre des **** quand on évoquait "les escargots de mésopotamie" sur un forum de formule1 afin de ne pas se faire passer devant.

Désormais place aux sites spécialisés : vous montez plus facilement avec qelques pages d'un site spécialisé qu'avec des centaines de pages d'un site généraliste. Hélas GG n'est pas encore capable de faire la corrélation totale sur toutes les ramifications et interdépendances d'un secteur d'activités ou de connaissance.
Alors les derniers ajustements font que les requêtes remontent vers la thématique principale de la home.
j'ai bien aimé ton post précédent (concernant la catégorisation du web) mais par contre je ne suis pas du tout d'accord avec celui-là. J'ai encore plein d'exemples de gros portails qui sortent bien mieux que des sites spécialisés. Je ne dis pas qu'un jour ce que tu dis se constatera mais pour ma part ce n'est pas ce que j'observe.
 
WRInaute accro
Re: Baisse de fréquentation

Zantar a dit:
Tout le monde a constaté que l'effet longue traine a sensiblement été réduit. Et personnellement je trouve cela bien dans la mesure où je trouvais ridicule le fait de devoir mettre des **** quand on évoquait "les escargots de mésopotamie" sur un forum de formule1 afin de ne pas se faire passer devant.

Sauf que l'effet longue traine était pertinent sur mon site. je voudrais citer (sans critiquer) le site commentcamarche qui est completement dans la longue traine, et qui se place sur un nombre impressionnant de requetes. Il ne semble pas avoir été impacté par ces filtres/penalité/bug.

Et comme dit Olivier, ton premier post me parait plus pertinent.
 
Nouveau WRInaute
Re: Baisse de fréquentation

Je rajouterais simplement, pour étoffer un peu le débat, qu'il ne faut pas oublier que les mois de Juillet / aout (et fin juin), sont clairement des mois atypiques. Pour continuer dans ce sens, prouvé ou pas, je reste convaincu que certaines thématiques sont soumises à un véritable effet de saisonnalité.

Dans le petit monde de la moto, j'ai ''l'impression'' que les résultats changent énormément de Mai/Juin jusqu'à fin septembre.


Je ne dis pas que c'est la solution au problème, mais peut être un critère à prendre en compte ?
 
WRInaute discret
Effet de longue traine

Webrankinfo

mais par contre je ne suis pas du tout d'accord avec celui-là. J'ai encore plein d'exemples de gros portails qui sortent bien mieux que des sites spécialisés.

L’algo est devenu géologique , stratifié.

Le noyau du moteur continue toujours de fonctionner sur le triptyque : Ancienneté, Linking , PR pour classer des pages à contenu « jugé » équivalent. Appelons ces trois critères ALP ou paramètres historiques du moteur. Ces paramètres historiques peuvent être soit légitimes soit « usurpés. ( achat de lien, spamm etc..)

Le moteur , dans sa recherche de qualité, est bloqué par ces paramètres pour promouvoir des sites jeunes et non linkés, (faible ALP) mais dont la qualité du contenu a été détectée grâce l’amélioration de la partie sémantique du moteur.
On voit ces sites remonter à côté de mastodontes puis disparaître pour réapparaître.

Intervient une autre équipe qualité, et dans un second temps qui pour une requête donnée ou une catégorie sémantique donnée va faire dégager les sites « usurpateurs » de pertinence. Là les filtres vont outrepasser toutes les critères ALP pour faire plonger le gros sites, mais en épargnant les sites encore jugés de confiance, même s’ils se positionnent par effet de longue traîne.

Donc ce que j’ai décris dans le post précédent est la première phase : on fait monter les petits sites pertinents, par a coups puis vient le filtrage sans appel des mois plus tard quand les catégories gênantes auront été identifiées et sanctionnées avec les dégâts collatéraux signalés plus haut.
 
WRInaute accro
Il y a un effet saisonnier c'est évident, mais cela représente une baisse de trafic de l'ordre de 20 à 30% selon les thématiques.

La on parle de déclassement massif, avec des baisses de trafic largement supérieures à 50%.
 
WRInaute discret
Effet de longue traine

Je connais très bien l'effet "commentcamarche" et avant lui dico du net. Qui sont devenus des références dans mon domaine grâce à un seul lien !

Lors d'une mise à jour catégorielle et donc de "nettoyage" les sites à Fort ALP par effet de vases communicants, profitent d'un pic de longue traine impressionnant, ces effets de YOYo disparaitront quand le moteur décidera un jour de sursoir à ses paramètres historiques et pourra propulser en première place une page son simple contenu. Mais cela suppoerait une refonte totale de l'algorithme. Par ailleurs le moteur y arrive très bien et devient très pertinent dans des domaines non concurrentiels, c'est-à-dire des requêtes où ne prédominent pas les sites à fort ALP.
 
WRInaute passionné
Re: Baisse de fréquentation

popov a dit:
Je rajouterais simplement, pour étoffer un peu le débat, qu'il ne faut pas oublier que les mois de Juillet / aout (et fin juin), sont clairement des mois atypiques. Pour continuer dans ce sens, prouvé ou pas, je reste convaincu que certaines thématiques sont soumises à un véritable effet de saisonnalité.
Je ne dis pas que c'est la solution au problème, mais peut être un critère à prendre en compte ?
oui c'est évident, d'ailleurs j'en parle dans l'article mais cette effet saison semble loin d'expliquer certaines chutes de trafic très marquées.
 
WRInaute discret
Re: Baisse de fréquentation

WebRankInfo a dit:
j'ai bien aimé ton post précédent (concernant la catégorisation du web) mais par contre je ne suis pas du tout d'accord avec celui-là. J'ai encore plein d'exemples de gros portails qui sortent bien mieux que des sites spécialisés. Je ne dis pas qu'un jour ce que tu dis se constatera mais pour ma part ce n'est pas ce que j'observe.

Ouai. Un simple exemple, tous les annuaires de voyage qui sont mieux classés sur une ville avec 5 lignes de texte et 2 photos que les sites totalement dédiés (suivez mon regard :))
 
WRInaute accro
Tu trouves peut-être ça très drôle et je te souhaite de ne pas te retrouver dans notre situation, car la ton humour en prendrait un sacré coup...
 
WRInaute passionné
Je me suis pris des baffes plus d'une fois.
De la à m'asseoir sur une pierre et pleurer. Pas mon truc.

Une pause dans le topic permet peut-etre de prendre de la hauteur...

Attention à la bluesbox
 
WRInaute accro
On verra quand ça t'arrivera. Quand tu n'as pas d'enjeux économiques c'est pas grave, quand tes revenus en dépendent le discours est différent.
 
WRInaute passionné
Cela fait environ 12 ans que je m'interesse au référencement et comme je te l'ai dit, des gamelles, j'en ai pris quelques une.

Il y a 5 mois, j'ai disparu de GG pour le site de ma société qui fait vivres 6 personnes. Alors les enjeux économiques, je connais. Je me suis empressé de ne rien faire (puisque je n'avais rien fait de mal), et 15 jours d'angoisse après, je retrouvais mes positions, 3 semaines plus tard, j'avais gagné des places sur toutes les requêtes majeures.

Dans le même ordre, j'ai un site (pas pour les enfants) qui fait le yoyo depuis 2 ans sur ma requête fétiche. J'en ai pris mon parti, deux semaines par mois en première page, ça me va bien car je n'ai pas mis tous mes oeufs dans ce panier.

Ce post était juste une note d'humour, prend du recul.

[EDIT]
Excusez moi, j'ai eu un gonflage de ballon du petit dernier en cours de route.

Pour le coté tripatouillage intellectuel, je m'intéresse autant que vous à toutes ces pénalités. En 12 ans (disons 10 carj'ai mis du temps à comprendre quelques bricoles) j'ai vu passer des alta vista, des yahoo puis GG et je me considère encore comme un vulgaire tripatouilleur face à l'armée de plusieurs milliers d'ingénieurs qui s'évertuent à maintenir propre un index de plusieurs milliards de pages web. Je ne suis pas certains que les dommages collatéraux lié à un déplacement de virgule dans un algo les empêchent de dormir.

En même temps, je les comprends, pourquoi le web permettrait il a quelques initiés de se passer de budget de communication pour exister ?

Les années m'ont appris que tout ce que l'on fait sans comm payante, ce sont des économies à faire pour les jours moins fastes. Quand à baser le modèle économique de son entreprise sur les résultats d'un moteur de recherche !!
N'importe quel étudiant en BEP vente prendrait cela pour de la folie si on y intègre pas (pour les périodes de vaches maigres) un budget de communication (adwords ou autre).

Maintenant, je comprends tes angoisses (et encore mieux les miennes car je vis les mêmes choses que toi) quand tu disparais de l'index de DIEU. Quand je disais prendre de la hauteur, c'est plus par rapport à une stratégie économique qu'à autre chose. Quoi que prendre un peu de hauteur sur des variations d'algo évite aussi de faire de grosses anneries en tripatouillant un site parfaitement conçu.

Sans rancune, et en te (vous, nous) souhaitant de meilleurs jours et de meilleurs positionnements

[/EDIT]
 
WRInaute passionné
En même temps, je comprends ce stress, je suis passé par là moi aussi...et j'y repasserai sans doute :cry:
 
WRInaute discret
J'adore ce type de post ou les arguments et contre arguments se suivent, certains wirinautes s'emballent ou se fachent et au bout du compte.... Rien de plus que du temps de perdu...

Webmasters depuis de nombreuses années, je me suis naturellement intéressé de très près au référencement, aux moteurs et à la valeur ajoutée que représenterait une implication quotidienne sur le sujet.

Et bien aujourd'hui ma seule certitude c'est que j'en ai pas !

Je m'imagine souvent au milieu de réunion des décideurs du "Dieu Google" qui du haut de leur hégémonie sans égal se délecte en nous contemplant nous débattre dans des théories fumeuses et fausses, en inventant déjà les prochaines pseudo-discussions sur leurs algo.

Quelle escroquerie sans pareille et quel buzz imparable !! :roll:

C'est dingue cette spirale infernale ou nous nous sommes tous laissé piégés, PR, sanctions, régles de positionnement, filtres et autres politiques de liens, plus personne ne sait ou se trouve la vérité et cette course au savoir sur les intentions de Google pour "gratter du positionnement" est devenu insupportable !

Moutons du Web réveillez-vous !! 8O

Tiens je lance un nouveau terme, la "bèèèèèèèèbox" ou la théorie de la brebis qui se fera toujours croquer quoi qui se passe !!
 
WRInaute accro
J'aime bien tous ces noms plus ou moins imagés destinés à expliquer quelque chose sur le référencement des sites, ... mais est-ce que ca sert à quelque chose d'imaginer des petites raisons quand on sait qu'il y en a tellement que http://blog.axe-net.fr/penalites-google/ doit être nettement trop faible vu le nombre de solutions.

Les pénalités datent pas d'aujourd'hui, ni de mars. La première grosse baffe date de décembre ...
Si on résumait un peu tout ce qui se passe depuis des mois:

Première tendance

-les pages et sites reprenant trop de liens par rapport au contenu sont dégagées de l'index, bonnes au niveau contenu ou pas n'est pas le problème.
- les pages d'annuaires sont pour la majorité dégagées.

Dans les 2 cas, ces pages (éventuellement sites) sont considérées comme ne servant qu'à faire des liens. Le problème, c'est quand c'es pages prennent une baffe, ce sont toutes celle en-dessous qui en prennent une.
But: supprimer les pages de transition

Deuxième tendance
Tout ce qui ressemble à du Duplicate content d'actualité, et on sait que Google actualité rapporte des visiteurs.
- Flux RSS pour la plupart, mais d'autres sont touchés.
But: probablement supprimer le contenu "non original", des copieurs de sites en font aussi les frais apparament.

Troisième tendance
- pages recevant trop de liens jugés peu naturels avec les même anchor. Probablement une manière de l'algo de déclasser les liens d'annuaires fait n'importe comment (on va dire automatique), mais ca semble jouer de plus en plus sur les liens internes
But: bloquer le passage en force sur des requêtes en 1 ou 2 mots.

Quatrième tendance- suppression de parties de sites avec des sous-parties reprenant un contenu vide. C'est souvent le problème de sites de petites annonces reprenant trop de catégories mais sanctionne également des annuaires. Et on retrouve souvent comme simples liens vers les pages incriminées la première tendance, sauf que GG supprime également les autres pages un peu remplies.

Cinquième tendance
- site soupconnés de vendre des liens

J'ai un peu relu https://www.webrankinfo.com/forum/t/referencement-les-penalites-de-google-depuis-mars-2008.94429/ (les pénalités depuis mars). A part les bricolages standards connu depuis des années, ceux qui se sont fait pénalisés n'ont rien changé sur leurs sites, les sites étaient vieux (même parfois très vieux) comme jeunes.
La solutions est soit dans la stratégie de liens externes (en entrée ou en sortie), soit dans le contenu internes (contenus et/ou méthodes des liens). Cherchez des sanctions spécifiques sur un site ou trouver de nouvelles raisons ... ne sert à rien. D'aillieurs, même la Sandbox... elle a beaucoup touché les sites qui débutaient avec un max de liens et une optimalisation à outrance, beaucoup moins les sites amateurs montés n'importe comment.
 
WRInaute passionné
merci pour ce résumé, Ybet.

dans tous les cas, le tendance de fond est la suivante:

il faut désormais référencer sans en avoir l'air.

(comprenne qui pourra.)
 
WRInaute accro
carole heinz a dit:
merci pour ce résumé, Ybet.

dans tous les cas, le tendance de fond est la suivante:

il faut désormais référencer sans en avoir l'air.

(comprenne qui pourra.)

Merci

J'ajouterai qu'il va nettement falloir penser à mettre les liens textes en milieu de contenus et pas en listes de liens. GG semble nettement apprécier les liens naturels et généralement ceux là sont contenus dans du texte.
 
WRInaute passionné
Ybet, en relisant ton post (qui résume bien les raisons de nos gamelles diverses), je me dis qu'elles ont tout de même du bon ces pénalités, elles nettoient le web de beaucoup de pollution.

Bien sûr, il y a des dommages collatéraux, GG est américain, c'est normal, ou du moins habituel :D

Et puis les referenceurs/webmasters trouveront toujours de nouvelles solutions pour polluer à nouveau parce que derrière tout cela, il y a des pepettes ! Quand on voit que dans certains coins de cette planète on tue pour 5 euros, alors pour 5000, tu imagines !

Alors bien sur, on pleure, on accuse Google, et éventuellement la terre entière, on maudit Page et Brin sur plusieurs générations et on retourne à son code.

J'aime bien ton approche par "tendances", et j'aimais aussi les "box" de Carole, qui ont le mérite de mettre un mot sur des concepts complexes, même si on est plus proche de la divination que de la science exacte, nous sommes tous d'accord la dessus.

Plegay et les autres, n'hésitez pas à ajouter vos "box" et l'explication jointe sur le blog, c'est fait pour cela :D
 
WRInaute discret
carole heinz a dit:
merci pour ce résumé, Ybet.

dans tous les cas, le tendance de fond est la suivante:

il faut désormais référencer sans en avoir l'air.

(comprenne qui pourra.)
Ou être un trop gros poisson pour se faire attraper.
Avoir trop de link juice pour se faire saisir sur un petit duplicate content.
 
WRInaute passionné
StopPR a dit:
carole heinz a dit:
merci pour ce résumé, Ybet.

dans tous les cas, le tendance de fond est la suivante:

il faut désormais référencer sans en avoir l'air.

(comprenne qui pourra.)
Ou être un trop gros poisson pour se faire attraper.
Avoir trop de link juice pour se faire saisir sur un petit duplicate content.

Ou dépenser tellement en adWords que GG peut oublier quelques écarts...
 
WRInaute passionné
HawkEye a dit:
dadovb a dit:
Ou dépenser tellement en adWords que GG peut oublier quelques écarts...

define:légende+urbaine

http://actu.abondance.com/2006-06/google-bmw.php

Je ne dis pas qu'il y a une incidence directe dans l'algo de positionnement, je n'y crois pas non plus. Mais comme tout société google a un regard plus bienveillant envers les clients qui lui filent plein de sous-sous. Je ne m'en plaint pas, c'est comme ça partout.

Ca m'étonnerais que toutes les demandes re-évaluation de sites se fassent aussi vite que celle de BMW... :wink:
 
WRInaute accro
Ben comme tout "grand compte", il y a une relation plus directe qu'avec le webmaster lambda.

Note qu'ils ne traitent que rarement avec le client final, mais plutôt avec l'agence qui est en charge du SEM du/des sites.
 
WRInaute accro
dadovb a dit:
HawkEye a dit:
dadovb a dit:
Ou dépenser tellement en adWords que GG peut oublier quelques écarts...

define:légende+urbaine

http://actu.abondance.com/2006-06/google-bmw.php

Je ne dis pas qu'il y a une incidence directe dans l'algo de positionnement, je n'y crois pas non plus. Mais comme tout société google a un regard plus bienveillant envers les clients qui lui filent plein de sous-sous. Je ne m'en plaint pas, c'est comme ça partout.

Ca m'étonnerais que toutes les demandes re-évaluation de sites se fassent aussi vite que celle de BMW... :wink:

déjà ca date de 2006 et à l'époque plusieurs boîtes de référencement avaient aussi pris une baffe .... Un peu vieille comme actualité pour faire des conclusions. Il aurait aussi pu envoyer dans les bas fonds quelques sites institutionnels du gouvernement français ... et actuellement, il pourrait même envoyer Microsoft sur la même planète. Tous les résultats des recherches sur les anciens systèmes d'exploitation renvoient une redirection vers Vista (rien que pour Vista, Crosoft mériterait une pénalité de Google :roll: ). Pourtant Microsoft corrige depuis quelques semaines. J'en conclut qu'il y a eut un petit échange de correspondance ... idem à l'époque pour les sites gouvernementaux.

D'aillieurs, pour les toutes grosses boîtes, la sanction doit être manuelle. Pour les autres (nous :evil: ), automatique et les trusted ont peut-être justement ce statut à part.

PS: sais pas s'ils viennent encore (de toute façon c'est anonymes), mais les responsables des sites gouvernementaux français venaient sur WRI très régulièrement. La preuve, on avait signalé ici qu'un de leur site était premier sur la recherche accueil et trois jours plus tards, ils avaient corrigé leur site :wink:
 
Discussions similaires
Haut