Google Panda update: bouleversement pour la langue anglaise ce lundi

Nouveau WRInaute
La Google panda update est maintenant opérationnelle pour tous les utilisateurs de Google en langue anglaise.
Info ici : http://googlewebmastercentral.blogspot.com/2011/04/high-quality-sites-algorithm-goes.html

Une modification dans les résultats Français était également visible aujourd'hui mais rien de vraiment extraordinaire de mon coté. Avant d'arriver en France le panda devra prendre des cours de Français apparemment. Avez-vous des news la dessus ?
 
WRInaute discret
Bonjour,

Mon site est en 4 langues dont l'anglais. Hier, 50% de visites en plus depuis google.com et google.co.uk et 15% depuis google.fr.
Difficile de tirer des conclusions définitives sur les résultats d'une seule journée, mais cela semble aller dans le bon sens pour moi. :)
A confirmer dans les jours à venir...
 
WRInaute accro
Bonjour

Que pensez-vous de cet article ? http://goo.gl/UyPSl

Ce qui m'interpelle, c'est le taux de rebond : sur certaines thématiques, il est inévitablement élevé non ? Par ex. lorsque l'on recherche une définition ou une traduction, une fois qu'on a l'info => on quitte la page.

(exemple parmi tant d'autres)

C'est typiquement le genre de site avec beaucoup de pages, "peu" (quantitativement) de contenu par page et des pubs au-dessus de la ligne de flottaison.

Je dis ça, je dis rien :roll: mais je pense qu'inéluctablement, un paquet de site va être pénalisé alors qu'il ne devrait pas l'être... Enfin, pas "réellement", car beaucoup apportent un réel service :)



(ps : je n'ai pas ce genre de site, par contre j'ai effectivement un site pas finalisé mais apportant du contenu exclusif et utile pour celles et ceux qui recherchent ce genre de chose, où je n'ai pas encore bossé le SEO et qui se retrouve quand même premier sur certaines requêtes, de quoi faire +400 VU/jour... 80% de taux de rebond, et des visites en moyenne à moins d'une minute : autant dire qu'il va probablement passer à la trappe !!!)
 
WRInaute discret
ça a peut-être à voir avec l'actualité du moment, non ?

oui, bien sûr sur une seule journée, on ne peut rien en conclure. Sauf que mon site n'est pas un site d'actualité (photos majoritairement orientées sur les châteaux, villes et villages). A part le futur mariage princier je ne vois pas ce qui pourrait faire monter brutalement l'intérêt de nos amis les anglais vers ces sujets.
Par ailleurs je n'ai pas constaté de variation notable sur des mots clés précis (ce qui est en général le cas pour un buzz d'actualité).

Mais comme je l'ai dit, cela reste à confirmer

A suivre.
 
WRInaute accro
cedric_g a dit:
80% de taux de rebond, et des visites en moyenne à moins d'une minute : autant dire qu'il va probablement passer à la trappe !!!)
non, le seul TR qui a un sens pour gg, c'est avec un retour dans les serp. Sinon un site optimisé internaute, où il trouverait sur une seule page toutes les infos qu'auparavant il trouvait sur 3-4 pages serait pénalisé.
En clair, comme pour les chasseurs "(c) les inconnus", il y a les bons taux de rebonds et les mauvais :wink:
- bon : l'internaute fait une recherche, arrive sur une page, a l'info qu'il veut, s'en va (et sait, ensuite, que sur ce site il trouve ce qu'il veut)
- mauvais : l'internaute fait une recherche, arrive sur une page, n'a pas l'info qu'il veut, retourne sur gg faire une autre recherche
 
WRInaute discret
cedric_g a dit:
Ce qui m'interpelle, c'est le taux de rebond : sur certaines thématiques, il est inévitablement élevé non ? Par ex. lorsque l'on recherche une définition ou une traduction, une fois qu'on a l'info => on quitte la page.

Il est par ailleurs ajouté dans le cas que tu cites "...et dans ce contexte, retournant sur Google pour refaire une recherche ou cliquer sur un autre résultat."
Personnellement, lorsque j'ai trouvé ce que je cherche, même en une page, je l'exploite et je ne retourne pas forcément faire une autre recherche immédiatement.
Sur ce dernier point il serait intéressant de savoir si le facteur temps a une importance dans l'algorithme. En effet lorsque je cherche quelque chose et que je trouve une page qui m'intéresse, j'y passe un minimum de temps avant d'aller ailleurs, même si je ne consulte qu'une page sur le site.
En d'autres termes, si l'ensemble de l'information pertinente et utile au visiteur est sur une seule page (le cas général d'un article), il peut bien en découler un taux de rebond important, mais si le visiteur "rebondit" de cette page au bout d'un certain temps, cela ne veut pas dire qu'elle soit sans intérêt .

Désolé Leonick, j'ai passé un peu de temps sur ce post et on s'est croisé, et je dis globalement la même chose au toi
 
WRInaute discret
L'article cité par Cédric indique:
Autre signal négatif, le fait d’avoir un nombre important de publicité sur votre site notamment au-dessus de la ligne de flottaison

Sur ce point, je voudrais ajouter que Google ne parle pas d'une seule voix sur ce point (ce ne sont pas les mêmes services...et on en voit des exemples tous les jours: je gagne de l'argent sur un produit que je pénalise par ailleurs)

Initialement, pour des raisons plutôt esthétiques j'avais mis relativement peu d'Adsense sur mon site: pas le maximum de pubs par page et réparties sur toute la longueur de la page, donc peu dans la partie visible.

Au fil du temps, j'ai reçu plusieurs messages de la part de Google, ciblés en vue d'optimiser mes revenus :
C'était d'abord de remonter les pubs dans les zones "chaudes" de la page, c'est à dire précisément au dessus de la ligne de flottaison.
Puis de faire le plein en nombre d'annonces de chaque type par page.

J'ai fait quelques modifications dans ce sens (qui se sont effectivement traduites en une augmentation relative de CTR et du CPM). Je ne pense pas avoir atteint un niveau excessif (donc pénalisé), mais c'est quand même un peu contradictoire surtout si l'algo est un peu trop sévère.

Comme quoi tout est affaire de modération...
 
WRInaute passionné
Ajan, Je crois que les équipes adsenses/adwords et celle s'occupant du moteur de recherche sont séparées...donc les recommandations de l'une, ne sont pas forcément celles de l'autre :D
 
WRInaute accro
Ajan a dit:
Sur ce point, je voudrais ajouter que Google ne parle pas d'une seule voix sur ce point (ce ne sont pas les mêmes services...et on en voit des exemples tous les jours: je gagne de l'argent sur un produit que je pénalise par ailleurs)
pas tout à fait, car ce qui intéresse google au niveau du réseau adsense, c'est surtout de récupérer des visiteurs non venus initialement dans les serp. Donc site avec fort ctr et visiteurs en provenance des serp, ça veut dire qu'il est trop bien positionné dans les serp et que gg aurait plutôt intérêt à privilégier les adwords dans ce cas.
Site avec fort ctr et visiteurs ne venant pas des serp de gg, très bon pour gg. Sauf si le ctr provient de méthodes borderlines
 
WRInaute passionné
Je suis impatient et inquiet à la fois de voir arriver ce gentil petit animal chez nous. Autant il peut être très gentil, mais il lui arrive visiblement de mordre, même ceux qui lui veulent du bien. :arrow:
 
WRInaute impliqué
Bonjour,

tonguide a dit:
Je suis impatient et inquiet à la fois de voir arriver ce gentil petit animal chez nous. Autant il peut être très gentil, mais il lui arrive visiblement de mordre, même ceux qui lui veulent du bien. :arrow:

C'est probablement comme le koala, c'est tout mignon en peluche, mais en vrai c'est super grognon et ces cris sont tous sauf agréable.
 
WRInaute accro
Bonjour

Juste une question bidon : peut-on avoir un équivalent des mesures de SearchMetrics pour d'autres sites que ceux listés ?

J'aimerais bien voir l'impact sur d'autres sites anglophones bien précis...
 
WRInaute discret
La mise à jour de Panda est effective mondialement (même en france) ! Mais seulement pour les utilisateurs de Google In English...

Pour savoir si notre site va être impacté par la Panda Update, que pensez-vous de mettre Google.com en English, puis de vérifier son positionnement en ne prenant pas compte des sites 100% anglais qui ressorte avant soi ?

J'aimerais votre avis si vous testez... Vos résultats sont-ils normaux ou pas ?
 
WRInaute discret
Euh non, google a indiqué que c'était actif sur TOUS les sites Google (google.fr y compris), mais uniquement pour les résultats en anglais.

Personnellement j'ai vu quelques modifications, donc à mon avis ça nous touche aussi sur certaines requêtes (peut-être que certains sites en anglais ont été pénalisés et que ça fait remonter certaines de mes pages au-dessus du coup?).
 
WRInaute discret
Je n'ai pas bien compris s'il fallait choisir les résultats en anglais, ou avoir un navigateur/OS en anglais, ou si ça touchait les résultats de pages en anglais, ou alors les résultats de requêtes avec des mots anglais.

Je pencherais pour les requêtes avec des mots anglais. Car j'ai remarqué que le ranking d'une de mes pages sur une requête de nom de produit (qui a un nom en anglais), a bougé entre dimanche et lundi (sur google.fr), comme par hasard...

Mais ce qui est clair, c'est que ça ne touche pas que google.com. Google.co.uk, .ca, etc, ont vu leurs résultats chamboulés aussi, ce qui n'était pas le cas avec le premier "panda".
 
WRInaute discret
Panda est appliqué sur les requêtes exprimées en anglais (c'est à dire composées de mots anglais). Et ceci est maintenant appliqué sur toutes les extensions nationales (.fr, .de, .be etc.).

Donc l'impact de Panda est différent selon les extensions, le pourcentage de requêtes à base de mots anglais étant bien plus important sur .com, .co.uk, .nz, .au à moindre titre sur .ca ... etc.

Donc en résumé si vos principales phrases clés sont en français, vous ne devriez pas ressentir encore les effets de ce nouvel algo .

Seules vos versions anglaises (si vous en avez) devraient être touchées.

Ceci étant dit, il y a de plus en plus de mots clés en anglais même sur des sites bien français :wink:

Et cela n'a rien à voir avec la langue de l'interface. Sauf que pour accéder automatiquement à une extension autre que .fr, vous devez positionner votre langue préférée dans la langue correspondante (en anglais pour .com ou .co.uk, en espagnol pour .es etc.).
 
WRInaute impliqué
C'est clair que certains prennent chers ...

wikio.co.uk : -90%
wikio.com : -95%
qype.co.uk : -95%

Je ne sais plus où j'ai lu ça, mais ce qui m'ennuie avec cet algorithme c'est qu'il suffit qu'une section de ton site soit considéré comme de "mauvaise qualité" pour que l'ensemble du site en pâtisse (pas comme certaines pénalités qui n'affectent qu'un répertoire voire même certaines pages).
Donc il va falloir aller à la pêche et cibler les sections à améliorer ou bien ... guillotiner (typiquement Français)
Tout ça en se basant sur les statistiques de rebonds et de temps de lecture.

Déjà que je ne m'ennuyai pas ... mais là j'ai pas fini :p
 
WRInaute discret
D'après cette liste, il me semble qu'il faut quand même abuser sur le duplicate content et/ou avoir des pages de très faible qualité (agrégateurs, pages avec peu de texte, etc.) pour être pénalisé ? J'ai envie de me dire qu'un site ayant du contenu assez original devrait s'en sortir sans dégât ?

Je pense à Gralon qui est un annuaire, il me semble que ça devrait bien se passer. Je n'ai jamais lu que les annuaires étaient particulièrement visés par cette mise à jour... Ça se saurait... Mais votre avis m'intéresse.

D'avance, merci.
 
WRInaute discret
Un petit aperçu visuel du régime alimentaire d'un Panda: ce qu'il aime (à part les feuilles d'eucalyptus bien sur !) et ce qu'il n'aime pas.

Les articles sont en anglais, mais l'image fera le reste...

http://www.hallam.biz/blog/2011/04/google-searchupdate-panda-farmer.html

http://www.impactmedia.co.uk/blog/s...rithm-update-what-sites-were-hit-and-why-589/

Après à chacun de voir en quoi son site ressemble (ou pas) à ces caricatures.

Note: "Farmer" était le premier nom donné à ce nouvel algo (sans doute pour trouver plus facilement les "content-farms"). Et puis on a appris que l'un des ingénieurs à l'origine de l'algo s'appelait Panda.

Et puis c'est plus mignon, non?
 
WRInaute discret
Vous pensez donc que Google analyserait les emplacement publicitaire... ? en total contradiction avec ses recommandations avec son programme AdSense... ! Pour chaque site, une analyse "visuelle" ?
 
WRInaute passionné
En parlant Panda et comme Wikio.com avait été pénalisé dans la 1ère vague, on constate que wikio.co.uk s'est également fait pénaliser lors du 2ème tour.

Cela est d'ailleurs indiqué par Google avec une jolie petite demande sur fond bleu ciel de se connecter et de suivre les conseils Webmasters... Ils ont de l'humour chez GG. :mrgreen:

A titre de comparaison, j'ai mis le Wikio.fr qui, lui, non pénalisé, n'a pas d'encadré bleuté...

anemone-clown_1302794925-wikio.jpg
 
WRInaute discret
tyler23 a dit:
Vous pensez donc que Google analyserait les emplacement publicitaire... ? en total contradiction avec ses recommandations avec son programme AdSense... ! Pour chaque site, une analyse "visuelle" ?

Je suis persuadé que l'algo Google a tout à fait les moyens de déterminer si un bloc est une publicité (et pas forcément de l'Adsense) et de déterminer précisément sa place dans le layout global de la page.

Détecter à coup sûr les pubs peut être une analyse assez complexe (sauf pour Adsense dont ils savent tout). C'est peut-être pour cela que l'algo dépend tellement de la langue. Ils doivent avoir une vision très précise du marché américain ou anglo-saxon, peut-être moins dans les autres pays. Ou il faut du temps pour garnir les databases avec toutes les données de l'analyse. Va savoir, Charles...

Pour ta 2ème remarque, j'avais déjà indiqué dans un post antérieur de ce fil qu'ils (les gars d'Adsense) m'avaient indiqué par un email personnalisé, avec exemple de mes pages à l'appui, que mes revenus pouvaient être maximisés en positionnant plus de pubs au dessus de la ligne de flottaison de la page (visible sans scrolling)... Donc ils analysent bien le layout des pages et comme tu l'indiques c'est bien contradictoire, sauf si tu as du bon contenu unique en contrepartie !

Mais business is business...

...et dommage, j'ai appliqué leurs conseils :mrgreen:
 
WRInaute accro
anemone-clown a dit:
En parlant Panda et comme Wikio.com avait été pénalisé dans la 1ère vague, on constate que wikio.co.uk s'est également fait pénaliser lors du 2ème tour.

Cela est d'ailleurs indiqué par Google avec une jolie petite demande sur fond bleu ciel de se connecter et de suivre les conseils Webmasters... Ils ont de l'humour chez GG. :mrgreen:

A titre de comparaison, j'ai mis le Wikio.fr qui, lui, non pénalisé, n'a pas d'encadré bleuté...

anemone-clown_1302794925-wikio.jpg


Je viens d'essayer avec une dizaine de sites, tous ont le pavé bleu :)
 
WRInaute accro
anemone-clown a dit:
A titre de comparaison, j'ai mis le Wikio.fr qui, lui, non pénalisé, n'a pas d'encadré bleuté...
ou bien c'est que le webmaster du .fr a déjà créé son compte GWT pour ce site :wink:
 
WRInaute accro
Euh j'ai testé sur mes propres sites, ils ont tous ce pavé bleu, ainsi que de gros sites connus (200KV/jour ou plus)
 
WRInaute passionné
En fait, cela semble simplement être une pub "promo" de GG finalement. Curieux car aucun site en .fr ne subit cette pub??? Seul le .fr semble exclu (j'ai essayé 3 .be que j'ai = carré bleu).

ps: moi aussi, je l'obtiens sur plusieurs sites, même des très petits à 100 VU/jour, avec la commande site:ndd.com
 
Nouveau WRInaute
Bonjour à toutes et tous.

J'ai lu cette info sur le monde.fr : http://www.lemonde.fr/technologies/article/2011/04/13/au-royaume-uni-le-changement-d-algorithme-de-google-provoque-des-remous_1507163_651865.html

Bien à vous !
 
Nouveau WRInaute
C'est simplement une pub "promo" de GG. A priori aucuns liens directs avec Panda US/EU/UK ou même Fukushima Daiichi. Même si cela semble en avoir les même effets dans les rangs :lol:

J'utilise tous les jours la console pour des .com et elle est en place ainsi depuis pas mal de semaines. Sans nul doute justement afin d'inciter les webmasters ou SEO, car présente quand on utilise certaines requêtes liés, à avoir un compte GWT et ainsi nous aider à affiner la qualité de notre site. Mais pas super intelligente comme Pub car même si on a déjà un compte GWT lié à la requête, il la propose semaines après semaines. Elle recherche donc vraiment à toucher tous les webmasters / SEO.

Mais en effet pas sur les requêtes site:ndd en .fr. Pourquoi ? Étrange ... Pour les 3 .be que tu as anemone-clown, tu fais la requêtes via la France ou via la Belgique ?
 
WRInaute occasionnel
A panda eats, shoots and leaves

Un bouquin sur la ponctuation en anglais a dit:
A panda walks into a café. He orders a sandwich, eats it, then draws a gun and proceeds to fire it at the other patrons.

'Why?' asks the confused, surviving waiter amidst the carnage, as the panda makes towards the exit. The panda produces a badly punctuated wildlife manual and tosses it over his shoulder.

'Well, I'm a panda,' he says, at the door. 'Look it up.'

The waiter turns to the relevant entry in the manual and, sure enough, finds an explanation. 'Panda. Large black-and-white bear-like mammal, native to China. Eats, shoots and leaves.'

Pour ceux qui n'ont pas compris : la virgule entre eats et shoots (germes) change le sens de la phrase vers le panda mange, tire et s'en va au lieu de mange des germes et des feuilles...

Je trouvais la phrase rigolote dans ce contexte aussi... :D
 
Olivier Duffez (admin)
Membre du personnel
Demand Media, société côtée en bourse depuis peu, éditrice des plus gros sites mondiaux de fermes de contenus, a vu son cours en bourse chuter de ~6% suite à la mise en place de Panda pour l'ensemble de la langue anglaise (source).
Il faut dire que cette fois-ci, il semblerait que eHow.cok.uk ce soit fait pénaliser, ce qui n'a pas été le cas pour son homologue US.
Pourtant pour l'instant on n'a que des analyses du style SearchMetrics. Elles seront peut-être bientôt confirmées par d'autres sources.
 
WRInaute passionné
Les 2 sites étant sensiblement identique, ça voudrait dire (si la version US n'est pas touché) qu'il y a des critères externes qui comptent beaucoup dans le choix de virer ou non un site ?
 
WRInaute passionné
Selon Alexa

-16 % Percent of global pageviews on ehow.com
-19% Percent of global Internet users who visit ehow.com
-5% The percentage of visits to ehow.com that came from a search engine

A suivre pour voir si cela se confirme.
 
WRInaute accro
cedric_g a dit:
Je viens d'essayer avec une dizaine de sites, tous ont le pavé bleu :)


Ca fait des mois que la commande site renvoit cette banderole: Panda n'est pas (encore) responsable de toutes les bizarretés de Google
 
WRInaute accro
Avant de paniquer, je ferais (pour nous tous) comme d'habitude attendre la première vague de descende en France, analyser les sites qui viennent de s'en prendre une et (comme d''habitude) faire les modifs d'usages.

Soyons logique, si j'ai bien tout compris, Google va attaquer les sites:
. avec un contenu pauvre en texte (c'est pas nouveau, il déclasse depuis deux ans les sites avec peu de contenu par rapport à la navigation)
. les sites bourrés de pubs (y compris adsence) et placée le plus flagrant possible pour que ca clique, là non plus ca va pas bouleverser les sites standards puisque deux pubs bien placées rapportent plus que trois qui clignotent de toute part (la stratégie généralement utilsiée par les sites de faibles intérêt qui se sont fait virer des grosses régies en ajoutant des fenêtres publicitaires pop-up à tour de bras).
. les sites avec un contenu tapé n'importe comment (les fermes de contenu) sur n'importe quel sujet et par n'importe qui (GG devrait vérifier le contenu des pages de Wiki au passage). Evidemment les webmasters qui essayent ce truc depuis pas mal de temps s'en prendront probablement une, mais la majorité des sites sont standards (je pense) avec un contenu qu'on essaye unique (et que GG s'empresse de déclasser pour du duplicate content). Ca m'ennuie un peu, puisque je connais quels que sites qui m'ont déclassé en copiant mes pages (ca pouvait toujours servir un jour ou l'autre :mrgreen: ), même si je doute que ma petite liste de sites externes sera déclassée.

Parie qu'on est reparti pour monter une équipe sur WRI (dans le dos) du forum pour essayer de comprendre toutes les viscosités de la bête :mrgreen: Moi, suis partant, j'adore jouer avec Google :oops: C'est pas la première fois qu'on monte une équipe, ni probablement la dernière, mais pour celà (comme dit au-dessus) il faut attendre les premiers déclassements DES MEMBRES de WRI (me fout complètement qu'une multinationale qui bricole s'en prenne une). Et comme a dit Marie-Aude

Ca m"'étonnerais que Google n'ait pas fait des tests avant de mettre ca en place
ou même
Click Busters a dit:
C'est simplement une pub "promo" de GG.

Petit rappel sur le référencement qu'on m'a donné comme conseil quand je suis arrivé ici en 2003, le référencement, c'est surtout de la patience.
 
WRInaute discret
Dans la société où je bosse, j'ai bien été impacté sur les sites en .com le 24 fev dernier.

Environ 20/30% de baisse, la raison, les fabricants qui reprenait leurs textes de leurs produits.
Pour l'instant, aucune solution économiquement viable a été trouvée de notre coté (refaire tous les textes est tout simplement impensable (+ de 80000) et surtout appartient à chaque client).
 
WRInaute accro
Nic'O a dit:
Dans la société où je bosse, j'ai bien été impacté sur les sites en .com le 24 fev dernier.

Environ 20/30% de baisse, la raison, les fabricants qui reprenait leurs textes de leurs produits.
Pour l'instant, aucune solution économiquement viable a été trouvée de notre coté (refaire tous les textes et tout simplement impensable et surtout appartient au client).
Un petit éclaircissemnt srait le bien venu.

Soit tu met en lignes des produits d'autres cliens qui mettent leur propre description, soit tiu vend des produits en reprenant les descriptions des fabricants?
 
WRInaute discret
ybet a dit:
Nic'O a dit:
Dans la société où je bosse, j'ai bien été impacté sur les sites en .com le 24 fev dernier.

Environ 20/30% de baisse, la raison, les fabricants qui reprenait leurs textes de leurs produits.
Pour l'instant, aucune solution économiquement viable a été trouvée de notre coté (refaire tous les textes et tout simplement impensable et surtout appartient au client).
Un petit éclaircissemnt srait le bien venu.

Soit tu met en lignes des produits d'autres cliens qui mettent leur propre description, soit tiu vend des produits en reprenant les descriptions des fabricants?

Il s'agit d'un portail permettant aux fabricants (pas les revendeurs) de mettre en avant leurs produits sur des fiches 'stands', depuis leurs fiches, on peut demander un devis, aller sur leurs sites, etc.., et quasiment tous les fabricants ne réécrivent pas leurs contenus et reprennent ceux de leurs sites.

On est donc considéré comme un agrégateur de contenus aux yeux de Google
 
Nouveau WRInaute
@Nic'O Les sites en .com de ta société sont en anglais ou partiellement en anglais ? Sinon ce n'est pas Panda qui en est la cause.
 
WRInaute discret
Click Busters a dit:
@Nic'O Les sites en .com de ta société sont en anglais ou partiellement en anglais ? Sinon ce n'est pas Panda qui en est la cause.

Tout en anglais ;-)

Et la cassure est net le 25 fev :)
 
Nouveau WRInaute
@Nic'O , merci pour ton coming out ... Et en effet, c'est sans appel :( Outre son côté agrégateur de contenus, il était optimisé pour le référencement ? Monétisé, via Adsense notamment ? La chute que vous avez eu sur le site, c'est sur certains mots clés spécifiques ou tous ? La chute a été brutale de 20/30% puis il s'est stabilisé ou alors cela continu a évoluer (en positif ou négatif) ?

@philastral suite à ton lien. Le prb, visible via ce genre d'article, c'est qu'il devient de plus en plus limpide que les directives du Moteur Google ne sont plus en adéquation avec celle de Google Adsense.

Si on suit les directives / conseils de Google Adsense, notamment celles notifiées dans le post de Thomas Tran (Optimization for HubPages and AdSense), on en vient à créer des pages optimisées pour le référencement et pour la monétisation via Adsense. Si on suit ces directives d'optimisation de formats et placement des Ads, notamment les divers mails de conseils que l'équipe Adsense nous envoient à répétition, les articles dans leurs blogs, ... on en vient à faire sur nos site ce que le Moteur Google lui réprouve à présent - et sanctionne via son Panda - et ce alors que c'est la même structure, même si ce sont des équipes différents. C'est en cela notamment que cela en devient vraiment kafkaïen.

Dieu des Pandaceaes, qui devons-nous suivre le blanc, le noir ? Il serait bon de savoir sur quelle patte danser. Alors soit ils font une réunion en interne pour se mettre en phase, ou alors annoncent clairement à tous que les directives de l'un ne sont plus pour plaire à l'autre.
 
Nouveau WRInaute
Bonjour,

Une question à se poser :

Google va sanctionner un peu plus le contenu dupliqué, mais quand je copie un texte d'une de mes pages de mon site à une autre page de mon site, vous pensez que cela rentre dans ce cadre de sanction, sachant que ce n'est pas de la duplication d'un texte d'un autre site vers mon site ?

J'ai trouve cet article panda particulièrement riche en infos : http://www.populaires.fr/11404-google-panda

Cordialement
 
WRInaute discret
Click Busters a dit:
@Nic'O , merci pour ton coming out ... Et en effet, c'est sans appel :( Outre son côté agrégateur de contenus, il était optimisé pour le référencement ? Monétisé, via Adsense notamment ? La chute que vous avez eu sur le site, c'est sur certains mots clés spécifiques ou tous ? La chute a été brutale de 20/30% puis il s'est stabilisé ou alors cela continu a évoluer (en positif ou négatif) ? .

Oui optimisé, nous sommes deux a temps plein pour ce portail, pas monetisé par adsense car le site est professionnel et a sa propre regie pub (une seule en header), Je pense que la chute est au niveau d'une page et non d'un mot clé.

Sinon oui brutale, 20/30% selon le type de page, et ensuite tout a été constant.

Le declassement va de la seconde page, a >100 (la page reste indexée).
 
WRInaute passionné
Nic'O a dit:
Je pense que la chute est au niveau d'une page et non d'un mot clé.
J'ai pas compris.

Ça signifie que vous avez perdu des places sur toutes vos requêtes ? Ça serait une pénalité globale.

Tu pourrais checker et nous faire un retour la-dessus ?
 
Nouveau WRInaute
heartjacking a dit:
Bonjour,

Une question à se poser :

Google va sanctionner un peu plus le contenu dupliqué, mais quand je copie un texte d'une de mes pages de mon site à une autre page de mon site, vous pensez que cela rentre dans ce cadre de sanction, sachant que ce n'est pas de la duplication d'un texte d'un autre site vers mon site ?


Up :)
 
WRInaute discret
heartjacking a dit:
heartjacking a dit:
Bonjour,

Une question à se poser :

Google va sanctionner un peu plus le contenu dupliqué, mais quand je copie un texte d'une de mes pages de mon site à une autre page de mon site, vous pensez que cela rentre dans ce cadre de sanction, sachant que ce n'est pas de la duplication d'un texte d'un autre site vers mon site ?


Up :)

Google sanctionne le duplicate content dans sa globalité. Que ce soit du dupicate content à l'intérieur de ton site ou du duplicate content entre ton site et un autre site, le résultat est le même. Un contenu est accesible à deux urls différentes et ça Google n'aime pas.

Il va falloir supprimer le contenu dupliqué, approter du contenu original et surtout s'assurer d'une qualité de texte optimale. (Que ce soit pour les nouveaux textes où les anciens qui peuvent être améliorés et/ou complétés).

Panda sanctionne le contenu de mauvaise qualité. Et le duplicate content est un de ses critères d'évaluations de la qualité d'un texte.
 
WRInaute accro
Jiraiya-15 a dit:
Google sanctionne le duplicate content dans sa globalité. Que ce soit du dupicate content à l'intérieur de ton site ou du duplicate content entre ton site et un autre site, le résultat est le même. Un contenu est accesible à deux urls différentes et ça Google n'aime pas.

Tu m'excuse mais ca c'est pas une nouveauté (ca date quand même de 3 ans) :mrgreen:
Jiraiya-15 a dit:
Il va falloir supprimer le contenu dupliqué, approter du contenu original et surtout s'assurer d'une qualité de texte optimale. (Que ce soit pour les nouveaux textes où les anciens qui peuvent être améliorés et/ou complétés).
Là non plus c'est pas nouveau (et rien à voire avec Panda). Me suis beaucoup occuper de duplicate content sur ce forum avec quelques autres:

1. Supprimer le contenu duppliqué ... sachant qu'il intervient avec à peine 5 mots de suite ...
2. et ... du contenu orgiginal .... signifie qui n'a pas encore été mis sur le WEB (on oublie un article sur un sujet existant)
3. On est à quelques uns à avoir travaillé sur des pages sanctionnées pour les faire réaparaître (deux équyipes de tests différentes deux ans de suite, plus des tests spécifiques l'année dernière), quasiment impossible (pas impossible mais en chengant complètement tout le contenu et en chengeant l'adresse de la page).

Tu base Panda comme une sanction pour le duplicate content (ce qui ne semble pas être le cas, c'est plus fort - ou plus annonce comerciale, même si Nic'O (site anglophone) a déjà donné les compétances. Je pense pas que son site se soit fait complètement casser (20% n'est pas une grosse baffe par rapport à ce qu'on a vu en fin 2007 - mais surtout en 2008 - avec quelques finalités en 2009). Un peu de lecture https://www.webrankinfo.com/forum/les-penalites-google-octobre-2007-sept-20 ... 99511.html (entre autre)

Jiraiya-15 a dit:
Panda sanctionne le contenu de mauvaise qualité. Et le duplicate content est un de ses critères d'évaluations de la qualité d'un texte.

Honnêtement, au moins 20 % des pages pénalisées par le duplicate étaient ... l'original (y compris des pages pas modifées depuis des années).


Le duplicate envoit des pénalités (pas forcément sur le bon site, preuve que GG est très loin d'être parfait dans son algorythme).
Cette fois, il y a deux solutions:
. soit GG digère mal que Bing reprenne du piol de la bête aux Etats-Unis (c'est une annonce commerciale en cassant quelques sites qui n'avaient pa été top touchés avant - le trustrank). Au passage, il vire quelques sites collaboratifs de très faible qualité -http://www.scribd.com comme copîeur notoire m'arrangerait ... ca fait deux ans qu'un serveur de chez mois interdit les visites de quelques pays centre-afrique MAIS http://trends.google.com/websites?q=http%3A%2F%2Fwww.scribd.com&geo=all&date=all Vu comme celà, c'est de la communication GG à la petite semaine .
. soit GG va essayer de virer des sites pas trop corrects qui insèrent des pubs ... adesence mais probablement d'autres.


En troisième, GG est de moins en moins exct dans ses résultats (c'est moi qui le dit mais je suis pas le seulment le seul. ar contre, il perd des places (au mins aux states).

La stratégie de GG a bien changée en 4 ans, plus question d'almélioration des résultats mais un paqueyt de fonctionalités dans les recherches (genre vidéo, maps, images qui s'est finealement pas ammélioré, ...) et des communications suivi de sanctions pour casser quelques dizaines de sites: en gros, GG base plus (+) ses résultats sur de la communicatiobnn que sur des résultats (avec des déclassements pas toujours (rarement) logiques) ... C'est pas le début de la fin, mais la fin de l'inovation dans les résultats: c'est maintenant les webmaster qui sont responsables des mauvais résultats sur une recherche donnée sur Google ... et bien sur GG déclasse.
 
WRInaute discret
ybet a dit:
Tu m'excuse mais ca c'est pas une nouveauté (ca date quand même de 3 ans) :mrgreen:

Petite question, où as tu vu dans mon message que j'annonçai un nouveauté.

ybet a dit:
Là non plus c'est pas nouveau (et rien à voire avec Panda). Me suis beaucoup occuper de duplicate content sur ce forum avec quelques autres:
Tant mieux pour toi si tu t'est bcp occupé du duplicate content avec d'autres sur le forum et merci si tu as pu aider du monde. Cependant je doute que ça en fasse de toi la référence. D'une manière où d'une autre, Panda prend en compte comme critère d'évaluation le DC.
En lisant cet article, tu verra qu'il est fait référence à de "Très nombreux articles sur le même sujet, avec seulement quelques petites différences entre 2 pages" -> ça semble ressembler au duplicate content. https://www.webrankinfo.com/dossiers/techniques/detection-fermes-contenu

ybet a dit:
Tu base Panda comme une sanction pour le duplicate content (ce qui ne semble pas être le cas, c'est plus fort

Je me demande si tu as bien lu mon post, car ce que tu écrit semble totalement hors de propos. As tu remarqué que je répondait à une question de heartjacking qui était principalement ciblé sur le rapport entre le DC et Panda.

Ce que j'ai écrit pour conclure mon post est assez explicite pour te faire comprendre que je suis loin de penser que Panda est une sanction pour le DC.
Jiraiya-15 a dit:
Panda sanctionne le contenu de mauvaise qualité. Et le duplicate content est un de ses critères d'évaluations de la qualité d'un texte.

Bref je ne vais pas entrer dans une joute verbale qui ne sera d'aucune utilité pour les personnes qui lisent ce forum, mais il semblerait que ta réponse soit plus un post pour étaler tes "connaissances" et par la même occasion rabaisser les autres, qu'un post utile à la question précise posé par un membre. C'est bien triste et je te conseil d'essayer de suivre comme exemple l'humilité avec laquel Olivier est amené à répondre sur le forum malgré ses connaissances qui je le pense pour avoir assister à ses formations sont bien plus aiguisé que les tiennes.

Et sans méchanceté envers toi, tout ce qu tu as raconté dans ton post d'étalage de connaissance, sont aussi très loin d'être des nouveautés.
 
WRInaute passionné
Je crois que vous ne vous êtes pas compris mais sinon, je pense que le DC a quand même joué quand on voit que la très très forte baisse de Wikio qui est forcement majoritairement fait de DC. J'aurai tendance à dire que ceux qui passé "limite" jusqu'à maintenant ne passeront plus. Tel Wikio, les comparateurs de prix (souvent similaire), une partie des (mauvais) annuaires pas encore remercié, les sites de CP non vérifié et j'en passe. Bien entendu, ça ne serait qu'une partie des critères amenant à être mis de côté.
 
WRInaute discret
Alaindeloin a dit:
Nic'O a dit:
Je pense que la chute est au niveau d'une page et non d'un mot clé.
J'ai pas compris.

Ça signifie que vous avez perdu des places sur toutes vos requêtes ? Ça serait une pénalité globale.

Tu pourrais checker et nous faire un retour la-dessus ?

Vais essayer d'être plus clair.

Nous faisons du siloying, c'est à dire x pages dans un thème porteur (utile pour l'internaute je précise), lors de l'application de l'algo, bim 30% de baisse sur ce type de page du jour au lendemain, elles sont dans des domaines très différents, mais ont toutes la même architecture.

Et le point commun de ces pages, ce sont donc les infos en double par rapport au site du constructeur.
 
WRInaute passionné
Nic'O a dit:
Vais essayer d'être plus clair.

Nous faisons du siloying, c'est à dire x pages dans un thème porteur (utile pour l'internaute je précise), lors de l'application de l'algo, bim 30% de baisse sur ce type de page du jour au lendemain, elles sont dans des domaines très différents, mais ont toutes la même architecture.

Et le point commun de ces pages, ce sont donc les infos en double par rapport au site du constructeur.

Merci pour ta précision.
 
Nouveau WRInaute
@Nic'O : Merci pour ces détails.

Seul les pages "siloying" ont été impactées ? car tu notifies "sur ce type de page". Les autres pages elles n'ont pas eu de baisses ? La baisse est donc de 30% sur tout le site ou juste sur ces pages en question ?

Quant aux infos en double par rapport au site du constructeur. Elles sont strictement copié collé, texte identique et donc sans aucune modification ?
 
WRInaute discret
Click Busters a dit:
@Nic'O : Merci pour ces détails.

Seul les pages "siloying" ont été impactées ? car tu notifies "sur ce type de page". Les autres pages elles n'ont pas eu de baisses ? La baisse est donc de 30% sur tout le site ou juste sur ces pages en question ?

Quant aux infos en double par rapport au site du constructeur. Elles sont strictement copié collé, texte identique et donc sans aucune modification ?

2 types de pages ont été touchés, nos pages thématiques avec un extrait des pages produits, et les pages produits.
Les plus touchés sont les premières car d'un point de vue ratio, on a plus de site "copié" dans une seule et même page.

C'est quasiment du C/C, mais je le répète, c'est « le fabricant » lui même qui se copie sur notre site, d'où la difficulté à trouver une issue à ce problème.


Voilà le 24 fev sur les USA :)
http://goo.gl/r5bJd

Je ne peux pas donner plus d'info dsl.
 
Nouveau WRInaute
Merci @Nic'O pour ce cas bien concret qui change des chiffres et références de Ciao et autres Wiki truc and co. Vu le graphe vous avez bien morflé. Mais pas de mouvements en plus, à la baisse, lors de la mise à jour UK pour les recherche via l'Europe ?

Et bonne chance en effet pour demander aux fabricants de vous faire des textes à même d'éviter le DC ...
 
WRInaute discret
Click Busters a dit:
Merci @Nic'O pour ce cas bien concret qui change des chiffres et références de Ciao et autres Wiki truc and co. Vu le graphe vous avez bien morflé. Mais pas de mouvements en plus, à la baisse, lors de la mise à jour UK pour les recherche via l'Europe ?

Et bonne chance en effet pour demander aux fabricants de vous faire des textes à même d'éviter le DC ...

Finalement, la seconde baisse du 12 avril a été plus soft car notre trafic vient principalement des états unis.

Et pour info, les sites touchés étaient PR7, PR6 et PR6 :) et sont vieux d'environ 10 ans.
 
Olivier Duffez (admin)
Membre du personnel
finalement, est-ce que les pages totalement clean ont aussi été pénalisées ? car c'est de cette façon que Google cherche le plus à faire peur (votre site peut être pénalisé en entier alors qu'une partie seulement est de trop faible qualité)
 
WRInaute discret
WebRankInfo a dit:
finalement, est-ce que les pages totalement clean ont aussi été pénalisées ? car c'est de cette façon que Google cherche le plus à faire peur (votre site peut être pénalisé en entier alors qu'une partie seulement est de trop faible qualité)

J'ai entendu parlé de ça, mais cela n'est pas le cas dans nos sites, et me semble également avoir lu quelque part, que certains sites dit de "confiance" n'aurait pas cette particularité (pas moyen de retrouver ma source).

Un screenshot que j'avais pris sur GWT quelques temps après : http://goo.gl/ejjDg
 
WRInaute occasionnel
Click Busters a dit:
Si on suit les directives / conseils de Google Adsense, notamment celles notifiées dans le post de Thomas Tran (Optimization for HubPages and AdSense), on en vient à créer des pages optimisées pour le référencement et pour la monétisation via Adsense. Si on suit ces directives d'optimisation de formats et placement des Ads, notamment les divers mails de conseils que l'équipe Adsense nous envoient à répétition, les articles dans leurs blogs, ... on en vient à faire sur nos site ce que le Moteur Google lui réprouve à présent - et sanctionne via son Panda - et ce alors que c'est la même structure, même si ce sont des équipes différents. C'est en cela notamment que cela en devient vraiment kafkaïen.
Oui, là c'est un vrai probleme.... je ne sait plus à quel saints me vouer...

et encore je n'ai pas appliqué toutes les ""optime"" conseillé...
 
WRInaute passionné
ca ne me semble pas sérieux ces sanctions automatiques concernant de la mise en page. Je vois trop de sites avec du texte caché non sanctionné que je n'imagine pas google capable de détecter avec précision un excès de pub dans la partie visible sans scroll. En plus cela peut dépendre de la largeur de l'écran (avec une plage de plus en plus vaste).

Il est plus probable que les sanctions soient manuelles suite à dénonciation et donc symboliques. Pour moi google s'est globalement contenté de durcir les limites de DC et de manque de texte dans les pages. Tout le reste c'est de la communication comme d'habitude.
 
Olivier Duffez (admin)
Membre du personnel
des sanctions manuelles ? ça m'étonnerait fort, vu le nb de milliers de sites touchés...
 
WRInaute passionné
WebRankInfo a dit:
des sanctions manuelles ? ça m'étonnerait fort, vu le nb de milliers de sites touchés...
Je parlais en matière d'excès de publicité bien sur car je ne vois pas comment la détection peut-être automatisée de manière fiable et juste.
 
WRInaute occasionnel
Neillys a dit:
par contre si l'on considere que panda fait la chasse aux domainers motsclefs il lui reste du boulot

Je ne vois pas en quoi des noms de domaine nus ou en parking pourraient être touchés par un algo qui vise le contenu. D'autre part les domaineurs qui achètent des ndd à mots clés pour les positionner dans les serps ça s'appelle des webmasters plutôt :)
 
WRInaute occasionnel
smorge a dit:
D'autre part les domaineurs qui achètent des ndd à mots clés pour les positionner dans les serps ça s'appelle des webmasters plutôt :)

C'est pourtant GG qui dit vouloir également s'attaquer aux NDD mots clefs, du genre : produits-regional-de-la-region-parisienne.com

mais bon, je suis plus inquiet sur le coté qualitatif d'un site vu par Panda que par les ndd motsclefs
 
WRInaute discret
Cela ne me choque pas plus que cela personnellement !
Si le groupe est populaire et se nomme de la même façon, faut bien le mettre en avant.
 
WRInaute occasionnel
Neillys a dit:
smorge a dit:
D'autre part les domaineurs qui achètent des ndd à mots clés pour les positionner dans les serps ça s'appelle des webmasters plutôt :)

C'est pourtant GG qui dit vouloir également s'attaquer aux NDD mots clefs, du genre : produits-regional-de-la-region-parisienne.com

mais bon, je suis plus inquiet sur le coté qualitatif d'un site vu par Panda que par les ndd motsclefs

C'est ce que je te dis justement, ce ne sont pas les domaineurs qui achètent et développent ce genre de noms de domaine, c'est les webmasters...
 
WRInaute passionné
"The Online Publishers Association, an insider organization representing large websites and magazines, applied pressure on Google to adjust its search algorithm in favor of “quality” content as the industry continues to suffer declining subscription revenue.

“A private understanding was reached between the OPA and Google,” an office assistant with e-mail evidence told Politically Illustrated. “The organization is responsible for coordinating legal and legislative matters that impact our members, and one of the issues was applying pressure to
Google to get them to adjust their search algorithm to favor our members.”

http://politicallyillustrated.com/index.php/page/features/2522/

http://www.googlemonopoly.eu/index.php/2011/04/19/breaking-news-google ... -websites/
 
WRInaute occasionnel
In French :

Alaindeloin a dit:
L'Online Publishers Association, une organisation représentant initié de grands sites Web et magazines, ont fait pression sur Google pour adapter son algorithme de recherche en faveur de la «qualité» du contenu que l'industrie continue de souffrir une diminution des recettes d'abonnement.

"Un accord privé a été conclu entre l'OPA et de Google," un assistant de bureau avec des preuves e-mail dit Politiquement Illustrated. «L'organisation est responsable de la coordination des questions juridiques et législatifs qui ont un impact de nos membres, et l'une des questions était en appliquant une pression de
Google pour les amener à adapter leur algorithme de recherche en faveur de nos membres. "

http://politicallyillustrated.com/index.php/page/features/2522/

http://www.googlemonopoly.eu/index.php/2011/04/19/breaking-news-google ... -websites/
 
WRInaute accro
comme quoi Google traduction c'est vraiment un service pourri... j'espère que l'algo d'indexation n'y fait pas appel (ce que je crois pourtant) --> vivement un web véritablement sémantique
 
WRInaute accro
forty a dit:
WebRankInfo a dit:
des sanctions manuelles ? ça m'étonnerait fort, vu le nb de milliers de sites touchés...
Je parlais en matière d'excès de publicité bien sur car je ne vois pas comment la détection peut-être automatisée de manière fiable et juste.
pourquoi gg n'utiliserait-il pas pour cela ses propres captures d'écrans ? ça n'est vraiment pas dur à automatiser cela ensuite. Sinon, il y a aussi le ctr adsense, gg analytics, l'analyse du code html pour y détecter les scripts d'annonces...
 
Olivier Duffez (admin)
Membre du personnel
c'est vraiment simple pour Google de déterminer le nb de pubs sur une page
ensuite il y a toutes les mesures liées au comportement de l'internaute
bref pas mal d'infos exploitables sans doute...
 
Discussions similaires
Haut