Google Panda en France : analyses et conseils [officiel]

WRInaute accro
johnny-57 a dit:
milkiway a dit:
Tu crois vraiment qu'Olivier ira dire publiquement qu'il s'est pris une raclée par Panda ?
Je suis du même avis, il propose des formations panda et les proposait avant panda, admettre qu'il a pris une raclée par panda serait admettre que le contenue de sa formation de préparation à panda était à coté de la plaque et que tous les clients on payé pour rien.
C'est dommage en tout cas parce que ce n'est pas un aveux de faiblesse mais juste une démonstration que le référencement est une science très obscure mais se qui ne l’empêcherait pas d'avoir été le plus proche de la vérité malgré tout.

Je n'ai pas le niveau pour juger des gens comme Olivier donc je ne me prononce pas ;)
Qu'est-ce qui permet de supposer qu'Olivier n'en parlera pas. Pendant que d'autres venaient ouiner il a peut-être tout simplement pris le temps d'analyser ses données. Ses conseils à Comment ça marche ont l'air d'avoir bien fonctionné en tout cas. C'est un partout la balle au centre, avec des enseignements à tirer et à transmettre.
forty a dit:
Pour WRI si l'annuaire est toujours duplique sur dicodunet c'est sûrement ça qui baisse. Il me semble évident au contraire que le forum tourne a fond en ce moment.
La nouvelle version de l'annuaire est partie sur de nouvelles descriptions. Les anciennes descriptions sont en iframe.
 
WRInaute impliqué
WebRankInfo a dit:
Effectivement le forum WRI tourne mieux qu'avant Panda, tout comme le reste des contenus éditoriaux de WRI (les dossiers, les actus). Les outils n'ont pas bougé. C'est donc bien l'annuaire qui a chuté, comme je l'explique dans cet article : Impact de Panda sur le site WebRankInfo.

N'y voyez aucune polémique,
mais n'y a t-il pas contradiction à dire d'un coté :
- je garde les annuaires pour le service rendu.

et de l'autre :
- GG à une mauvaise considération des liens issus d'annuaires.

sachant qu'un analyste vous dira : "si aujourd'hui GG à une mauvaise opinion de qq chose, demain il passera à l'acte"....


je pense que c'est plus complexe.... les resultats sur "référencement google" donnent en premier lieu,.... des annuaires !!
 
Olivier Duffez (admin)
Membre du personnel
Je ne fais qu'émettre des hypothèses. Une fois que j'aurai mieux analysé les effets de Panda (maintenant qu'on les voit sur des sites français), je pourrai envisager des mesures correctives.

J'ai la chance d'avoir accès aux données de plusieurs gros sites. Avec l'annuaire qui a baissé et les autres qui ont monté, je vais pouvoir croiser les infos pour tenter d'en tirer des conclusions. Bref, améliorer ma connaissance précise du fonctionnement de Panda. Heureusement pour moi, mes clients ont tous bénéficié de Panda (entre +20 et +30% pour ceux qui sont ecommerce, les plus gros que je conseille)
 
WRInaute accro
A noter quand même : les sites épargnés par Panda ne semblent pas souffrir d'avoir des liens en provenance de sites pandaïfiés.
Le service lien en dur reste donc valable. Pour la part "visibiilité" du service, d'ailleurs remise en question souvent, c'est peut-être maintenant que l'annuaire de demain va émerger de cette sanction.
 
WRInaute impliqué
fredfan a dit:
A noter quand même : les sites épargnés par Panda ne semblent pas souffrir d'avoir des liens en provenance de sites pandaïfiés.
Le service lien en dur reste donc valable. Pour la part "visibiilité" du service, d'ailleurs remise en question souvent, c'est peut-être maintenant que l'annuaire de demain va émerger de cette sanction.
en effet :
1° conclusion : l'annuaire de demain est encore dans les cartons !! :lol:
 
WRInaute passionné
Olivier, dans ton article sur les effets de Panda sur Webrankinfo tu dis, je te cite :

Je connais 2 gros partenaires français de Google Maps qui se mordent les doigts d'avoir apporté leur annuaire à Google...

Est-ce à dire que l'utilisation massive de Google maps sur un site serait un facteur pénalisant vis à vis de google ?
 
WRInaute accro
Je repose (en reformulant pour éviter le DC) la question que j'ai posée sur l'article :
peut on penser qu'il y a une pénalisation dans les résultats (pour des sites comme le tien, celui de Hawk) mais pas de diminution du jus transmis ? (qu'il soit pur PR ou "trustrank")
Quand je vois que des sites que j'ai référéncé à plus de 95% via des annuaires n'ont pas perdu de place, et ont des visiteurs en augmentation, il y a deux explications possibles :
- soit le poids des liens en provenance des annuaires est resté identique, malgré la baisse de positionnement
- soit ça va se propager, et à ce moment là à quelle vitesse ?

(Edit grillée par Fredfan)
 
WRInaute accro
Ce que j'en comprend c'est qu'en utilisant google maps sur notre site, on fourni par la même occasion des infos à google, qui se chargerait de les utiliser de son côté. Du coup, entre une carte affichée directement dans les résultats de Google et la même carte accessible en plusieurs clics sur un site lambda, le choix semble être vite fait pour l'utilisateur.
 
WRInaute accro
- soit le poids des liens en provenance des annuaires est resté identique, malgré la baisse de positionnement
Il n'y a pas eu de raz de marée sur les sites vitrines au US suite aux pandas précédents. Aujourd'hui on n'en a pas non plus en France apparemment (pas chez moi ni chez Marie-Aude en tout cas)
On peut raisonnablement en déduire qu'il existe quelque part dans les serveurs un classement non-pandaïfié qui n'est pas révélé au public (comme le PR réel par exemple) et qui sert de base de calcul à l'algo
 
WRInaute impliqué
1. En ce qui concerne les annuaires, dans le Panda anglais (pourtant bien plus dur que le Panda français), ils n'ont pas figuré dans le camp notable des victimes. Et encore aujourd'hui, ils ne sont pas touchés significativement.

Puisque les annuaires français, dont la particularité est d'avoir une fiche par site, sont au moins pour certains d'entre eux parmi les victimes, on peut penser que la présence de ces fiches était susceptible de générer un trafic qui n'en valait pas la peine et que Panda ne fait que corriger cela.

Pour le reste, je m'étonne quand même que la baisse de visibilité de WRI s'explique uniquement par celle de son annuaire. Si c'était le cas, les sites qui ne sont que des annuaires seraient encore plus directement touchés. Et ce n'est pas le cas quand on regarde à l'étranger.

Le maintien pour WRI de son annuaire, c' est quand même aussi des backlinks nombreux vers WRI (souvent trois liens par inscription) et on en voit pas mal placés sur les pages d'accueil (donc un bon jus).

2. En ce qui concerne google maps, même question que Fandeciné.
 
WRInaute impliqué
Panda ,c'est l'automate turc, joueur d’échec !!
le problème c'est juste de savoir qui ils mettent sous la table à chaque nouveau dialecte !! :mrgreen: :mrgreen:
 
WRInaute accro
@kristel si tu regardes les listes de sites touchés, tu vois que des "pur annuaires" (comme par exemple indexweb) semblent avoir été beaucoup plus touchés.
 
WRInaute passionné
Orgevalscope a dit:
Il y a une autre différence avec les US, c'est notre très forte dépendance à Google. :wink:

Oui, c'est un gros problème particulier à la France. L'incidence de Bing est tellement faible que la moindre erreur avec Google peu être fatale.
Plus je regarde ci et là, plus ma théorie sur la zone de visibilité principale occupée par de la pub et sanctionné par Panda me semble un élément important. Je m'intéresse bien sûr a l'action de panda sur les annuaires, mais je n'ai pas le temps de passer au crible une bonne centaine de sites impacté + ou - pour confirmer ou infirmer ...
 
Olivier Duffez (admin)
Membre du personnel
la différence avec les US est note dépendance plus forte à Google : certes, mais ça n'a pas d'impact sur les calculs publiés ici et là, qui sont des évolutions de visibilité sur Google. Même si au final je vous l'accorde, une pandafication fait + mal ici qu'outre atlantique !

@fandeciné : je ne parle pas d'utiliser Google Maps sur son site, mais de sites qui sont partenaires de Google Maps. Ils ont fourni des données à Google Maps et n'en retirent au final pas autant qu'ils ont donné.
 
WRInaute accro
Pour ma part ce qui est fou, c'est que tout les sites de mes clients ont pris du trafic et des positions, absolument tous... alors que mes sites, sur lesquels je suis p-e un peu plus olé olé en référencement, ont partiellement été touchés (dont deux fortement).
 
WRInaute discret
En faisant une recherche sur une requête particulière "corset", voici ce que je trouve à la 3ème page :
3emepage.jpg

Notons qu'avant l'apparition du panda ça n'était pas du tout le cas.
J'ai remarqué aussi que sur bien des requêtes le nom de domaine avait pris un peu plus d'importance.
Tentez un peu le mot nuisette par exemple, et vous y verrez un site bien pourri (en .org) positionné.
 
WRInaute discret
Bonjour,

Ne voyez aucune motivation polémique dans cette remarque, mais je me pose réellement la question de savoir quel est le réel intérêt des annuaires pour l'internaute lambda.

Pour les webmasters on sait tous bien que c'est un moyen d'amorcer la pompe pour un site et de gagner ainsi les premiers points de PR pour être visible dans les résultats de recherche et ensuite c'est sur les mots clés qu'on joue.
D'autant que maintenant pour s'inscrire dans le moindre annuaire il faut sortir le dictionnaire des synonymes et se creuser la tête pour décrire son site une nième fois sans se répéter.

Mais des visiteurs vous en avez beaucoup qui viennent des annuaires vous ?
Pourquoi ? Regardez autour de vous le monde de ceux qui ne sont pas des webmasters. Parce que l'internaute lambda ne sait pas (plus) ce qu'est un annuaire. Quand il veut trouver quelque chose, il remplit sa petit case Google (ou Bing ou autre) et il lui demande de chercher. Et la petite case accepte tout ses critères d'un seul coup et lui apporte généralement une réponse qui lui convient dans la seconde qui suit. Pas besoin de parcourir n catégories et sous catégories et pour finir par ne pas trouver ce qu'on cherche. Puis passer à un autre annuaire pour recommencer.

Je pense que Google à viré son propre annuaire récemment, parce qu'il sait très bien que son moteur fait bien mieux et ce n'est pas nouveau (et les stats doivent être parlantes sur les préférences des internautes !)

Alors en admettant qu'un site réponde à la question posée par l'internaute, je comprends que Google préfère donner les résultats directement plutôt que de passer par un annuaire en le mettant dans les première réponses (toujours sans jugement de valeur de ma part et sans vouloir choquer aucun annuairiste ).

A+
 
WRInaute accro
J'ai fait des modifs sur mon site le plus touché. Pouvez vous me dire si chez vous le taux de rebond, le temps moyen passé et le nombre de pages par visite sont anormaux (excellents) ? Si oui, c'est que c'est Google Analytics qui déraille.
Si non, alors mes modifs ont drôlement amélioré le confort pour les visiteurs : rebond -15%, temps passé +35%, pages vues par visite +30%
 
WRInaute passionné
WebRankInfo a dit:
@fandeciné : je ne parle pas d'utiliser Google Maps sur son site, mais de sites qui sont partenaires de Google Maps. Ils ont fourni des données à Google Maps et n'en retirent au final pas autant qu'ils ont donné.

Ok, merci :D
 
WRInaute passionné
milkiway a dit:
J'ai fait des modifs sur mon site le plus touché. Pouvez vous me dire si chez vous le taux de rebond, le temps moyen passé et le nombre de pages par visite sont anormaux (excellents) ? Si oui, c'est que c'est Google Analytics qui déraille.
Si non, alors mes modifs ont drôlement amélioré le confort pour les visiteurs : rebond -15%, temps passé +35%, pages vues par visite +30%

Ce doit être tes modifs, c'est plutot a la baisse chez moi malgré une légère montée des visiteurs.
 
WRInaute impliqué
@kristel si tu regardes les listes de sites touchés, tu vois que des "pur annuaires" (comme par exemple indexweb) semblent avoir été beaucoup plus touchés.

Relis mon post. J'expliquais que ce qui était touché par Panda, ce n'était pas les annuaires, mais la pratique précise de faire une page par site


EDIt
et je maintiens que les annuaires anglais n'ont pas été touchés par Panda depuis février/mars 2011.
 
WRInaute accro
Est-ce que le fait de faire des liens profonds a sauvé des annuaires ? A priori je ne vois pas d'annuaires avec liens profonds dans les sanctionnés
Une autre piste serait que des annuaires ont été touchés parce qu'ils ont beaucoup de pages catégories et de sous-menus
 
WRInaute discret
milkiway a dit:
J'ai fait des modifs sur mon site le plus touché. Pouvez vous me dire si chez vous le taux de rebond, le temps moyen passé et le nombre de pages par visite sont anormaux (excellents) ? Si oui, c'est que c'est Google Analytics qui déraille.
Si non, alors mes modifs ont drôlement amélioré le confort pour les visiteurs : rebond -15%, temps passé +35%, pages vues par visite +30%
Depuis ce matin analytic revient à des chiffres cohérents : taux de rebond en baisse, hausse des pages vues, cohérence entre VU et Visites.
 
WRInaute passionné
kristel a dit:
J'expliquais que ce qui était touché par Panda, ce n'était pas les annuaires, mais la pratique précise de faire une page par site

Je ne crois pas que ce soit cela Kristel. il y a des tonnes d'annuaires qui ont une page par site, certains passent bien au travers :
https://www.google.fr/#hl=fr&cp=43&gs_id=4&xhr=t&q=BARAKA+BOULANGERIE+E ... VENISSIEUX

Je pense qu'il y a plusieurs facteurs :
- le duplicate content
- le linkage interne
- Panda et la chasse aux sites qui abusent de la pub (a mon avis sur la zone principale de vision d'un écran d'ordi portable 13"/15").
 
WRInaute passionné
Ajan a dit:
Je pense que Google à viré son propre annuaire récemment, parce qu'il sait très bien que son moteur fait bien mieux et ce n'est pas nouveau (et les stats doivent être parlantes sur les préférences des internautes !)

Faux a mon avis, tout viens de la présentation de l'annuaire. Contrôler et enrichir manuellement un annuaire, même d'entreprises uniquement, avec plusieurs millions de sociétés seulement en France est une mission trop lourde pour Google.

Google adresse lui permet de s'affranchir d'un annuaire, car c'en est un qui est intégré automatiquement (en force).
En plaçant des fiches goggle adress vides dans ses serps en première place, il oblige les entreprises et les référenceurs a remplir eux même SON annuaire, en usant de son monopole. Les remplir contribue a google d'accroitre sa puissance ou de la consolider avec un annuaire intégré de plus en riche, en place et lieu des sites eux-même.

Google va "contourner la tour" difficile a escalader, celle d'en venir au shopping. Il faut s'imposer jusqu'à ce que les commerçants finissent par mettre leur produits en ligne, je suis persuadé que les pages entreprises en préparation vont conduire à cela.
Et quelques part, il faudra bien un classement par catégorie, donc un annuaire, mais intégré dans les serps.
Donc, son annuaire séparé ne lui sert strictement a rien, il est mis en première page ...
 
WRInaute passionné
sabine959 a dit:
J'ai remarqué aussi que sur bien des requêtes le nom de domaine avait pris un peu plus d'importance.
J'ai la même sensation : les sites qui sont passés devant certaines requêtes que je soignais particulièrement ont tous, sans exception, tout ou partie de la requête dans leur NDD.

C'en est à un point qu'un site créé avec un ndd bien choisi, qui a reçu un seul et unique lien (de qualité toutefois), il y a quelques mois et que j'avais rangé au fond du placard a grillé la page que soignais et se retrouve devant! J'ai halluciné quand je me suis aperçu de cela. 8O

Une autre idée en l'air avec Panda : trop de liens externes hors thématique tue le lien...
 
WRInaute passionné
anemone-clown a dit:
C'en est à un point qu'un site créé avec un ndd bien choisi, qui a reçu un seul et unique lien (de qualité toutefois), il y a quelques mois et que j'avais rangé au fond du placard a grillé la page que soignais et se retrouve devant! J'ai halluciné quand je me suis aperçu de cela. 8O

Ce n'était pas un effet de nouveauté ou reclassement provisoire lors de la découverte du lien par Google?
Il peut aussi s"agir d'une concentration du mot clé satisfaisante pour l'algo dans une modif de classement des critères?

Vu que les critères de classement changent régulièrement (450 fois par an selon google), rien ne dis que Panda ne s'est pas accompagné d'une autre modif, histoire de brouiller les pistes ... Google avait annoncé accorder moins d'importance au NDD récemment ... Google et ses déclarations officielles ...
 
WRInaute passionné
kristel a dit:
Annuaires: Botw, Joeant, Uncoverthenet.com
Annuaires d'annuaires: directorycritic, best-web-directories.com

Je viens de regarder cette liste qui est plus un listing de site ou d'annuaires que des annuaires classiques ...
Ce sont essentiellement des tableaux, non? et pour certains, sans pub ou alors très discrètes.
 
WRInaute impliqué
Botw et Joeant sont des annuaires qui ont un long passé et sont parmi les plus anciens du web après yahoo et dmoz. Ils ont une bonne audience.

exactseek.com est, je crois, du même genre.
 
WRInaute discret
longo600 a dit:
Et quelques part, il faudra bien un classement par catégorie, donc un annuaire, mais intégré dans les serps.
Donc, son annuaire séparé ne lui sert strictement a rien, il est mis en première page ...

On est bien d'accord, les annuaires traditionnels en tant que moyen de recherche indépendant et hors moteur ne sont plus de mise pour Google. Techniquement il peut bien avoir un annuaire intégré à son moteur de recherche, pour le coup c'est l'annuaire qui reste caché sous le capot.

Et pour les internautes lambda (qui constituent quand même la majorité du public visé), ils ne verront pas la différence.
 
WRInaute passionné
Je te l'accorde @Ajan, les annuaires ont du mal a être plus précis en dessous de la barre de 4 clics, et que l'utilisateur préfère directement taper sa requête et envoyer, pour preuve évidente, le succès des moteurs et de Google ...
Mais je pense que l'attrait des annuaires pourrait etre amélioré , en tout cas, je travaille dessus, ce sera peut-etre un flop ...
 
WRInaute impliqué
Pour les sites de contenu touchés ! avez vous contacté google (j'ai vus qu'il existe un lien pour les victimes de google panda lol) si vous avez contacté, avez vous eu une réponse ?
merci.
 
WRInaute impliqué
sigma2008 a dit:
Pour les sites de contenu touchés ! avez vous contacté google (j'ai vus qu'il existe un lien pour les victimes de google panda lol) si vous avez contacté, avez vous eu une réponse ?
merci.
houla !! tu rêves !
j'ai un peu l'habitude du forum "adresses". Ils sont juste là pour dire que le contact existe... mais te répondront qu'ils ne connaissent pas les algo des routines GG.
Et te renverront sur leur "10 commandements " :mrgreen:
GG c'est Moïse !!
tu ne dupliqueras point !!!
tu ne convoiteras pas le site du voisin !!
..... :lol:

https://www.google.com/support/forum/p/webmasters/label?lid=05098eb7075 ... f93e&hl=fr
https://sites.google.com/site/webmasterhelpforum/fr/aide-au-referencement
 
WRInaute impliqué
abouvard a dit:
Il se pourrait tout de même bien qu'il y ait des interventions "manuelles" !
lis bien , les remarques seront remontées et serviront à peaufiner les algo et les incohérences relevées. Le discours de gg est clair, l'indexation sera toujours prioritaire sur les interventions manuelles ...


Notez bien la dialectique :
"Nous venons de déployer une mise à jour de notre algorithme de recherche afin de mettre en avant les résultats de haute qualité pour nos utilisateurs français."

et non pas : afin de fondre les sites guignolesques et annuaires sans plus-value !! :mrgreen: c'est un peu l'inverse du discours qu'on entend sur ce forum.
en gros, le discours c'est : les bons qui montent .... si tu descends, c'est parce que les autres sont meilleurs que toi...
 
WRInaute occasionnel
Bonjour,
Je lis:
en gros, le discours c'est : les bons qui montent .... si tu descends, c'est parce que les autres sont meilleurs que toi..
Évidemment ça peut faire mal :mrgreen: , mais je partage cette opinion qui est un parfait résumé.
Concis, précis, aie
Merci
Alain
 
WRInaute passionné
J'observe depuis un moment ce qui se passe suite à Panda, les sites touchés ...etc
ca a peut être déjà été dit dans cette conversation j'ai pas lu les 20 pages ;)

Mais j'ai constaté qu'il y a un point commun entre la plupart des sites fortement touché, ce ne sont pas les annuaire qui sont touché par ce que ce sont des annuaires : ils sont touchés car ils augmentent artificiellement leurs poids en nombre de pages (une page par site) ... pareil pour les autres types de sites touchés, genre les comparateurs de prix qui pour chaque produits proposent une page alors qu'il peuvent regrouper.

tout ceux qui scindent le contenu et en font beaucoup de pages pour augmenter artificiellement la "superficie" de leur site sur la toile se font sanctionner.

si mon raisonnement est bon, le choix de google est légitime, il est normal de valoriser du contenu créé par l'équipe de rédaction et de sanctionner le contenu automatique et/ou rédigé par un tier (obliger le webmaster de fournir une description unique à son site dans un annuaire).
 
WRInaute accro
aladdin a dit:
si mon raisonnement est bon, le choix de google est légitime, il est normal de valoriser du contenu créé par l'équipe de rédaction et de sanctionner le contenu automatique et/ou rédigé par un tier (obliger le webmaster de fournir une description unique à son site dans un annuaire).
Mais comment un algorithme pourrait détecter ça ?
 
WRInaute impliqué
fredfan a dit:
Mais comment un algorithme pourrait détecter ça ?
En reformulant, on pourrait dire que c'est le concept d'annuaire qui pourrait-être remis en cause (au conditionnel).
En focalisant sur l'utilisateur du net, google écarte le superflu ou ce qui a perdu de son intérêt pour la masse des internautes: l'annuaire.
et ça c'est facile à faire pour l'algo.

A mon avis (toujours au conditionnel), le rôle de l'annuaire doit être recentré à sa vocation première, (si on montre qu'il apporte qq chose aux moteurs de recherche). Aujourd'hui ce n'est plus qu'un outil pour référenceur.
 
WRInaute passionné
fredfan a dit:
Mais comment un algorithme pourrait détecter ça ?
rien que la structure du site peut être très révélatrice.
un site avec énormément de pages avec chacune un tout petit peu de contenu "original" le reste sont des menus, entête, pied de page ...etc
quel intérêt pour un site "normal" d'adopter cette structure ? l'évolution naturelle d'un site de contenu rédigé ne permet pas d'aller vers une telle structure.
le nombre de cliques nécessaire pour atteindre l'info peut aussi être un facteur : un site est un graph type arbre, google peut simplement calculer les chemins entre la racine "page d'accueil" et les "feuilles" , plus ce chemin est long plus le contenu a des chances d'être artificiel (ce n'est pas une vérité absolue mais un constat du web aujourd'hui).
bref, pour l'algo ce n'est pas un problème, on peut même combiner plusieurs algo avec un scoring ...etc
 
WRInaute passionné
aladdin a dit:
si mon raisonnement est bon, le choix de google est légitime, il est normal de valoriser du contenu créé par l'équipe de rédaction et de sanctionner le contenu automatique et/ou rédigé par un tier (obliger le webmaster de fournir une description unique à son site dans un annuaire).

Si tu prend l'exemple du 118 triple zéro .fr , il a bien une page par entreprise, comme parfois les PJ, et reste en tête des résultats. A moins qu'ils aient passés un accord particulier avec GG et sont en liste blanche. En même temps, un internaute qui cherche sur ce site et veux voir la fiche détaillée de l'entreprise, qui peut-etre n'a pas encore de site, est bien content de la trouver.

Quand tu gère un annuaire d'entreprises avec des millions de commerçants ou de pme et d'artisans, tu ne peut pas t'amuser a faire du rédactionnel un par un. Personne ne le peux . Et encore moins Google qui ne fonctionne que sur des automatisme principalement. Même avec 92% des recherches sur le web, Google n'arrive pas a remplir correctement son fichier adresse qui reste bien médiocre avec d'innombrables erreurs ou absence d'infos.

Pour la structure du site, en profondeur, c'est vrai que c'est assez typique des annuaires. C'est possible que ce soit la cause d'un retrait. Mais il y a des contres-exemples. Je penserais a un lincking interne sur ces pages profondes qui est très compliqué manuellement.
 
WRInaute passionné
L'exemple du 118xxx est une exception de part sa nature, car même sanctionné il ne disparait pas de l'index pour autant, et s'il référence une entreprise qui n'a elle même pas de site et pas de référence sur le web c'est tout à fait normal qu'il se positionne en premier.
si tu fais cette recherche par exemple : https://www.google.fr/search?q=Frandis+SER

tu te retrouve avec des annuaires d'entreprises en premier, et qui sont mieux positionné que 118xxx normal puisque la société en question n'a pas de site, ce sont donc les annuaires qui se retrouvent en concurrence pour cette requête.
 
WRInaute accro
aladdin a dit:
un site avec énormément de pages avec chacune un tout petit peu de contenu "original" le reste sont des menus, entête, pied de page ...etc
quel intérêt pour un site "normal" d'adopter cette structure ? l'évolution naturelle d'un site de contenu rédigé ne permet pas d'aller vers une telle structure.
C'est la structure normale d'une boutique
 
WRInaute accro
Marie-Aude a dit:
aladdin a dit:
un site avec énormément de pages avec chacune un tout petit peu de contenu "original" le reste sont des menus, entête, pied de page ...etc
quel intérêt pour un site "normal" d'adopter cette structure ? l'évolution naturelle d'un site de contenu rédigé ne permet pas d'aller vers une telle structure.
C'est la structure normale d'une boutique
Beaucoup de sites d'information ont aussi cette structure et cette profondeur : recettes de cuisine, fiches sur les animaux, conseils de jardinage, bancs d'essai d'instruments de musique, et j'en oublie
 
WRInaute passionné
Il y a pourtant des sujets qui méritent d'être morcelés et qui entraineront du rédactionnel supplémentaire (réformes successives, actualité...) donc un sujet peut avoir naturellement une dizaine de pages distinctes avec du vrai contenu, original et pertinent. Si le filtre Panda détecte çà et le sanctionne pour multiplication de pages sur le sujet, çà va compliquer les choses.
Il faut espérer que ses variables distinguent le bon grain de l'ivraie
 
WRInaute passionné
fredfan a dit:
Marie-Aude a dit:
aladdin a dit:
un site avec énormément de pages avec chacune un tout petit peu de contenu "original" le reste sont des menus, entête, pied de page ...etc
quel intérêt pour un site "normal" d'adopter cette structure ? l'évolution naturelle d'un site de contenu rédigé ne permet pas d'aller vers une telle structure.
C'est la structure normale d'une boutique
Beaucoup de sites d'information ont aussi cette structure et cette profondeur : recettes de cuisine, fiches sur les animaux, conseils de jardinage, bancs d'essai d'instruments de musique, et j'en oublie

oui d'accord avec vous, mais dans ces cas, le contenu est original et a son intérêt... je parles du cas ou on a pleins de pages individuelles avec du contenu sans aucune valeur ou presque. qu'est ce que ca m'apporte d'avoir un produit sur une page dans un comparateur de prix par exemple ? un comparateur sert à comparer plusieurs produits non ?
de même qu'est ce que ça m'apporte dans un annuaire d'avoir une page contenant 200 mots par site ?

inversement, il est tout à fait légitime et intéressant d'avoir une page produit dans une boutique en ligne, avec descriptif, prix, avis conso ...etc d'ailleurs des sites marchand (et non comparateur) ayant cette structure ont gagné des places.

la sanction Panda pénalise la perversité du phénomène "annuaire", à la base un annuaire permet de répertorier des site par thémarique, on peut très bien les site d'une thématique sur une seul page voir paginer s'il y en a trop .... mais dès lors que l'ont se met à gonfler artificiellement le nombre de pages (une par site) cela sort du but initial de l'annuaire.
 
WRInaute impliqué
Sans vouloir insister outre mesure (parce que c'est trop tôt pour tirer des conclusions sérieuses), il faut quand même indiquer que des annuaires francophones, sans page par site, ne semblent pas affectés par Panda français.


S'agissant d'annuaires de liens dont la nature devrait, au moins théoriquement, être d'envoyer les visiteurs sur le lien recherché par l'internaute, faire une page par lien gonfle le volume de l'annuaire, garde plus longtemps l'internaute chez l'annuaire (avec des diversions possibles) et, a fortiori avec une description unique, peut se positionner à la place du lien sur sa longue traîne. A la place d'un moteur, je nefavoriserai pas cela. Mais bon attendons avant de braire

.
 
WRInaute discret
Vous avez raison.

Seulement, un annuaire qui a perdu 40% de son trafic va t-il récupérer du trafic en mettant en noindex ses fiches et en affichant les descriptifs complets dans ses catégories (avec lien sortant vers les sites inscrits, en dur, dans les catégories, pour ne pas flouer les webmasters...) ?
Car les annuaires bénéficient de trafic, en grande partie, sur ces fiches ?
Pour un annuaire comme Webrankinfo, avoir encore 60% de visiteurs, c'est déjà pas mal. Difficile de faire un choix en vue de récupérer du trafic si c'est pour en perdre encore plus... Qu'en pensez-vous ?

D'autant plus que la tendance semble plus à faire désindexer ses paginations de catégories plutôt que de ne faire indexer que celles-ci ?

De plus, le contenu des catégories de sites est mouvant, alors que les fiches, elles, restent bien fixes...
 
WRInaute passionné
Justement, le but de google n'est pas d'offrir aux sites qu'il juge "moins interessants" une chance de ré-optimisation ... sinon l'algo n'aura servi à rien.
d'ailleurs c'est ce qui m'a toujours interpellé dans les précédents algo de google, ils sanctionnaient, tout en donnant la possibilité de se repositionner en modifiant la structure du site, des pages et en faisant quelques optimisations par ci par là ... le site restait quasiment le même au vu du visiteur, mais regagnait en positionnement sur google alors qu'il a été sanctionné.
 
WRInaute discret
aladdin a dit:
Justement, le but de google n'est pas d'offrir aux sites qu'il juge "moins interessants" une chance de ré-optimisation ... sinon l'algo n'aura servi à rien.
d'ailleurs c'est ce qui m'a toujours interpellé dans les précédents algo de google, ils sanctionnaient, tout en donnant la possibilité de se repositionner en modifiant la structure du site, des pages et en faisant quelques optimisations par ci par là ... le site restait quasiment le même au vu du visiteur, mais regagnait en positionnement sur google alors qu'il a été sanctionné.

Bien sûr, je suis d'accord, mais tu crois que cette optimisation pourrait leur être favorable ou tu penses qu'il vaut mieux malgré tout qu'ils gardent leurs fiches par site ?
 
WRInaute passionné
tyler23 a dit:
Bien sûr, je suis d'accord, mais tu crois que cette optimisation pourrait leur être favorable ou tu penses qu'il vaut mieux malgré tout qu'ils gardent leurs fiches par site ?
Je pense que personne ne s'aventurerait à entamer des optimisations/réoptimisations tout de suite :) ... il faut prendre le temps de faire des analyses plus poussées sur cet algo pour bien le comprendre, et ne surtout pas faire des modification aléatoires qui au mieux ne feraient que repousser l'échéance d'une sanction future.
 
WRInaute passionné
Je suis dans ce cas, avec un très vieil annuaire complètement dépassé, et mal aimé de Google. je teste dessus quelques idées avant le total changement prochain, mes ces tests n'ont quasiment aucune incidence. Google ne visite que très rarement les pages, je suis pour lui un vilain petit canard apparemment. Ma demande de ré-examen a eut une réponse de Google que je n'avais aucune sanction manuelle ...

Ce ne sont pas tous des tests d'optimisation pour Google, ce sont des tests pour faciliter la clarté et la navigation de l'internaute.
Je vois le temps passé et le nombre de pages vues par visiteur augmenter, j'ai doublé en 6 mois, Google me boude toujours (je ne me plaint pas, juste que je le remarque).

Depuis Panda, j'ai légèrement remonté, mais avec 100 visiteurs/jours, est-ce suffisant pour avoir un avis pertinent? Je fais toujours 100VU/J , même au 15 Aout, je pense donc que je remonte doucement, car je n'ai aucune baisse des vacances.
Par contre, j'ai bloqué pour le robot les pages individuelles depuis 6 mois, pas d'incidence non plus.
 
WRInaute occasionnel
kristel a dit:
Liste intéressante.

Chose dont on n'a pas encore parlé, mais qui ne surprend pas (après la suppression de l'annuaire google), c'est la baisse de visibilité des annuaires
ex.
indexweb.info -79,8293%
nnuaire.com -78,08%
toplien.fr -64,1399%
lesannuaires.com - 56,7 %
etc..
.

Plutot -20% pour lesannuaires.com (en nombre de visiteurs) d'après mes stats Analytics ... C'est une perte de positionnement générale sur toutes les pages, sauf certaines qui ont plus de contenu original. Je précise que pour Google c'est "un site de qualité" :roll:
 
WRInaute occasionnel
milkiway a dit:
alain-b a dit:
Je précise que pour Google c'est "un site de qualité" :roll:
Qui t'a dit ça ?

ben ... c'est écrit ...

Par ailleurs, je ne pense pas qu'il faille chercher une raison à ce filtrage dans la structure de l'annuaire car en ce qui concerne lesannuaires.com, celui-ci n'a pas de pages redondante (type fiche spécifique à chaque site référencé). De plus le nombre de pages est très limité (environ 300 pages) avec en plus du contenu documentaire...

Quand je vois que Petitfute.com a perdu une grosse par de son positionnement avec du contenu rédactionnel de très bonne qualité, j'ai du mal à comprendre ...
 
WRInaute impliqué
.. et une masse de liens d'affiliation.

Il faut savoir si on fait un guide de voyage ou si on fait la revente de locations de vacances, de bons plans, de locations de voitures, a fortiori lorsque tout ceci devient l a plus grosse part du site.
 
WRInaute accro
Tu prends une page au hasard -http://www.petitfute.com/guide/sv-17231-1166-paris-hotels-hebergement et à droite certains liens sont directement vers les sites. Choix éditorial ?
Ceci dit le webmestre de ce site n'est pas venu demander un avis, on ne va pas se braquer sur le sujet
 
Nouveau WRInaute
Si le petit futé à été touché par le panda alors que cela reste un site de qualité et qu'il ne devrait pas être interdit de commercialiser ses propres pub sous peine d'être dégradé par Google, c'est pour une raison toute simple mais tellement évidente :

Petitfuté a choisi de commercialiser ses liens en propres au lieu de prendre Adsense...et ca, Google il n'aime pas du tout. Quel intérêt pour Google de faire monter un site qui ne propose pas du Adsense mais qui au contraire se pose en concurrent de Adsense ? Aucun ! donc pandalisé !

Un critère que beaucoup de gens ne saisissent pas, c'est l'aspect business. Google fait du business. Si vous ne rapportez rien à Google, Google ne vous apportera rien - sauf si vous êtes une marque reconnue dans votre milieu professionnel et dont la présence est donc nécéssaire à la qualité des résultats.
 
WRInaute discret
J'ai été touché par Panda le 12 aout : -35% à -40% sur le trafic provenant de Google (700k/mois avant panda), positionnement des mots-clés en cours d'étude.

J'ai remarqué une hausse significative de l'ordre de 5% hier sur le trafic provenant de Google et inversement d'autre sites qui avaient été touché positivement par Panda ont baissé hier. Je précise que la courbe des visiteurs uniques de cette semaine n'a rien à voir avec celles des 4 dernières années à la même époque, donc la saisonnalité ne joue pas.

Pour ceux touchés, avez-vous remarqué des ajustements ces derniers jours ?
Est-il possible que Panda n'était pas "entièrement" déployé ?
 
WRInaute accro
question stupide, depuis quelques jours, j'ai pleins de visiteurs provenant de stumbleupon.com, depuis les USA ou l'UK notamment, serai ce du à panda!!!?

est ce que google risque pas de voir ça comme du DC, j'ai pas regarder si c'était une ifram!!!?
 
WRInaute discret
Depuis le 12 août, baisse de 30% sur le nombre de visiteurs et -40% sur le nombre de pages vues.
Peut-être est-ce du fait que j'ai plus de l'affiliation diverse que d' Adsense ?
mon site passe de 6000 visiteurs/j à 4300. Je paierai moins d'impôts ;-)
 
WRInaute accro
nycos a dit:
Pour ceux touchés, avez-vous remarqué des ajustements ces derniers jours ?
Est-il possible que Panda n'était pas "entièrement" déployé ?
Comme d'habitude avec les nouveaux algo, je suis sur à 100% qu'il n'est déployé que partiellement.
Ca se fait toujours par couches / vagues.
On a eu des dernières vagues de May Day 8 mois après sa première mise en pratique.
On ajoute à ça les mises à jour comme l'ont connu les USA et on aura pas mal de webmaster qui font actuellement les coqs avec leur trafic qui vont déchanter dans les jours / semaines à venir.

Sinon, de mon côté sur les sites touchés, rien de nouveau. On a travaillé 10h par jour depuis le 12 non stop. Les stats ont bien bougé en terme de rebond, pages vues par visite, etc. On espère une retombée rapide et positive.

Comme toujours avec les pénalités ou filtres, il faut attendre un nouveau full crawl pour voir si on est sorti d'affaire. Et comme toujours les cycles sont de l'ordre de 3 à 5 semaines.
 
WRInaute passionné
Effectivement, il faut se rendre compte que l'analyse complète d'une page multiplié par des milliards de pages francophones, puis recréer les index ne doit pas se faire en 24h ...
Je pense comme @milkiway, 3 a 5 semaines ... début Octobre, ce sera déjà plus clair.
 
WRInaute occasionnel
milkiway a dit:
Est-ce que chez vous aussi l'intensité du crawl a beaucoup augmentée sur les sites non touchés ?
Mon site principal qui a profité (apparemment) de Panda (+30% trafic Google sur 1 semaine) a vu son crawl très fortement diminué depuis Juillet. Cela fait suite à une activité du bot intense qui a duré, si mes souvenirs sont bons, à peu près 3 mois.
 
WRInaute impliqué
Comme dans tout filtrage évolué, un process "d'auto-adaptativité" doit être mis en œuvre. Pour cela, il est quasi-certain que GG par ses passages d'index, (et indépendamment du reste) doit se construire un modèle pour bâtir ses algo et savoir comment évoluer.

Ça, ce doit être la grosse richesse de GG !!
L’intérêt du modèle c'est d'être prédictif et donc de pouvoir voir ce qui se passera dans quelques temps.
Et les coefficients du filtre Panda ou autre, évoluent en fonction de l’évolution du modèle et de la cible que se donne GG en sortie de son filtre ! :mrgreen:

Quant à connaitre les constantes de temps .... et la granularité du modèle (niveaux de détails pris en compte..)
 
WRInaute impliqué
longo600 a dit:
Effectivement, il faut se rendre compte que l'analyse complète d'une page multiplié par des milliards de pages francophones, puis recréer les index ne doit pas se faire en 24h ...
Je pense comme @milkiway, 3 a 5 semaines ... début Octobre, ce sera déjà plus clair.

le gros problème du filtrage, c'est l'initialisation.
Car tant que la durée de la constante de temps n'est pas atteinte les résultats sont pas stables.
 
WRInaute passionné
J'ai créé un index sur ma base pour un champ texte assez long pour plus de 2 millions de fiches, qui me permet de retrouver une fiche par des mots cles en quelques mimisecondes . Simplement, je fait la moulinette sur chaque mot pour lui attribuer son numéro d'enregistrement a chaque fois qu'il est trouvé, créant des tableaux mémoire enregistrés dans un champ binaire (blob).Au final, les résultats sont déjà pré-construits et il n'y a que le croisement des ensembles qui prend quelques millième de sec. Mais je ne suis pas un pro des index.
Toutefois, si je devais essayer de faire la même chose que google ou tout autre moteur, je ne me vois pas relancer les robots a chaque modif de mon algo.

je ferais un premier index, une première base.
Ensuite, je ferais un premier filtre simple pour épurer , en stockant le résultat dans une nouvelle base (ou plusieurs) ... et ainsi de suite, pour arriver a une (des) dernière(s) base(s) totalement épurée et servant d'index de recherche. Ce n'est que ma logique issue d'une approche sans connaissance, peut-etre que les spécialistes répondrons mieux que moi.

On voit très bien, quand on crée un nouveau site, même sans modifier aucune page, que Google passe plusieurs fois au début.

Sur un site de test utilisant un seul mot clé, c'est très flagrant: après le (re) passage du robot, les classement changent. Très fréquemment au début, puis après environ 2 mois maxi, c'est stabilisé.
Les changements evoluent alors en fonction du changement des algo.

Pour Panda : selon cette logique (a confirmer par des spés), panda serait un nouveau filtre, appliqué ou? Si ce nouveau filtre est chargé de contrôler plusieurs paramètres, il doit probablement lire par nécessité une partie du balisage, que les autres filtres n'ont probablement pas en résultat. Donc, revenir a l'origine du document complet? probablement, et il doit ensuite aller dans les différents critères pour en augmenter la valeur ou la diminuer, ce qui doit induire aussi des conséquences sur les autres tables ou bases.

Bref, ce que je veux résumer, c'est que la complexité comme le dit @pinrolland est bien réelle et que la propagation des analyses et résultats va sûrement s'étaler.
 
WRInaute passionné
Je le sais pas si l'outil alexa est fiable, mais en utilisant celui-ci pour comparer l'effet Panda sur les 50 principaux annuaires généralistes et d'entreprises, il y a plus d'évolution de trafic que de perte, la quasi majorité n'ont pas bougé depuis le 12 Aout (le miens non plus, légère augmentation).
 
WRInaute impliqué
Je le sais pas si l'outil alexa est fiable

Malheureusement, Alexa reflète essentiellement l'activité de webmasters et, donc pour les annuaires (du moins les annuaires généralistes de liens), il est fortement influencés par le trafic des nombreux webmasters qui quotidiennement proposent puis vérifient l'inscription de leur site ainsi que par le trafic des propres éditeurs de l'annuaire. Alexa ne reflète pas bien du tout le trafic des autres visiteurs de l'annuaire qui en général en France n'ont pas la barre Alexa ( or, ce sont ces visiteurs qui dépendent de la visibilité de l'annuaire sur les requêtes dans google).

En outre, Alexa n'est fiable que pour les tout gros sites (faute de représentativité de la barre Alexa dans le grand public francophone) et il est aisément manipulable pour les annuaires moyens et petits.

Il va donc être très difficile sur base d'Alexa de faire rapidement la différence entre les annuaires qui sont touchés et ceux qui ne le sont pas. (Edit : sans parler des nombreux webmasters qui, comme toi, vont visiter ces annuaires pour voir si et pourquoi ils ont été touchés par Panda :) et qui vont être pris en compte par Alexa).


Les seules choses qui soient indiscutables :
1. Panda a réduit la visibilité de certains annuaires.
2. Panda n'a pas "pénalisé" tous les annuaires. Et c'est aujourd'hui une erreur d'analyse d'écrire que Panda pénalise les annuaires comme les fermes de contenu.
 
WRInaute accro
C'est vrai que ça dérape sur les annuaires sur la foi de deux ou trois exemples emblématiques qui ont perdu des visites. Il y a assez de topics sur les annuaires ici sans tout ramener à eux quel que soit le sujet.
 
WRInaute passionné
kristel a dit:
Malheureusement, Alexa reflète essentiellement l'activité de webmasters

Ce qui me fait penser a une chose que je n'avais jamais vu sous cet angle auparavant (...): pour google, la part de trafic uniquement due au webmasters et au diverses vérifications de présence, ainsi que celles de simple analyse de positionnement, doit représenter un gros pourcentage.

Personnellement, j'utilise Google en moteur de recherche, comme pour vérifier professionnellement certaines positions et comportement. Ce que je ne fais quasiment jamais sur Bing.

Si la majorité des webmasters font de même, cela voudrais dire qu'en part de marché réelle pour une utilisation de recherche personnelle, Google aurait une part moins importante que celle affichée, et que Bing aurait plus d'utilisateurs "naturel" en proportion?
 
WRInaute impliqué
@ longo600
la majorité des sites sont destinés aux utilisateurs/consommateurs. L'activité webmaster/référencement n'est qu'une paille dans une botte de foin.

Pour Alexa, c'est l'outil qui est biaisé, pas la réalité.

NB
En adwords aussi, il a toujours été admis qu'une part des clicks était le fait de firmes de marketing, d'analyse, de veille, de concurrents,...
 
WRInaute accro
fredfan a dit:
Sans surprise, ça fait loterie. On ne voit pas forcément pourquoi certains sites sont touchés et pas certains autres
Parenthèse : CCM semble avoir résisté, peut-être suite aux modifications de ce printemps
je le pense aussi et c'est pourquoi il pourrait être judicieux que Olivier fasse la comparaison sur ses indices Ranking Metrics non pas entre 12/08 et 24/07, mais plutôt entre 12/08 et, mars ou avril 2011, car cela fait des mois que CCM (et surement d'autres) ont commencé à faire leur ménage donc au 24/07 ils avaient surement déjà perdu de la visibilité
 
WRInaute impliqué
+ 1
Demande déjà faite en vain (cfr page 9 de cette dicussion!).

Et il serait bon aussi de confirmer les chiffres post-panda pcq pas mal de gains et de pertes de visibilité annoncés avec fracas ici et ailleurs n'ont pas l'air de se confirmer dans les faits.

NB
A en croire google insight (ce n'est pas un indice de visibilité, mais, c'est quand même un indice parmi d'autres), le recul de CCM se poursuit après le 12 août
https://www.google.com/insights/search/#q=commentcamarche&date=today%20 ... 2-m&cmpt=q
 
Olivier Duffez (admin)
Membre du personnel
Adplanner a les mêmes problèmes que Google Trends for websites depuis avril, à savoir sous-estimer largement le trafic. D'ailleurs ce sont peut-être quasiment les mêmes données qui sont exploitées par les 2 outils.

J'ai pu vérifier avec des gros sites que depuis avril, le trafic réel n'a plus grand chose à voir avec ce trafic estimé...
 
WRInaute accro
WebRankInfo a dit:
J'ai pu vérifier avec des gros sites que depuis avril, le trafic réel n'a plus grand chose à voir avec ce trafic estimé...
au mois d'avril il y a eu un changement dans le comptage des uniques visitors et, même si les valeurs sont inexactes, la tendance de l'évolution semble refléter la situation réelle, non ?
et sinon, par rapport à Ranking Metrics, que donne l'évolution mars/août, au moins pour ccm ?
 
WRInaute accro
si l'on regarde alexa, plutôt fiable pour un site aussi gros, surtout sur une tendance "trafic moteur", son audience n'a pas bougée
 
Discussions similaires
Haut