Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Le site pandalized.com affiche les stats des sites pénalisés par Panda (Google)

Vous trouverez sur le « site » pandalized.com (d’une seule page) une liste de graphiques montrant les statistiques de trafic d’un certain nombre de sites victimes du nouveau filtre Panda dans l’algorithme Google (SEO).

Voilà un exemple caractéristique : le site ehow.com, considéré comme une ferme de contenus :

estimation du trafic de ehow.com et chute après Panda

estimation du trafic de ehow.com et chute après Panda

Il y a d’autres gros sites panda-ifiés, cette liste n’est pas exhaustive.

A propos… aux US on discute pas mal des possibilités de se sortir de Panda en découpant son site en sous-domaines ou en différents noms de domaine, par exemple ici. Avez-vous rencontré d’autres articles qui abordent ce sujet ?

Cet article vous a-t-il plu ?

Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

16 commentaires

Yassine

Sauf erreur de ma part j’ai lu quelque part de source sérieuse que Panda pouvait attaquer uniquement des pages et non tout le site. D’où la séparation (ou l’ablation) des parties non qualitatives comme solution à Panda.

Répondre
Olivier Duffez

Je n’aime pas tellement ce genre de commentaires car sans fournir la source de l’information, ce n’est pas exploitable…
Moi je dirais les choses autrement : Panda détecte les pages de mauvaise qualité ; si elles sont trop nombreuses sur un site, tout le site peut être pénalisé ; mais si on les supprime ou les déplace ailleurs, le reste du site peut revenir à la prochaine itération de Panda.

Mais on a très peu de retours d’expérience sur ce genre d’analyse !

Répondre
Yassine

En réalité je ne me rappelle plus de la source, il y en a tellement, mais de mémoire la source devait être sérieuse.

Répondre
Cédric

Le site comprendrechoisir qui est une pure ferme de contenu me semble avoir trouvé la solution adéquate pour éviter le filtre panda..?.
En effet, tout tourne en sous-domaines, sur tout et n’importe quoi, et y est ajouté une bonne dose de social. Google n’y voit que du feu, et le site prend un envol non négligeable…

Répondre
ABAL

Il est clair que les sites et uniquement les gros sites ayant trop de pages truffées de publicité, de liens cassés et de contenu quasiment similaire ont été lourdement pénalisé.

En fait Google joue la carte du spécialiste. La technique des mini-sites fonctionne donc parfaitement pour échapper à Panda.

Et encore une fois, je pense qu’il vaut mieux découper son site et réserver plusieurs domaines, au moins si une partie est foireuse ça ne pénalise pas tout le site…

Enfin le référencement, c’est comme les crêpes, chacun a sa recette et Panda fait des grumeaux.

Répondre
Asma

Ils parlent de ça ici :

Répondre
baptiste

Olivier, « le reste du site peut revenir à la prochaine itération de Panda. » Explique nous le « prochaine itération de Panda » Car chez moi cela ne bouge pas, j’ai opter pour la suppression des pages non qualitatives, avec la balise CONTENT= »noindex »

Répondre
Olivier Duffez

@baptiste : Panda n’est pas mis à jour en continu, Google a sans doute besoin de temps pour faire des analyses et réévaluer les sites. Il faut donc attendre une prochaine mise à jour de Panda pour espérer voir du changement.

Répondre
Nicolas

@Olivier : le problème c’est que le filtre en France a fait beaucoup moins de victimes, que beaucoup de sites touchés ne se sont pas déclarés, et surtout que les sites clairement identifiés par les webmasters comme susceptibles d’être pénalisés (commentcamarche par exemple) ne l’ont pas été. Du coup on garde un sentiment de déception face à ce filtre.

Répondre
baptiste

@Olivier Merci pour l’info, je vais expliquer cela à l’URSSAF au RSI et centre des impôtS :-)

@Nicolas oui nous faisons profil bas…

Répondre
Hortense

D’après un autre article que j’ai lu, ce serait le site HubPages qui aurait lancé cette rumeur en juillet 2011. Le référenceur du site aurait reçu des conseils de Matt Cutts (rien que ça !). Le site déclare en effet avoir nettement amélioré son classement.

Pas convaincue ! Je doute que diviser le site en mini-sites soit la solution car faire des tout petits sites n’est pas vraiment bon côté SEO. Il vaudrait beaucoup mieux désindexer les mauvais contenus plutôt que de chercher à tourner autour du DNS ;)

Source : http://actu.abondance.com/2011/07/des-sous-domaines-pour-contrer-google.html

Répondre
Olivier Duffez

Tout à fait Hortense, moi aussi j’avais écrit un article sur ce sujet dans lequel j’exprimais mes gros doutes. Je pense que le site avait bénéficié d’une prime de fraicheur et que le webmaster s’en était vanté très vite, avant même qu’une nouvelle mise à jour de Google Panda arrive. Mon article : découper son site en sous-domaines pour contrer Panda.

Répondre
David Cohen @dwynot

Hello

AMHA si Panda n’est pas un algoritme en continu, ce n’est pas parce que

« Google a sans doute besoin de temps pour faire des analyses et réévaluer les sites. »

mais parce que les calculs de PANDA sont lourds et qu’ils ne peuvent tourner en continu. Donc Google traite sa base (par morceaux) et la renvoie dans les SERP jusqu’à la prochaine fois.
Et les « algo » continuent leur job.

Je me permets de penser que si on réfléchit plus souvent en terme d’économie de gestes, de calculs, de crawl alors on comprend mieux des réactions de Google comme le duplicate (économie de crawl) ou Panda en discontinu.

David C

Répondre
Gildas

Bonjour,

j’ai un vieux site (créé en 2001) portail délibérément agrégateur de contenus destinés non pas à faire du contenu gratos et sans se fatiguer mais pour guider l’internaute vers des sites susceptible de l’intéresser (et 0 pub, les liens sont gratuits et sans liens retour!). Et bien le vilain Panda a divisé mes visites par 2, je ne retrouve même plus mon site sur Google (ou alors au fin fond de la 20è page sur des expressions où il était premier). Voilà une victime.

Répondre
baptiste

Pour info et pour faire suite a mon message du 09/12/11 j’ai fais supprimer plus 4000 pages sur 8000. et tjs rien.
@Gildas Voilà une autre victime.

Répondre
nams

@batiste
Tu as fait quoi exactement ?
Suppression pure et simple des pages (404)
Avec 301 ?
Noindex ?

Peut être qu’il reste des pages de mauvaise qualité, duplicate content ? Ou pas assez de contenu unique / original ?

C’est possible de voir le site en question ?

Répondre