Annonces Google

Vous êtes ici : Dossiers référencement > Brèves

Le site pandalized.com affiche les stats des sites pénalisés par Panda (Google)

Par , le 08 décembre 2011

Vous trouverez sur le "site" pandalized.com (d'une seule page) une liste de graphiques montrant les statistiques de trafic d'un certain nombre de sites victimes du nouveau filtre Panda dans l'algorithme Google (SEO).

Voilà un exemple caractéristique : le site ehow.com, considéré comme une ferme de contenus :

estimation du trafic de ehow.com et chute après Panda

estimation du trafic de ehow.com et chute après Panda

Il y a d'autres gros sites panda-ifiés, cette liste n'est pas exhaustive.

A propos... aux US on discute pas mal des possibilités de se sortir de Panda en découpant son site en sous-domaines ou en différents noms de domaine, par exemple ici. Avez-vous rencontré d'autres articles qui abordent ce sujet ?

Cet article vous a-t-il plu ?
Cliquez pour voter !

A propos de l'auteur : Olivier Duffez Olivier Duffez sur Google+ Olivier Duffez sur Twitter Olivier Duffez sur Facebook Olivier Duffez sur Pinterest Olivier Duffez sur LinkedIn

Consultant en référencement, Olivier Duffez a travaillé pour les plus grands sites (Doctissimo, FNAC,...). Il édite le site WebRankInfo qu'il a créé en 2002, devenu la + grande communauté francophone sur le SEO (+300.000 membres, 1,5 million de posts). Il est aussi cofondateur de Ranking Metrics, leader des formations webmarketing en France (SEO, AdWords, Analytics, réseaux sociaux) et éditrice de la plateforme MyRankingMetrics (crawler et audit SEO en ligne).

Article (pandalized.com : des stats sur les sites victimes de Google Panda) publié par WebRankInfo dans la rubrique Brèves. Si vous souhaitez publier un extrait de cet article sur votre site, assurez-vous de respecter les conditions générales d'utilisation de WebRankInfo.

16 commentaires

  • Yassine a dit le

    Sauf erreur de ma part j'ai lu quelque part de source sérieuse que Panda pouvait attaquer uniquement des pages et non tout le site. D’où la séparation (ou l'ablation) des parties non qualitatives comme solution à Panda.

  • Olivier Duffez a dit le

    Je n'aime pas tellement ce genre de commentaires car sans fournir la source de l'information, ce n'est pas exploitable...
    Moi je dirais les choses autrement : Panda détecte les pages de mauvaise qualité ; si elles sont trop nombreuses sur un site, tout le site peut être pénalisé ; mais si on les supprime ou les déplace ailleurs, le reste du site peut revenir à la prochaine itération de Panda.

    Mais on a très peu de retours d'expérience sur ce genre d'analyse !

  • Yassine a dit le

    En réalité je ne me rappelle plus de la source, il y en a tellement, mais de mémoire la source devait être sérieuse.

  • Cédric a dit le

    Le site comprendrechoisir qui est une pure ferme de contenu me semble avoir trouvé la solution adéquate pour éviter le filtre panda..?.
    En effet, tout tourne en sous-domaines, sur tout et n'importe quoi, et y est ajouté une bonne dose de social. Google n'y voit que du feu, et le site prend un envol non négligeable...

  • ABAL a dit le

    Il est clair que les sites et uniquement les gros sites ayant trop de pages truffées de publicité, de liens cassés et de contenu quasiment similaire ont été lourdement pénalisé.

    En fait Google joue la carte du spécialiste. La technique des mini-sites fonctionne donc parfaitement pour échapper à Panda.

    Et encore une fois, je pense qu'il vaut mieux découper son site et réserver plusieurs domaines, au moins si une partie est foireuse ça ne pénalise pas tout le site...

    Enfin le référencement, c'est comme les crêpes, chacun a sa recette et Panda fait des grumeaux.

  • Asma a dit le

    Ils parlent de ça ici :

  • baptiste a dit le

    Olivier, "le reste du site peut revenir à la prochaine itération de Panda." Explique nous le "prochaine itération de Panda" Car chez moi cela ne bouge pas, j'ai opter pour la suppression des pages non qualitatives, avec la balise CONTENT="noindex"

  • Olivier Duffez a dit le

    @baptiste : Panda n'est pas mis à jour en continu, Google a sans doute besoin de temps pour faire des analyses et réévaluer les sites. Il faut donc attendre une prochaine mise à jour de Panda pour espérer voir du changement.

  • Nicolas a dit le

    @Olivier : le problème c'est que le filtre en France a fait beaucoup moins de victimes, que beaucoup de sites touchés ne se sont pas déclarés, et surtout que les sites clairement identifiés par les webmasters comme susceptibles d'être pénalisés (commentcamarche par exemple) ne l'ont pas été. Du coup on garde un sentiment de déception face à ce filtre.

  • baptiste a dit le

    @Olivier Merci pour l'info, je vais expliquer cela à l'URSSAF au RSI et centre des impôtS :-)

    @Nicolas oui nous faisons profil bas...

  • Hortense a dit le

    D'après un autre article que j'ai lu, ce serait le site HubPages qui aurait lancé cette rumeur en juillet 2011. Le référenceur du site aurait reçu des conseils de Matt Cutts (rien que ça !). Le site déclare en effet avoir nettement amélioré son classement.

    Pas convaincue ! Je doute que diviser le site en mini-sites soit la solution car faire des tout petits sites n'est pas vraiment bon côté SEO. Il vaudrait beaucoup mieux désindexer les mauvais contenus plutôt que de chercher à tourner autour du DNS ;)

    Source : http://actu.abondance.com/2011/07/des-sous-domaines-pour-contrer-google.html

  • Olivier Duffez a dit le

    Tout à fait Hortense, moi aussi j'avais écrit un article sur ce sujet dans lequel j'exprimais mes gros doutes. Je pense que le site avait bénéficié d'une prime de fraicheur et que le webmaster s'en était vanté très vite, avant même qu'une nouvelle mise à jour de Google Panda arrive. Mon article : découper son site en sous-domaines pour contrer Panda.

  • David Cohen @dwynot a dit le

    Hello

    AMHA si Panda n'est pas un algoritme en continu, ce n'est pas parce que

    "Google a sans doute besoin de temps pour faire des analyses et réévaluer les sites."

    mais parce que les calculs de PANDA sont lourds et qu'ils ne peuvent tourner en continu. Donc Google traite sa base (par morceaux) et la renvoie dans les SERP jusqu'à la prochaine fois.
    Et les "algo" continuent leur job.

    Je me permets de penser que si on réfléchit plus souvent en terme d'économie de gestes, de calculs, de crawl alors on comprend mieux des réactions de Google comme le duplicate (économie de crawl) ou Panda en discontinu.

    David C

  • Gildas a dit le

    Bonjour,

    j'ai un vieux site (créé en 2001) portail délibérément agrégateur de contenus destinés non pas à faire du contenu gratos et sans se fatiguer mais pour guider l'internaute vers des sites susceptible de l’intéresser (et 0 pub, les liens sont gratuits et sans liens retour!). Et bien le vilain Panda a divisé mes visites par 2, je ne retrouve même plus mon site sur Google (ou alors au fin fond de la 20è page sur des expressions où il était premier). Voilà une victime.

  • baptiste a dit le

    Pour info et pour faire suite a mon message du 09/12/11 j'ai fais supprimer plus 4000 pages sur 8000. et tjs rien.
    @Gildas Voilà une autre victime.

  • nams a dit le

    @batiste
    Tu as fait quoi exactement ?
    Suppression pure et simple des pages (404)
    Avec 301 ?
    Noindex ?

    Peut être qu'il reste des pages de mauvaise qualité, duplicate content ? Ou pas assez de contenu unique / original ?

    C'est possible de voir le site en question ?

Postez un commentaire !

Les champs marqués du signe * sont obligatoires. L'adresse email ne sera pas affichée.

En postant un commentaire, vous acceptez les CGU du site WebRankInfo.

Catégories des dossiers

Consultez les dossiers par thématiques :

Annonces Google

Formation référencement et webmarketing

Venez chez Ranking Metrics vous former au référencement, à Google AdWords et Analytics ainsi qu'aux réseaux sociaux ! Plus de 4000 entreprises sont déjà venues (Dossier possible OPCA...).

Préparés et animés par Olivier Duffez (WebRankInfo) et Fabien Faceries (AgentWebRanking), 2 professionnels reconnus dans le domaine, nos modules sur le référencement naturel sont très complets tout en laissant une grande place à l'interactivité pour répondre à toutes les questions des participants.

Pour connaître le plan détaillé de chaque module, le prix, les dates et les lieux, consultez le site de Ranking Metrics (organisme de formation).

Hébergement web

Hébergement web mutualisé et dédié

Pour un bon référencement, il faut un bon hébergeur. Testez Sivit by Nerim, l'hébergeur choisi par Olivier Duffez pour son site WebRankInfo.

A partir de 3€ HT/mois.

Annonces Google


30 Partages