Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

Découper son site en sous-domaines pour Google Panda

C’est sans doute la première fois qu’on entend parler d’un gros site disant avoir trouvé une solution pour récupérer (une partie de) son trafic après avoir été impacté par Panda. En résumé, ce portail d’articles isole ses contenus dans des sous-domaines… Est-ce réellement la solution ? Lisez ces éléments de réponse !

Découpage de site en sous domaines : une technique pour revenir après une pénalité Panda ?

Découper un site en sous domaines : une technique pour revenir après une pénalité Panda ? C'est ce que prétend le site hubpages.com

Je sens que les sous-domaines vont être à la mode dans les mois à venir… En effet, le responsable du site HubPages.com vient d’annoncer qu’après avoir subi les foudres de Google Panda, il semble avoir trouvé une solution (le Wall Street Journal a même consacré un article à ce sujet). Ce site permet à des milliers de contributeurs de publier des articles. Malheureusement, s’il y en a de très bons, il y en a aussi des très mauvais, ce qui a sans doute suffi à déclencher une pénalité Panda (car un site peut être entièrement pénalisé si une partie seulement est jugée de mauvaise qualité…). Paul Edmondson a donc proposé à certains membres de migrer leurs contenus vers des sous-domaines. En isolant les contenus de chaque membre dans un sous-domaine dédié, HubPages.com donne en fait à chacun de ces sous-sites la chance d’échapper à Panda – si la qualité du contenu est au rendez-vous. En fait, HubPages.com reproduit une structure de type plateforme de blogs (par exemple wordpress.com n’a pas eu de problèmes avec Panda).

Depuis, les membres sont tous invités à migrer leurs contenus vers des sous-domaines. Les premiers témoignages sont impressionnants : des hausses de trafic de 50% à 100% en quelques jours à peine !

Une des choses étonnantes dans cette histoire, c’est que ce site a eu un conseil fourni directement par Matt Cutts. Etait-il aussi flou que « Oui, vous pouvez tenter d’utiliser des sous-domaines » ou bien « Si vous déplacez tous vos contenus de mauvaise qualité vers des sous-domaines, le reste du site ne sera plus pénalisé par Panda » ?

Est-ce suffisant pour sortir des griffes de Panda ? Y a-t-il d’autres éléments qui ont été modifiés et que Paul Edmondson n’a pas mentionnés ? Si vous en connaissez, merci de les indiquer dans les commentaires. Par exemple, je n’ai pas trouvé si une redirection 301 a été mise en place pour migrer les contenus vers les sous-domaines. Egalement, les sous-domaines sont-ils indépendants du reste du site (en termes de maillage) ?

Est-ce vraiment une solution pour éviter Panda ou bien est-ce une coïncidence ? Car Panda n’est mis à jour que de temps en temps et la dernière mise à jour officielle est Panda 2.2 du 16 juin. Or les changements effectués sur hubpages.com datent de fin juin…

Est-ce lié à un phénomène de type prime de fraîcheur ?

Bref comme vous le constatez je me pose pas mal de questions. D’ailleurs pour l’instant je ne conseille pas à ceux qui ont eu un problème avec Panda de créer plein de sous-domaines. N’agissez pas dans la précipitation !

Formation référencement Google Panda

Ranking Metrics vous propose une formation Panda (algorithme Google)

Qu’en pensez-vous ? Allez-vous tester quelque chose de ce genre sur votre site ?

Donnez votre avis ici dans les commentaires ou dans la discussion du forum sur Google Panda et les sous-domaines.

Vous trouverez d’autres articles sur le sujet, par exemple ceux de Barry Schwartz  qui indique en fait que les contenus de mauvaise qualité ont été migrés vers des sous-domaines afin de lever la pénalité sur le reste du site. Lire aussi son article sur SEL ou la discussion sur WebmasterWorld. et l’article de Dave Harry qui doute fortement.

Cet article vous a-t-il plu ?

Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

44 commentaires

iPaooFr

Espérons cette information soit confirmée. Imaginez un peu le désastre si les générateurs de site internet qui hébergent les sites de leurs clients en sous domaines devait pâtir du contenu des sites générés avec leur système !!

Répondre
Olivier Duffez

@iPaooFr : le pb n’est pas le même si tu le prends dans l’autre sens. Evidemment que des sites qui ont toujours été en sous-domaines ET qui n’ont rien à voir l’un avec l’autre ne sont pas concernés par cette histoire. Là on parle de diviser un gros sites en plusieurs petits plus ou moins indépendants…

Répondre
Nicolas

Diviser pour mieux régner, ça ne date pas d’hier ;-)

Répondre
Nicolas Chevallier

Ca parait assez logique, mais comme dit dans l’article c’est peut être aussi un effet prime de fraicheur qui va s’estomper… A vérifier dans quelques semaines.

Répondre
Nicolas L.

Bonjour Olivier,

Ça me fait penser à l’une des 23 questions « à se poser » pour éviter Panda.

Cette question :

“ Le contenu est-il créé par de très nombreux rédacteurs ou réparti sur de nombreux sites afin de diluer son impact ? „

J’avais interprété cela de cette manière :
« Si vous avez beaucoup de rédacteurs ou si vous divisez votre site en plusieurs parties, vous risquez d’être PÉNALISÉ par Google Panda. »

J’en avais donc conclu que « hacher » son site en petites parties était risqué. Ici, je remets en question mon interprétation de cette « question ».

Peut-être que cela signifiait plutôt :
« Si vous avez beaucoup de rédacteurs ou si vous divisez votre site en plusieurs parties, vous risquez MOINS d’être pénalisé par Google Panda. »

Tout avis sur la question m’intéresse.

Répondre
jojo

Nocolas L. : « J’avais interprété cela de cette manière :
« Si vous avez beaucoup de rédacteurs ou si vous divisez votre site en plusieurs parties, vous risquez d’être PÉNALISÉ par Google Panda. » »

A mon avis c’est plutôt : « est-ce que vous faites de l’agrégation de contenus ou est-ce que vous redistribuez votre contenu en marque blanche ? » En gros : Huffington Post pour le premier cas, AFP, Reuteurs etc. pour le second.

Répondre
Protée

En tout cas, cela serait une bonne nouvelle pour WebRankInfo qui a mis son forum en sous domaine tandis l’annuaire et les dossiers (a priori mieux contrôlés quant à la qualité du contenu) sont restés sur le domaine principal.
M. Duffez est un visionnaire… même si l’intention de départ est à rechercher ailleurs. ;-)

Répondre
david

Cela est bien possible ! J’ai cherché un gros site sur le web et j’ai trouvé vivastreet.fr qui est créé entierement en sousdomaines.
A la différence de certains site d’annonces qui ont été touché par panda quand on regarde la courbe sur alexa de vivastreet.fr ils sont l’air de ne pas avoir été touché, juste une baisse de 0,4% en 1 mois mais nous sommes dans une période de vacances donc les sousdomaines c’est a suivre !

Répondre
Infosimmo

Le critère principal (?) de notre meilleur ami Google est la pertinence… et donc pour éviter de la diluer, on répartit… Et donc on revient à la base : comment être pertinent… Multisites & Multidomaines Vs Gros sites & répertoires…

Répondre
Hernan

Ça me paraît on ne peut plus logique pour ma part. Si j’ai bien compris Hubpages adopte une structure de plate forme de blog en créant un espace dédié à chaque membre. Du coup un sous domaine peut être recalé dans les moteurs tendis qu’un autre peut être pertinent. Ce qui permet à Google de mieux filtrer les contenus.
Mais ça montre aussi clairement autre chose : Google Panda ne calcule pas son référencement url par url, mais pondère visiblement en fonction du nom de domaine. Ce qui veux dire qu’il juge a priori du contenu d’un site et qu’un article encore inexistant peut déjà avoir des pénalités en fonction du support où il paraîtra…
Je sais, ça ne paraît pas nouveau, mais il aura pourtant fallu cette initiative de Hubpages pour le confirmer…

Répondre
ID Agency

Il faudra vérifier d’ici quelques semaines si l’impact est réel, mais si c’est le cas, cela sera finalement un terrible désaveu pour Google et son Panda, car la parade sera tout trouvée pour les sites touchés…

Répondre
Olivier Duffez

@ID Agency : pourquoi un désaveu ? Google ne cherche pas à tout prix à pénaliser les sites, l’objectif est de pénaliser les contenus de mauvaise qualité. Si les gestionnaires de sites font le boulot de séparer les bons et les mauvais contenus, ça ne pose pas de problème à Google. D’ailleurs, cette idée n’est pas nouvelle, Matt Cutts avait lui-même conseillé de découper un site en plusieurs, pour conserver les contenus de bonne qualité sur le site principal.

Répondre
Danièle

Bonjour,
Cela voudrait-il dire que si un site est pénalisé par Panda, et que par la suite le propriétaire effectue des « actions correctives » donc des modifications sur son site, le site ne serait plus pénalisé et cela se passerait en seulement quelques jours ?

Répondre
Olivier Duffez

@Danièle : oui a priori c’est possible de revenir, par contre ça parait peu probable que cela puisse se faire en quelques jours (c’est pourquoi je suis sceptique dans mon article). En effet, Panda n’est appliqué que de temps en temps et pas en continu.

Répondre
Fred

La segmentation en sous-domaines permet d’homogénéiser le contenu d’un domaine de manière thématique (chaque sous domaine rassemblant par exemple une super catégorie) et/ou (pourquoi pas) qualitatif. Dès lors, il n’est pas surprenant, dans la logique du Panda (et souvent pour l’internaute), que ces sous-domaines deviennent bien plus pertinents pris indépendamment sur des groupes de requêtes.

Répondre
Olivier Duffez

@Fred : pour ma part je n’ai jamais vu qu’il soit nécessaire de découper un site en sous-domaines par thématiques. Exemple : Wikipedia met tout dans un seul répertoire (et sous-domaine par langue) sans que cela pose le moindre problème.

Répondre
SeoNoob

@Olivier Duffez les publications wikipedia sont de qualité.

Je pense que cette solution marche dans les deux sens.
D’un coté tu n’est pas pénalisé si un membre poste un contenu merdique ailleurs, mais de l’autre côté tu ne bénéficie pas du thrust que pouvez avoir le domaine en lui même.

Répondre
gestion locative

Ca ne m’étonne pas que ça fonctionne, vu que un des buts de Panda était de bloquer les sites touchant un peu à tout.
Donc finalement, il serait donc plus logique d’avoir des sites (ou sous-domaines) dédiés à un sujet, plutôt qu’un domaine généraliste…
Bref, je trouve que c’est du tripatouillage pour pas grand chose au final, surtout quand la prochaine MAJ de Google viendra contrer cet effet…

Répondre
Fred

@Olivier : oui, le découpage n’est heureusement pas nécessaire, mais peut s’avérer pratique en cas de déséquilibre (thématique / contenu) pour une meilleure optimisation. Je pense aussi plus à des sites « moyen » qu’à des monstres genre wikipedia lequel a déjà effectivement le multilinguisme réparti en sous-domaines – chacun répondant d’ailleurs à une homogénéite linguistique du contenu -. La quantité et la densité du contenu de Wikipedia pourrait compenser en partie l’hétérogénéité thématique d’un même sous-domaine(en dehors de toutes considérations « backlinkesques » et « linkinginternesques » :))

Répondre
All-4-Search

Si c’est une solution, Google va travailler dessus.
Je pense que si plusieurs/nombreux sous domaines sont sujets à Panda, le domaine en pâtira également.
Ils ne sont pas fous chez Google.
A débattre: un sous domaine peut-il entacher la réputation de son domaine ?

Répondre
Arthur Com

Les sous-domaines reviennent sur le devant de la scène.
Ils étaient récemment évités car les urls n’influaient plus sur le référencement et donc le positionnement Google. Voilà qu’ils seraient une peut-être porte de sortie pour le Panda ?
A suivre !

Répondre
Olivier Duffez

@Arthur Com : c’est quoi cette histoire de « les urls n’influaient plus sur le référencement et donc le positionnement Google » ? Pouvez-vous préciser et donner des sources ?

Répondre
facebookons

@Olivier Duffez : Merci pour cette info, on aurait enfin une parade assez simple à mettre en place finalement, on crée un sous domaine « corebeille.monsite » et on met les pages de mauvaises qualité à l’intérieur, et hop le tour est joué!
Une autre solution pourrait peut-être consister à supprimer tout simplement les pages de mauvaises qualité?

Répondre
Olivier Duffez

Oui facebookons, désindexer les pages de mauvaise qualité est une des solutions à Panda. Le mieux étant sans doute d’améliorer la qualité des pages plutôt que de les faire désindexer.

Répondre
kristoguy

L’analyse est un peu réductrice. Il ne faut pas oublier qu’un des critères important pour qu’une page puisse s’afficher c’est sa fraîcheur dans l’index. Donc une bonne analyse devrait commencer par l’impact sur l’indexation des pages de cette manip, donc comparer avant et après.

Répondre
musicqualite

on va bien voir, mais cela vaut quand même le coup de faire un essai sur les pages ayant peu d’intérêt ou celle étant dans l’index secondaire de gg.

Répondre
Forum iPad

Très bonne analyse ,

Mais dure de tirer une conclusion , attendons quelques semaines.

Répondre
Netformance

Mais où sont passés ces fameux sous-domaines ?

En saisissant la requête [site:hubpages.com -site:http://hubpages.com/], on ne constate aucun sous-domaine Hubpages.com indexé par Google.

Google a-t-il déjà appliqué une mise à jour ?

Répondre
Olivier Duffez

Ta requête exclut toutes les pages de tous les sous-domaines de hubpages… elle ne risque pas de renvoyer quoi que ce soit ! Si tu essayais un truc de ce genre ?

Répondre
Netformance

@Olivier Duffez : Effectivement, j’en déduis que les « http:// » ne sont pas pris en compte par la commande « site: ». Merci pour ta réponse.

Répondre
Netformance

@Olivier Duffez : pour revenir sur 2 de tes remarques :

« Par exemple, je n’ai pas trouvé si une redirection 301 a été mise en place pour migrer les contenus vers les sous-domaines. »

>> Apparemment, des redirections 301 ont été mises en place. Ex : redirige bien en 301 vers http://rebeccae.hubpages.com/hub/Why-Everything-Sucks-When-The-Going-Gets-Hard-With-Publishing

« Également, les sous-domaines sont-ils indépendants du reste du site (en termes de maillage) ? »

>> Ils semblent que Non. Sur la page http://hubpages.com/authors/best/, la plupart des pages profils pointent vers des sous-domaines. Remarque : ce n’est pas le cas pour tous les profils (ex :

Répondre
Olivier Duffez

Dans ce cas, s’il y a des redirections et du maillage, je crois encore moins à la thèse du « on a battu Panda ! » et un peu plus à l’effet prime de fraîcheur, nouvelles pages. Mais on n’a pas assez d’éléments pour bien juger tout ça.

Le problème c’est qu’un paquet de gens vont découper leur site et créer des tonnes de sous-domaines car ils pensent que c’est la solution ultime à Panda, ce qui n’est absolument pas le cas…

Répondre
Arthur Com

@ Olivier : ma remarque concernait les mots clés présents dans le nom de domaine qui n’impacteront plus ou peu sur le positionnement sur ces mots clés. Bien entendu, je ne parle pas du complément de l’url (/super-billet) qui prendra de plus en plus d’importance pour catégoriser le lien et son contenu mais bien du sous-domaine uniquement.
J’avais lu cela sur plusieurs sites/blogs comme http://www.generation-trafic.fr/faut-il-avoir-peur-de-google-panda/ ou http://www.webmeimfamous.com/referencement-seo/panda-la-mise-a-jour-de-algorithme-google-qui-fait-trembler-le-web/ par exemple.
Ton avis ?

Répondre
Arthur Com

Effectivement, ce ne serait pas fondé… pour le moment. On va attendre que Panda montre le bout de son kung-fu pour conclure ;)

Répondre
juicelink

C’est l evidence meme.ledomaine de ce site est un sous domaine du domaine .com google ne va pas penaliser tout le web si ce site a un mauvais contenu

Répondre
aquaportail

Est-ce que la base de Panda n’a pas aussi une action manuelle en plus de répondre à certains critères d’un algorithme? En créant des sous-répertoires, ceux-ci, nouveaux ne sont pas (encore) impactés par GG, car comment impacter des domaines tout neufs? Surtout que ces nouveaux domaines bénéficient de facto d’un linking déjà existant : ça doit se ressentir sur les résultats de recherches = domaine neuf + vieux liens => bonne place.

La prime de fraicheur est effectivement une piste à suivre.

Pour en revenir à wikipedia, il y a bien une division en sous-répertoire.

Répondre
Olivier Duffez

@aquaportail : tu mélanges les domaines et les sous-domaines… quand des sous-domaines sont interconnectés (par des liens) aux autres sous-domaines, Google sait très bien qu’il s’agit du même site (donc pas nouveau).
Pour Wikipédia : tous les articles sont dans le même répertoire (virtuel) : /wiki/ sans sous-division

Répondre
guess_who

En tout cas, je viens de remarquer ce matin que le comparateur Shopzilla vient de diviser son site en sous domaine.
(Shopzilla a perdu 70 % de son trafic en Angleterre suite à Panda)

Répondre
Marc.L

Pour Google, un sous domaine est un nouveau site point. Il est traité en tant que tel ! indexation ultra rapide, prime de fraicheur … et puis viens l’analyse profonde … et avec elle, la sanction ou la mise en avant. Si le contenu est null, il sera sanctionné pareil, sans aucune différence. Il ne faut pas crier victoire sur une prime de fraicheur. Au pire, en profiter au mieux pour faire le mieux …

Répondre
Jean-Luc

ça peut marcher jusqu’à Panda 2 ^^ le retour

Répondre
Les Affaires

Il semblerait que cette solution ne soit plus très à jour avec les update de Panda de ces derniers temps.

Répondre
Olivier Duffez

@Les Affaires : comme je l’ai écrit dans mon article à l’époque, je pense que ça n’a jamais été une solution à Panda…

Répondre
affiliate amazon

Il ne faut pas crier victoire sur une prime de fraicheur. Au pire, en profiter au mieux pour faire le mieux …

Répondre