Déclassement massif sur Google, Contenus dupliqués en cause ?

Nouveau WRInaute
Bonjour,

Je travail sur le référencement des sites web d'une franchise de restaurants spécialisée dans la livraison de plateaux repas.
L'entreprise dispose d'un site principal (vente en ligne) et chaque restaurant possède un site monté sur un domaine spécifique (près de 110 au total). Le site principal progresse de manière constante dans les résultats de Google depuis 3 ans, tout comme les sites individuels... et voilà qu'il y a 3 jours, tout s'écroule ! Google a décidé de pénaliser 70 sites individuels (pas de problèmes sur le site principal) sans explications bien entendu.

Alors il est certain que ces sites individuels reprennent parfois le même contenu en page d'accueil, c'est inévitable, mais cela est ainsi depuis 3 ans... sans que ça ne pose de problèmes.

Comment Google peut-il décider du jour au lendemain de déclasser ces sites ?
Dois-je attendre le temps de voir si tout revient dans l'ordre ?

Je précise qu'ils ne sont pas désindexés, seulement déclassés.

Exemple de sites : http://www.classcroute-avignon.com et http://www.classcroute-metz.com qui étaient en bonne place sur la requête "livraison repas Avignon" ou "livraison repas Metz"

Merci d'avance
 
WRInaute accro
Sans doute s'agit il d'un déclassement justifié par les contenus identiques.

il y avait mieux à faire sur le site principal seul en termes d'optimisations pour éviter d'avoir 70 sous domaines identiques et tenter de se classer sur ces requêtes géolocalisées.
 
Nouveau WRInaute
Oui il est certain que les évolutions constantes de l'algorithme Google pour repérer les contenus dupliqués, c'était de plus en plus risqué. Mais il y a 3 ans, cette stratégie d'apporter un site individuel a chaque magasin était encore la plus efficace...

A noter d'ailleurs que ce ne sont pas des sous-domaines mais bien des domaines spécifiques.

Penses-tu que je puisse espérer un éventuel ré-examen ?
 
WRInaute discret
l'algorithme de google est en perpétuel évolution. L'idéal aurait été de garder ce même site principal et faire une liste comme des catégories des différentes chaines de restauration. Comme cela vous auriez eu une page pour chaque chaine de restaurant avec une url, description et mots clés.
 
WRInaute occasionnel
Hello.

Il semble que depuis le printemps et un certain mayday, gougeule réévalue en profondeur les sites.
Ce qui fait que certaines choses qui passaient plutôt bien jusque la sont prises en compte maintenant et cela introduit parfois de grandes variations dans les positions.

C'est comme cela, chaque mise à jour de l'algo génère des remises en question.

Donc la première chose a faire c'est de réfléchir vite et bien à : comment supprimer le duplicate content.

Ce n'est pas évident de repenser un groupe de sites ainsi, mais il semble que se soit un passage obligé ; augmenter le texte individuel de chaque établissement, et réduire la partie commune.

Il me vient une question, à laquelle d'autres plus expérimentés pourraient réfléchir : pour ce genre de cas, d'un tronc commun entre plusieurs sites, pourrait-on contourner une partie du problème en transformant une partie du texte de présentation dupliqué en image ? :idea:

On charge dès lors l'image et le tour serait joué, plus de DC. :mrgreen:

Bien entendu, en contrepartie, le texte concerné ne serait pas indexé, il faudrait jouer sur le reste, plus spécifique, pour exister.
:?: :?: :?:
Cordialement, Éric.
 
WRInaute occasionnel
A un moment donné faut plus s'étonné

Duplicate content
domaine quasi identique
Farmlink
Mayday

Et au bout du compte : desindex
 
WRInaute accro
ricosound a dit:
Il me vient une question, à laquelle d'autres plus expérimentés pourraient réfléchir : pour ce genre de cas, d'un tronc commun entre plusieurs sites, pourrait-on contourner une partie du problème en transformant une partie du texte de présentation dupliqué en image ? :idea:
ça ne changerait rien, car visiblement c'est uniquement les contenus dupliqués qui sont désindexés, pas les pages considérées comme étant les "originaux" des textes.
 
WRInaute occasionnel
Hello.

Leonick a dit:
ça ne changerait rien, car visiblement c'est uniquement les contenus dupliqués qui sont désindexés, pas les pages considérées comme étant les "originaux" des textes.

Justement, imaginons que sur le site de Metz ou Avignon :

le bloc de texte sous le titre :
RESTAURANT TRAITEUR A METZ / AVIGNON

soit convertit en un bloc image : metz.pavé.gauche.jpg / avignon.pavé.gauche.jpg

Le contenu lu par le visiteur est bien le même, mais le titre de l'image changeant à chaque fois, serait-il encore considéré comme DC par GG et donc la page désindexée en conséquence ???

Bien entendu, il faudrait fournir du texte à moudre en local pour GG.

Sinon cela renvoie à la solution d'un site commun avec des sous-domaines ou des sous-catégories pour chaque établissement local, ce qui n'est pas forcément une mauvaise affaire, un seul site, un double référencement de chaine et local, un seul serveur, un seul webmestre, un seul ...

Yapuka.
 
Nouveau WRInaute
Merci pour vos réactions...
A coup sûr Mayday a bouleversé la donne, mais je dois trouver une solution rapide et efficace pour récupérer un plus vite les visites perdues. Alors deux solutions s'offrent à moi :

1. Créer des sous domaines spécifiques (un par restaurant) ex: metz.classcroute.com
2. Créer des pages internes spécifiques pour chaque restaurant. ex: classcroute.com/restaurants/metz

Pour l'une ou l'autre de ces solutions, il est certain que nous allons devoir faire travailler la plume pour proposer un contenu un peu différent. Alors quelle solution vous semble la plus adéquate ? la moins risquée pour le domaine principal ? et surtout, doit-on faire des redirections des domaines déclassés vers les pages qui seront nouvellement créées ?

PS. D'autres auraient-ils des exemples de structures qui fonctionnent bien ?
 
WRInaute discret
Intuitivement (car je n'ai jamais été confronté au problème), moi je ne toucherais pas aux noms de domaine ni même à l'architecture de l'ensemble. Juste, je créerai des contenus spécifiques pour chacune des pages d'accueil, par exemple en présentant les équipes, le quartier de la ville, ce genre de trucs... Et quand ça serait fait, je demanderais le réexamen.
 
Nouveau WRInaute
C'est possible, mais récupérer ce type d'infos auprès des restaurants demanderait des mois... avec le doute que ça ne servent à rien. Il y a peut être aussi un risque pour le domaine principal classcroute.com de laisser vivre ces noms de domaines plusieurs mois sans intervenir. D'autre part, j'ai comme l'impression que les demandes de ré-examen Google ne servent à rien. Il y a beaucoup de retours dans ce sans sur le forum d'aide Google...
 
Discussions similaires
Haut