Déclassement massif sur Google, Contenus dupliqués en cause ?

Discussion dans 'Problèmes de référencement spécifiques à vos sites' créé par antonin87, 28 Juin 2010.

  1. antonin87
    antonin87 Nouveau WRInaute
    Inscrit:
    6 Novembre 2008
    Messages:
    40
    J'aime reçus:
    0
    Bonjour,

    Je travail sur le référencement des sites web d'une franchise de restaurants spécialisée dans la livraison de plateaux repas.
    L'entreprise dispose d'un site principal (vente en ligne) et chaque restaurant possède un site monté sur un domaine spécifique (près de 110 au total). Le site principal progresse de manière constante dans les résultats de Google depuis 3 ans, tout comme les sites individuels... et voilà qu'il y a 3 jours, tout s'écroule ! Google a décidé de pénaliser 70 sites individuels (pas de problèmes sur le site principal) sans explications bien entendu.

    Alors il est certain que ces sites individuels reprennent parfois le même contenu en page d'accueil, c'est inévitable, mais cela est ainsi depuis 3 ans... sans que ça ne pose de problèmes.

    Comment Google peut-il décider du jour au lendemain de déclasser ces sites ?
    Dois-je attendre le temps de voir si tout revient dans l'ordre ?

    Je précise qu'ils ne sont pas désindexés, seulement déclassés.

    Exemple de sites : http://www.classcroute-avignon.com et http://www.classcroute-metz.com qui étaient en bonne place sur la requête "livraison repas Avignon" ou "livraison repas Metz"

    Merci d'avance
     
  2. nickargall
    nickargall WRInaute accro
    Inscrit:
    13 Juin 2005
    Messages:
    6 601
    J'aime reçus:
    4
    Sans doute s'agit il d'un déclassement justifié par les contenus identiques.

    il y avait mieux à faire sur le site principal seul en termes d'optimisations pour éviter d'avoir 70 sous domaines identiques et tenter de se classer sur ces requêtes géolocalisées.
     
  3. nwa
    nwa WRInaute discret
    Inscrit:
    7 Juin 2010
    Messages:
    57
    J'aime reçus:
    0
    Bonjour,

    Google n'a pas du aimer le contenu identique de la page d'accueil justement.
     
  4. antonin87
    antonin87 Nouveau WRInaute
    Inscrit:
    6 Novembre 2008
    Messages:
    40
    J'aime reçus:
    0
    Oui il est certain que les évolutions constantes de l'algorithme Google pour repérer les contenus dupliqués, c'était de plus en plus risqué. Mais il y a 3 ans, cette stratégie d'apporter un site individuel a chaque magasin était encore la plus efficace...

    A noter d'ailleurs que ce ne sont pas des sous-domaines mais bien des domaines spécifiques.

    Penses-tu que je puisse espérer un éventuel ré-examen ?
     
  5. antonin87
    antonin87 Nouveau WRInaute
    Inscrit:
    6 Novembre 2008
    Messages:
    40
    J'aime reçus:
    0
    Le fait est que c'est ainsi depuis 3 ans, Pourquoi il n'y a pas eu de signes plutôt ?
     
  6. nwa
    nwa WRInaute discret
    Inscrit:
    7 Juin 2010
    Messages:
    57
    J'aime reçus:
    0
    l'algorithme de google est en perpétuel évolution. L'idéal aurait été de garder ce même site principal et faire une liste comme des catégories des différentes chaines de restauration. Comme cela vous auriez eu une page pour chaque chaine de restaurant avec une url, description et mots clés.
     
  7. ricosound
    ricosound WRInaute occasionnel
    Inscrit:
    25 Octobre 2009
    Messages:
    447
    J'aime reçus:
    0
    Hello.

    Il semble que depuis le printemps et un certain mayday, gougeule réévalue en profondeur les sites.
    Ce qui fait que certaines choses qui passaient plutôt bien jusque la sont prises en compte maintenant et cela introduit parfois de grandes variations dans les positions.

    C'est comme cela, chaque mise à jour de l'algo génère des remises en question.

    Donc la première chose a faire c'est de réfléchir vite et bien à : comment supprimer le duplicate content.

    Ce n'est pas évident de repenser un groupe de sites ainsi, mais il semble que se soit un passage obligé ; augmenter le texte individuel de chaque établissement, et réduire la partie commune.

    Il me vient une question, à laquelle d'autres plus expérimentés pourraient réfléchir : pour ce genre de cas, d'un tronc commun entre plusieurs sites, pourrait-on contourner une partie du problème en transformant une partie du texte de présentation dupliqué en image ? :idea:

    On charge dès lors l'image et le tour serait joué, plus de DC. :mrgreen:

    Bien entendu, en contrepartie, le texte concerné ne serait pas indexé, il faudrait jouer sur le reste, plus spécifique, pour exister.
    :?: :?: :?:
    Cordialement, Éric.
     
  8. juju34070
    juju34070 WRInaute occasionnel
    Inscrit:
    5 Avril 2008
    Messages:
    406
    J'aime reçus:
    0
    A un moment donné faut plus s'étonné

    Duplicate content
    domaine quasi identique
    Farmlink
    Mayday

    Et au bout du compte : desindex
     
  9. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 274
    J'aime reçus:
    0
    ça ne changerait rien, car visiblement c'est uniquement les contenus dupliqués qui sont désindexés, pas les pages considérées comme étant les "originaux" des textes.
     
  10. ricosound
    ricosound WRInaute occasionnel
    Inscrit:
    25 Octobre 2009
    Messages:
    447
    J'aime reçus:
    0
    Hello.

    Justement, imaginons que sur le site de Metz ou Avignon :

    le bloc de texte sous le titre :
    RESTAURANT TRAITEUR A METZ / AVIGNON

    soit convertit en un bloc image : metz.pavé.gauche.jpg / avignon.pavé.gauche.jpg

    Le contenu lu par le visiteur est bien le même, mais le titre de l'image changeant à chaque fois, serait-il encore considéré comme DC par GG et donc la page désindexée en conséquence ???

    Bien entendu, il faudrait fournir du texte à moudre en local pour GG.

    Sinon cela renvoie à la solution d'un site commun avec des sous-domaines ou des sous-catégories pour chaque établissement local, ce qui n'est pas forcément une mauvaise affaire, un seul site, un double référencement de chaine et local, un seul serveur, un seul webmestre, un seul ...

    Yapuka.
     
  11. antonin87
    antonin87 Nouveau WRInaute
    Inscrit:
    6 Novembre 2008
    Messages:
    40
    J'aime reçus:
    0
    Merci pour vos réactions...
    A coup sûr Mayday a bouleversé la donne, mais je dois trouver une solution rapide et efficace pour récupérer un plus vite les visites perdues. Alors deux solutions s'offrent à moi :

    1. Créer des sous domaines spécifiques (un par restaurant) ex: metz.classcroute.com
    2. Créer des pages internes spécifiques pour chaque restaurant. ex: classcroute.com/restaurants/metz

    Pour l'une ou l'autre de ces solutions, il est certain que nous allons devoir faire travailler la plume pour proposer un contenu un peu différent. Alors quelle solution vous semble la plus adéquate ? la moins risquée pour le domaine principal ? et surtout, doit-on faire des redirections des domaines déclassés vers les pages qui seront nouvellement créées ?

    PS. D'autres auraient-ils des exemples de structures qui fonctionnent bien ?
     
  12. Tristetaupique
    Tristetaupique WRInaute discret
    Inscrit:
    14 Décembre 2004
    Messages:
    191
    J'aime reçus:
    0
    Intuitivement (car je n'ai jamais été confronté au problème), moi je ne toucherais pas aux noms de domaine ni même à l'architecture de l'ensemble. Juste, je créerai des contenus spécifiques pour chacune des pages d'accueil, par exemple en présentant les équipes, le quartier de la ville, ce genre de trucs... Et quand ça serait fait, je demanderais le réexamen.
     
  13. antonin87
    antonin87 Nouveau WRInaute
    Inscrit:
    6 Novembre 2008
    Messages:
    40
    J'aime reçus:
    0
    C'est possible, mais récupérer ce type d'infos auprès des restaurants demanderait des mois... avec le doute que ça ne servent à rien. Il y a peut être aussi un risque pour le domaine principal classcroute.com de laisser vivre ces noms de domaines plusieurs mois sans intervenir. D'autre part, j'ai comme l'impression que les demandes de ré-examen Google ne servent à rien. Il y a beaucoup de retours dans ce sans sur le forum d'aide Google...
     
Chargement...
Similar Threads - Déclassement massif Google Forum Date
Déclassement massif sur de nombreux mots clef Problèmes de référencement spécifiques à vos sites 27 Juin 2008
nouveau declassement massif? Référencement Google 2 Juin 2007
Déclassement de pages, EAT ou Penguin Netlinking, backlinks, liens et redirections 3 Mai 2022
Déclassement sur requêtes et pays spécifiques? Crawl et indexation Google, sitemaps 11 Janvier 2020
Référencement sur Google News / Déclassement sur Google Référencement Google 8 Juin 2016
Déclassement Google Problèmes de référencement spécifiques à vos sites 7 Novembre 2014
Déclassement sur 2 mots clés Débuter en référencement 30 Octobre 2014
Déclassement d'un site numéro 1 sur son secteur, pourquoi ? [résolu] Problèmes de référencement spécifiques à vos sites 19 Septembre 2014
Déclassement après une attaque DDOS Débuter en référencement 29 Mai 2014
declassement des mots cles Problèmes de référencement spécifiques à vos sites 9 Mai 2014
Déclassement. Apparemment ni Pingouin ni Panda Référencement Google 14 Janvier 2014
Déclassement site web Problèmes de référencement spécifiques à vos sites 2 Décembre 2013
Déclassement sur mot clé principal Problèmes de référencement spécifiques à vos sites 1 Octobre 2013
Déclassement google pour le changement de nom d'une page Débuter en référencement 9 Septembre 2013
Declassement dans Google pourquoi?? Problèmes de référencement spécifiques à vos sites 14 Août 2013
Chute déclassement sur google sur certain mots clés :( Problèmes de référencement spécifiques à vos sites 23 Juillet 2013
Déclassement apres absence Débuter en référencement 4 Mars 2013
Déclassement sur 3 mots clés, que faire ? Problèmes de référencement spécifiques à vos sites 5 Février 2013
Déclassement énorme sur un mot clé Demandes d'avis et de conseils sur vos sites 28 Décembre 2012
Déclassement et aucunevisibilité sur Google Débuter en référencement 27 Décembre 2012