Duplicate content: des exceptions a la regle ?

Discussion dans 'Référencement Google' créé par Bourgougnon, 22 Novembre 2008.

  1. Bourgougnon
    Bourgougnon Nouveau WRInaute
    Inscrit:
    14 Septembre 2005
    Messages:
    13
    J'aime reçus:
    0
    Le duplicate content semble unanimement considere comme le facteur clef dans l'absence de progression (ou la descente aux enfers) d'un site dans les moteurs de recherche..

    Pourtant, certains sites s'en sortent tres bien, alors que leur contenu est essentiellement redondant; je parle ici des moteurs de recherche verticaux, qui agregent le contenu d'autres sites (trovit par exemple).

    Une explication a cela ?
     
  2. mrPringle
    mrPringle WRInaute occasionnel
    Inscrit:
    11 Mars 2006
    Messages:
    473
    J'aime reçus:
    0
    C'est comme tout ce qui est "interdit" ou tout du moins non recommandé, google met plus ou moins de temps à s'en rendre compte.
    Tous les sites déjà descendus aux enfers (l'expression est bien choisie) ne sont pas sorti des bonnes grâces de gg en même temps pour reprendre l'exemple.

    Sinon, c'est comme les sites qui utilisent des pages satellites et qui continuent pourtant de truster les premières pages sur certaines requêtes alors qu'on sait depuis des années que c'est vraiment pas top pour un référencement propre...
     
  3. carole heinz
    carole heinz WRInaute passionné
    Inscrit:
    28 Février 2007
    Messages:
    2 442
    J'aime reçus:
    0
    Google s'est exprimé là-dessus, tout est une question de "digestion" des flux; s'ils sont réorganisés, complétés, mélangés, restructurés, noyés, le tout d'une certaine manière, alors ça passe très bien, c'est évident.

    bref, aujourd'hui, concernant les flux et le duplicate, la seule solution est de faire du neuf avec l'ancien. et bien sûr, il y aura toujours des "exceptions" traînant ici et là, histoire de rendre fous les webmasters! :)
     
  4. Bourgougnon
    Bourgougnon Nouveau WRInaute
    Inscrit:
    14 Septembre 2005
    Messages:
    13
    J'aime reçus:
    0
    Cela me semble assez contradictoire avec la plupart des posts sur le sujet, ou il est dit que la repetition d'une phrase sur une page entiere conduit a une penalite.

    Alors, un site entier base sur de la reprise ...
     
  5. carole heinz
    carole heinz WRInaute passionné
    Inscrit:
    28 Février 2007
    Messages:
    2 442
    J'aime reçus:
    0
    SB : Un certain nombre de sites ont basé leur visibilité sur l'agrégation de contenus d'éditeurs tiers (grâce aux fils RSS). Cette visibilité est-elle légitime de ton point de vue ? On a assisté à quelques baisses de visibilité importante de certains sites... La lutte contre le scraping et l'agrégation est-elle un de vos chantiers actuels ?

    AF : Nous tenons à protéger nos utilisateurs contre des pages de résultats de recherche affichant toujours le même contenu. C'est pour cette raison que nous encourageons toujours les webmasters à ajouter du contenu original et personnel. De nombreux sites ont trouvé des moyens originaux pour agréger du contenu, l'organiser, le partager ou encore offrir des fonctionnalités pour interagir avec les internautes. Être original ne passe pas que par le contenu textuel, cela passe aussi par son organisation, sa navigabilité et la façon dont il est publié. Bref, en général, posez-vous ces questions : "qu'est-ce qui rend mon site unique ? Qu'est-ce que je propose dans mon site qu'on ne peut pas trouver ailleurs ?"

    source: http://s.billard.free.fr/referencement/ ... ere-partie
     
  6. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    Dans mes petits tests actuels sur les sites (ou plutôt pages) sanctionnés, j'ai un paquet de cas similaires, totalement en dupliucate ou en partie. Certaines pages passent, d'autres pas du tout, ... J'ai analysé les liens internes, les liens externes, et d'autres facteurs mais pas tout compris dans beaucoup de cas.

    Je sais pas le nombre de paramètres pris en compte par l'algo de GG mais nous ne sommes que des ... humains (en plus de failles notoires dans l'algo actuel).

    Le travail de référencement n'est pas de passer mais de passer durablement .... Pour celà, un référenceur se base sur des majorités de pages, pas des petites portions qui ne suivent pas de schémas standards. GG les rattrapera un jour ou l'autre (ou peut-être pas, qui sait). Mais dans le doute ...
     
Chargement...
Similar Threads - Duplicate content exceptions Forum Date
Comment gérer le duplicate content sur les pages magasins Demandes d'avis et de conseils sur vos sites 19 Mars 2020
Duplicate content avec pdf et contenu pauvre créé par les utilisateurs Problèmes de référencement spécifiques à vos sites 1 Mars 2020
Question à propos d'une sorte de duplicate content Problèmes de référencement spécifiques à vos sites 11 Février 2020
Duplicate content : mon site s'affiche sur un autre site Netlinking, backlinks, liens et redirections 30 Décembre 2019
Le duplicate content est-il fonction de la localisation ? Référencement Google 14 Décembre 2019
Scrapping TheMovieDataBase et duplicate content Débuter en référencement 20 Octobre 2019
Un contenu serait publié deux endroits/URLs différents, comment éviter le duplicated content ? Référencement Google 2 Octobre 2019
Mon site a été copié. problème de duplicate content? Problèmes de référencement spécifiques à vos sites 25 Septembre 2019
Pigiste/freelance vérifier les articles pour le Duplicate Content Débuter en référencement 17 Juillet 2019
Duplicate Content : 5 sites pour 5 villes avec contenu identique Rédaction web et référencement 16 Mai 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice