Notre site (http://www.derniersparus.com) a pour objectif de publier dès la date de parution les fiches des livres de la semaine.
Nous ne sommes pas les seuls ? C'est certainement vrai. Mais en rassemblant les éléments épars chez l'éditeur principalement et chez Amazon ensuite, nous arrivons à être complets avant un bon nombre de librairies. Du moins sur certaines thématiques favorites, d'autres telles que le roman et les livres pour enfants étant laissées de côté.
Nous sommes en droit de :
- regrouper les éléments des éditeurs, un "legal advice" d'un spécialiste et le directeur des ventes d'un grand éditeur nous l'ont confirmé : on n'interdit pas à un libraire de mettre en vitrine un livre ...
- exploiter les éléments d''Amazon dont nous sommes partenaires sans problème depuis 2005
La structure du site oblige à reprendre les éléments descriptifs des livres (titre, auteur et présentation de l'éditeur). Il y a donc du "duplicate content" interne puisque qu'un livre peut être repris dans les pages chronologiques, auteur, éditeur et fiche complète : nous assumons. Et il y a aussi du "duplicate content" avec les éditeurs, Amazon et les autres librairies qui proposent les mêmes titres.
Nous précisons que le DC n'est que partiel (fiche livre) et ne concerne qu'une partie de la page.
Mais apparemment Google et les autres moteurs repèrent jusqu'au morceau de paragraphe.
Notre site est-il donc pénalisé vraiment par le DC ? Et si oui, quels sont les moyens de contourner l'obstacle ?
Nous précisons qu'apparemment, il ne présente pas d'autres tares particulières : les pages et les CSS sont contrôlées par le W3CValidator, Google ne repère pas d'anomalie de navigation (en fait si il en a repéré il y a 3 mois et en a encore en mémoire même si le pb est réglé depuis longtemps), le temps d'accès aux pages est jugé bon par Google, etc ...
Merci donc de nous éclairer de vos conseils avisés (ce n'est pas du léchage de bottes :wink et Meilleurs Voeux à tous
Nous ne sommes pas les seuls ? C'est certainement vrai. Mais en rassemblant les éléments épars chez l'éditeur principalement et chez Amazon ensuite, nous arrivons à être complets avant un bon nombre de librairies. Du moins sur certaines thématiques favorites, d'autres telles que le roman et les livres pour enfants étant laissées de côté.
Nous sommes en droit de :
- regrouper les éléments des éditeurs, un "legal advice" d'un spécialiste et le directeur des ventes d'un grand éditeur nous l'ont confirmé : on n'interdit pas à un libraire de mettre en vitrine un livre ...
- exploiter les éléments d''Amazon dont nous sommes partenaires sans problème depuis 2005
La structure du site oblige à reprendre les éléments descriptifs des livres (titre, auteur et présentation de l'éditeur). Il y a donc du "duplicate content" interne puisque qu'un livre peut être repris dans les pages chronologiques, auteur, éditeur et fiche complète : nous assumons. Et il y a aussi du "duplicate content" avec les éditeurs, Amazon et les autres librairies qui proposent les mêmes titres.
Nous précisons que le DC n'est que partiel (fiche livre) et ne concerne qu'une partie de la page.
Mais apparemment Google et les autres moteurs repèrent jusqu'au morceau de paragraphe.
Notre site est-il donc pénalisé vraiment par le DC ? Et si oui, quels sont les moyens de contourner l'obstacle ?
Nous précisons qu'apparemment, il ne présente pas d'autres tares particulières : les pages et les CSS sont contrôlées par le W3CValidator, Google ne repère pas d'anomalie de navigation (en fait si il en a repéré il y a 3 mois et en a encore en mémoire même si le pb est réglé depuis longtemps), le temps d'accès aux pages est jugé bon par Google, etc ...
Merci donc de nous éclairer de vos conseils avisés (ce n'est pas du léchage de bottes :wink et Meilleurs Voeux à tous