Je déclare une guerre sans pitié au Duplicate Content ,-)

WRInaute impliqué
Salut,

Depuis que j'ai lancé mon annuaire il y a environ 10 mois, j'ai tout de suite réclamé une description unique pour y apparaitre.
Mais force est de constater que les gens qui soumettent (98% environ) ne veulent pas perdre 5 minutes pour proposer une description unique.

J'ai déjà plusieurs fois modifié ma page de conditions pour que tous comprennent quelle politique suit l'annuaire Maldunk. J'ai dabord mis en gras et en rouge Description UNique Obligatoire. Puis j'ai remonté la ligne tout en haut de la page, puis j'ai mis la ligne en rouge vif sur fond jaune. On ne peut pas la loupée.
Mais rien à faire, les description en double, triple etc... fusent encore et encore.

Hier matin j'ai décidé de modifier le nom du champ de mon formulaire qui était Description,
par Description Unique Obligatoire. Ces caractères sont également en rouge vif, on ne peut pas les louper.
C'était une mesure prise au cas ou les gens ne voudraient pas perdre leur temps à lire les conditions.
Hier soir j'avais une dizaine de nouvelles soumissions et toutes sans exception avec une description déjà indexée par GG.
Les gens s'imaginent que mon annuaire est un freeglobe ou un arfooo ou autre brut de dézipage.

Certains webmasters seront d'ailleurs contents d'apprendre que quasiment toutes les descriptions qu'on me propose
ont été reprises sur leurs sites (IndexWeb, bloc, OMD Tribords etc...)

Ce qui me laisse à penser que toutes les DU proposées dans ces annuaires ne doivent plus être uniques du tout.
Du coup j'ai refusé tous les sites en bloc, car j'ai comme l'impression qu'on me dit "chante toujours merle"...

Donc j'ouvre ce topic pour exprimer mon ras le bol, et pour dire à tous ceux qui ignorent mes conditions
qu'ils ont des milliards d'annuaires freeglobes et autres annus de scripts tout fait à leur disposition.

Perdez plus votre temps à soumettre du duplicate sur Maldunk ça sera un refus assuré.
Comme le disait nath hier la soumission de masse est plus avantageuse que la soumission
dans des annuaires de m... dont je suis fier d'être l'un des représentants (même si je suis pas sur atypicom) :mrgreen:
 
WRInaute passionné
En même temps, si tu veux du contenu unique, le plus simple serait de le rédiger toi-même.

Là, tu en est à refuser de bons sites sous le prétexte que la desciption proposée ne te convient pas. Je ne crois pas que cela ajoute beaucoup de qualité à l'info que tu proposes à l'internaute, à savoir une liste de bons sites sélectionnés.

Mais bon, chacun travaille comme il aime :lol:
 
WRInaute impliqué
lafleur2004 a dit:
En même temps, si tu veux du contenu unique, le plus simple serait de le rédiger toi-même.

Là, tu en est à refuser de bons sites sous le prétexte que la desciption proposée ne te convient pas. Je ne crois pas que cela ajoute beaucoup de qualité à l'info que tu proposes à l'internaute, à savoir une liste de bons sites sélectionnés.

Mais bon, chacun travaille comme il aime :lol:

95% des sites qui ont été validés, l'ont été parce que j'ai réécris la description moi-même.
Seulement maintenant, ceux qui ne font pas le moindre effort sont priés d'aller soumettre ailleurs.

Je pense que pour eux ça ne pose aucun problème vu la multitude d'annuaires à leur disposition.
Donc en ce qui me concerne, tout le monde sera content.

Et pour finir, ce n'est pas moi qui exige du contenu unique c'est notre brave ami GG.
Je me contre fou de savoir si les sites refusés sont des merveilles ou des bouses.
Il y a des conditions à respecter, point barre.
 
WRInaute passionné
Le boulot d'un annuaire, c'est de sélectionner des sites.
Toi, tu ne veux pas faire cette sélection toi même, mais en plus tu voudrais que le mec qui bosse à ta place te fasses une œuvre d'art unique.
 
WRInaute discret
Bonjour

Quand on arrive a la centième inscription de son site
dans un annuaire, il est pas facile d'exprimer d'une façon
UNIQUE que l'on propose un site d'annonces immo entre particuliers.

EXEMPLE:
Belle Marquise, vos beaux yeux, me font mourir d'amour
Vos beaux yeux, belle Marquise, d'amour me font mourir
Vos beaux yeux, me font mourir, belle Marquise, d'amour,
Vos beaux yeux, me font mourir d'amour, belle Marquise
ET puis après ??????????????

Sources: Algorithme récursif : http://fr.wikipedia.org/wiki/Algorithme_r%C3%A9cursif
 
WRInaute passionné
casa a dit:
EXEMPLE:
Belle Marquise, vos beaux yeux, me font mourir d'amour
Vos beaux yeux, belle Marquise, d'amour me font mourir
Vos beaux yeux, me font mourir, belle Marquise, d'amour,
Vos beaux yeux, me font mourir d'amour, belle Marquise
ET puis après ??????????????

Belle Marquise, me font mourrir d'amour vos beaux yeux :D

Sinon, je fais (presque) pareil, sauf que ça dépend des sites. Quand la requête me retourne plus de 100 liens duplicates, je cherche pas. Si y'en a peu, ou si le site est "joli", je change le descriptif.
 
WRInaute passionné
Lomax, le concept de ton annuaire est un peu compliqué.

Je passe rapidos sur le "Et bien l'idée de créer un annuaire collaboratif et en même temps totalement libertaire, m'a été inspirée en partie par une des nombreuses races extra-terrestre de la mythologie Star-Trek, une race légendaire mi-organique et mi-mécanique, les Borgs." (http://www.maldunk.com/le-collectif-dunk.html). :lol:

Ce qui gène plus, c'est que tu affirmes "N'oublions pas enfin que Maldunk.com est un annuaire totalement libertaire, et que vous pouvez donc faire absolument tout ce qui vous plaît, dans l'ordre et le désordre, en vous impliquant un peu, beaucoup, passionnément, ou à la folie. C'est à vous de voir. L'inscription de vos sites est gratuite, sans aucun engagement de votre part, et sans aucune obligation." (N'oublions pas enfin que Maldunk.com est un annuaire totalement libertaire, et que vous pouvez donc faire absolument tout ce qui vous plaît, dans l'ordre et le désordre, en vous impliquant un peu, beaucoup, passionnément, ou à la folie. C'est à vous de voir. L'inscription de vos sites est gratuite, sans aucun engagement de votre part, et sans aucune obligation." (http://www.maldunk.com/maldunk-infos.html)

Alors que sur toutes les pages, il y a écrit "L'intégralité du site ainsi que les scripts utilisés sont la propriété du créateur de l'annuaire Maldunk".

Un truc libertaire et collectif qui est à la fin la propriété d'un seul type, c'est un peu, comment dire... contradictoire ? Un truc sans obligation mais avec obligation de rédiger un contenu original qui devient instantanément ta propriété aussi, non ? :lol:
 
WRInaute impliqué
MagicYoyo a dit:
Le boulot d'un annuaire, c'est de sélectionner des sites.
Toi, tu ne veux pas faire cette sélection toi même, mais en plus tu voudrais que le mec qui bosse à ta place te fasses une œuvre d'art unique.

Tu dis n'importe quoi mon cher.
Mon boulot n'est pas de sélectionner des sites.
Mais d'approuver tous les sites que j'estime intéressant et qui respectent mes conditions. Grosse nuance...
En plus de ça, tu ne sais lire ?

Lomax7 a dit:
95% des sites qui ont été validés, l'ont été parce que j'ai réécris la description moi-même.
 
WRInaute passionné
Comment vas tu gérer lorsqu'un webmaster va mettre une description unique de son site sur ton annuaire et qu'il va reprendre cette description "unique" pour la remettre, dans quelques jours / semaines, dans d'autres annuaires ?

Comment vas tu gérer le webmaster qui fait une description unique par jour et qu'il enregistre dans une 10aine d'annuaires le même jour ?

C'est impossible à gérer ! La seule solution me semble-t'il pour un annuaire, c'est de vérifier le DC, chaque semaine, des sites inscrits via un prog. automatisé.
 
WRInaute impliqué
lafleur2004 a dit:
Un truc libertaire et collectif qui est à la fin la propriété d'un seul type, c'est un peu, comment dire... contradictoire ? Un truc sans obligation mais avec obligation de rédiger un contenu original qui devient instantanément ta propriété aussi, non ? :lol:

Pas tout à fait. J'ai créé l'annuaire, il est normal que l'intégralité du site m'appartienne.
Tu voudrais peut-être que je déclare ce site est la propriété de tous les webmasters qui ont proposé leur site ? lol

Quant au contenu des descriptions que j'ai pratiquement toutes réécrites il devrait également m'appartenir
puisque j'en suis l'auteur. :mrgreen:
Mais ce n'est pas le cas puisque sur mon annuaire chaque webmaster possede un profil
avec le listing de tous ses sites. Il est donc facile de savoir qui a écrit quoi.

Quant au rapport avec le concept je ne vois absolument pas ce qu'il vient faire dans cette discussion.
Il s'agit de l'utilisation des outils proposés aux webmasters qui leur donnent une grande liberté.

Il faut arrêter de chercher à trouver moults prétextes pour dire de manière détournée que l'on est contre la DU.
Il suffit de le dire.

Mais encore une fois il y a un reglement. C'est simple à comprendre pourtant.
 
WRInaute passionné
Je soutiens ton combat a 100%. Quand quelque chose est gratuit il faut se donner un peut de mal.

de toute façon c'est leur rendre service que de les refuser. S'ils font ça avec tous les annuaires, ils vont droit dans le mur (je ne vois pas les annuaires brut de dezipage réécrire la description).
 
WRInaute passionné
Lomax7 a dit:
Tu dis n'importe quoi mon cher.
Mon boulot n'est pas de sélectionner des sites.
Mais d'approuver tous les sites que j'estime intéressant et qui respectent mes conditions. Grosse nuance...

Tu devrais relire/ré-écouter les déclarations de Google sur ce qu'est un bon annuaire. :lol:
En résumé, c'est justement d'avoir une orientation éditoriale.

Or toi, tu ne veux pas bien faire le boulot en ayant une orientation éditoriale, mais tu fais la fine bouche sur la qualité éditoriale que les autres produisent pour toi... 8O
C'est un deal pas équitable.
 
WRInaute impliqué
MagicYoyo a dit:
Or toi, tu ne veux pas bien faire le boulot en ayant une orientation éditoriale, mais tu fais la fine bouche sur la qualité éditoriale que les autres produisent pour toi... 8O
C'est un deal pas équitable.
Mais non pas du tout MagicYoyo.
Je répète juste que dorénavant je favoriserais tous ceux qui feront un effort pour présenter une description
qui sera proche d'une description unique plutot que ceux qui s'en éloigneront. C'est tout.
Je continuerais donc à avoir un contenu éditorial de qualité.
Mais par contre tout ce qui sera copier coller a 100% sera refusé.
 
WRInaute passionné
Ce qui est sur, c'est que c'est pas moi qui te fournirai du contenu. Le contenu original, je le garde pour mes propres Adsense... ou pour les très bons annuaires. :p

Mais j'y pense, t'as vérifié que toutes tes fiches de sites sont toujours uniques ?
J'ai bien peur que tu doives jeter une bonne partie de ton site actuel à la corbeille. Unique un jour ne veut pas dire unique toujours.
 
WRInaute occasionnel
Moi j'aime bien ton annuaire :D

D'ailleurs, je vais t'en soumettre avec description unique.

300 caractères c'est pas la mer à boire.

Bonne continuation.

Ps : Par contre j'aime pas trop la date de naissance... C'est personnel
 
Nouveau WRInaute
hello.. j'ai une question xD : Existe-t-il une commande via GG ou autres qui permet de voir si un contenu est dupliqué ?
 
WRInaute occasionnel
Hello Lomax !

Disons que ça va mieux en le disant, hein ;-)
Parce que les webmasters qui soumettent leur site sur ton annuaire ne passent pas sur WRI avant.

Tu le dis toi-même : 95% réécrit par tes soins.
Je procède de même. A partir du moment où le schéma est basé sur une véritable sélection de sites, réalisée à partir d'une étude minutieuse des sites, ça me parait assez normal.

Perso, privilégier la qualité au détriment de la quantité ne m'a apporté que des bénéfices. Du simple au triple en 6 mois :mrgreen: alors qu'en parallèle le nombre de sites inscrits a à peine doublé.
 
WRInaute passionné
Même combat pour moi et je te soutient Lomax et ton annuaire Maldunk. Même si tu te fais taper dessus (à tord) par certains, tu as bien fait d'ouvrir ce topic.

Ne change peut-être plus tes conditions d'utilisations, elles sont peut-être au point, ... Essaye peut-être de voir ailleurs... As tu un mail de refus quand tu refuse un site ? Moi sur Waaaouh j'ai un truc qui dit genre : "90% des cas de refus sont liés au duplicate content" puis j'explique ce que c'est et j'invite à resoumettre. J'ai environs 90% de duplicate également, mais j'ai vite fais de refuser, première phrase dupliquée je vais pas voir plus loin, hop au suivant...
 
WRInaute impliqué
abouvard a dit:
Tu le dis toi-même : 95% réécrit par tes soins.
Je procède de même. A partir du moment où le schéma est basé sur une véritable sélection de sites, réalisée à partir d'une étude minutieuse des sites, ça me parait assez normal.
Perso, privilégier la qualité au détriment de la quantité ne m'a apporté que des bénéfices. Du simple au triple en 6 mois alors qu'en parallèle le nombre de sites inscrits a à peine doublé.

Je passe comme toi pas mal de temps sur les sites qui me sont proposés.
Je suis content de voir que tout le monde n'est pas contre de faire quelques efforts.
C'est tout ce que je demande d'ailleurs, je demande pas une description a 300% originale.

1-sponsor a dit:
Moi sur Waaaouh j'ai un truc qui dit genre : "90% des cas de refus sont liés au duplicate content" puis j'explique ce que c'est et j'invite à resoumettre. J'ai environs 90% de duplicate également, mais j'ai vite fais de refuser, première phrase dupliquée je vais pas voir plus loin, hop au suivant...
Bienvenue au club Waaaouh...
Je vois que tu es encore plus impitoyable que moi. :)
En cas de refus un e-mail automatique est envoyé contenant les principales causes de refus,
avec en tête le duplicate content.
Mais comme je ne suis pas quelqu'un de buté je vais tâcher d'améliorer encore un peu plus
la partie communication. Je vais modifier le système d'envoi automatique pour proposer
une réponse automatique adaptée aux 3 cas les plus courants de refus.
De cette façon la plupart des personnes pourront si elles le souhaitent resoumettre leur site.
 
WRInaute passionné
Puisque vous êtes d'accord entre vous, il ne vous reste plus qu'à vous référencer les uns les autres ! :lol:
 
WRInaute passionné
Lomax7 a dit:
1-sponsor a dit:
Moi sur Waaaouh j'ai un truc qui dit genre : "90% des cas de refus sont liés au duplicate content" puis j'explique ce que c'est et j'invite à resoumettre. J'ai environs 90% de duplicate également, mais j'ai vite fais de refuser, première phrase dupliquée je vais pas voir plus loin, hop au suivant...
Bienvenue au club Waaaouh...
Je vois que tu es encore plus impitoyable que moi. :)
En cas de refus un e-mail automatique est envoyé contenant les principales causes de refus,
avec en tête le duplicate content.
Mais comme je ne suis pas quelqu'un de buté je vais tâcher d'améliorer encore un peu plus
la partie communication. Je vais modifier le système d'envoi automatique pour proposer
une réponse automatique adaptée aux 3 cas les plus courants de refus.
De cette façon la plupart des personnes pourront si elles le souhaitent resoumettre leur site.

J'ai aussi mis un petit "Je certifie avior rédigé une description unique" juste avant le bouton Soumettre...

Bon, j'ai toujours 90% de duplicate malgré ça :mrgreen: mais étant intransigeant, ça va vite, et je te conseil d'en faire autant... Ne te prends pas la tête pour des gens qui eux ne se sont pas cassé le Q... Tu ne dois pas prendre plus de temps à refuser un site que le gars à mis de temps pour faire son vulgaire copier coller 8O

Mais bon, je précise que lorsque j'ai droit à une description unique, je la relis, la corrige avec mon correcteur d'orthographe favoris "Antidote", je lui créé une catégorie adaptée etc... Mais quand c'est du duplicate ça va vite :arrow:
 
WRInaute passionné
je vais parler en mon nom propre :

en ce qui me concerne, je dispose -lorsque je référence les sites dans les annuaires - d'un gros paragraphe de plusieurs 10aines de phrase (soit 3 ou 4000 signes environ).

Et dans les champs description, je compose au hasard une description plus ou moins unique (plutôt moins) afin que ça convienne non pas au proprio de l'annuaire mais à Google.

Sachant que la plupart des annuaires limitent à 250 ou 300 caractères, c'est suffisant. Le duplicate content, c'est moi qui le gère en copiant collant sciemment des descriptions identiques ou proche. Le tout est que ça ait l'ait suffisamment naturel pour Google.

Lomax, quant à ton Maldunk, tu n'y peux rien. Générer des descriptions uniques, je le fais difficilement pour les 20/30 plus grands annuaires français. Après, je compose en fonction de ce que j'ai déjà écrit. Je ne pense pas que ça vaille le coup d'un point Googlesque de faire plus de descriptions uniques, sauf à avoir un temps indéfini pour référencer le site (n'oublions pas qu'écrire les descriptions c'est du temps, et donc de l'argent pour beaucoup).

La seule solution dans ton cas est de réécrire les description et éventuellement les titres.

lolo

précision : j'essaye de faire tout de même un max de contenu unique mais en faisant soit de la paraphrase soit en recombinant les mots. Mais seulement pour les annuaires que je crois être bons (toujours selon les guidelines de google).
 
Nouveau WRInaute
J'ai une question à propos de votre notion de duplicate content : en gros à partir de combien vous estimez le duplicate content ? Un paragraphe ? Une phrase ? Une chaîne de mot ? Je pense que définir cela aiderai pas mal les gens qui référencent leurs sites, car la plupart ne savent même pas ce que c'est... :roll:
 
WRInaute passionné
Salut, ils ne savent pas ce que c'est, mais ils doivent bien comprendre ce que veut dire "description unique", non ? ;)

:arrow:
 
Nouveau WRInaute
J'ai cru lire quelque parts que 5 mots qui se suivent sont suffisant, ce qui déjà très faible.

Il doit y avoir des variantes car du contenu dupliqué en grande partie peux ressortir apparemment correctement sur certaines requêtes de recherche et apparaitre en contenu ignoré sur d'autres.
 
WRInaute passionné
frpons a dit:
J'ai cru lire quelque parts que 5 mots qui se suivent sont suffisant, ce qui déjà très faible.

5 mots c'est très faible. Par exemple, beaucoup d'association ont un nom composé de plus de 5 mots ... alors comment elles vont référencer leur site sans faire de duplicate ? :D

Réécrire le texte fourni, d'accord, mais encore faut-il qu'il soit suffisant pour être réécrit. Je le fais souvent, mais encore faut-il que le site soumis en vaille la peine.

Mais quand je regarde les stats de mon annuaire, je me demande pourquoi je perd du temps ... les pages qui ont le plus de visites sont des pages dont le descriptif est dupliqué sur des centaines de sites.
 
Nouveau WRInaute
Bon j'ai bien essayé de m'inscrire mais soit je suis VRAIMENT très mauvais en calcul mental, soit l'anti spam est en carafe car j'ai systématiquement la réponse
Veuillez SVP renouveler le petit calcul mental Anti-Spam !
 
Nouveau WRInaute
Lomax,

J'ai un peu de mal à comprendre. je viens de soumettre un site (de lingerie) avec un titre et une description absolument uniques et il vient d'être refusé.

Je ne vois pas à quoi cela sert de demander aux webmasters de passer du temps à rédiger des descriptifs uniques (10 minutes dans mon cas) si c'est pour rejeter les sites ensuite.

Sylvain
 
WRInaute passionné
arnaudmn a dit:
casa a dit:
EXEMPLE:
Belle Marquise, vos beaux yeux, me font mourir d'amour
Vos beaux yeux, belle Marquise, d'amour me font mourir
Vos beaux yeux, me font mourir, belle Marquise, d'amour,
Vos beaux yeux, me font mourir d'amour, belle Marquise
ET puis après ??????????????

Belle Marquise, me font mourrir d'amour vos beaux yeux :D

Sinon, je fais (presque) pareil, sauf que ça dépend des sites. Quand la requête me retourne plus de 100 liens duplicates, je cherche pas. Si y'en a peu, ou si le site est "joli", je change le descriptif.

et encore ça c'est la taille d'un titre pas d'une description :)
 
WRInaute passionné
dvdtek a dit:
Je ne vois pas à quoi cela sert de demander aux webmasters de passer du temps à rédiger des descriptifs uniques (10 minutes dans mon cas) si c'est pour rejeter les sites ensuite.

Je suis pas Lomax, mais je répond quand même :)

A moins qu'un annuaire te dise "inscrivez votre site avec un descriptif unique, et il sera accepté", un descriptif unique n'est pas un critère suffisant pour être accepté mais juste un critère nécessaire.

Y'a plein de raisons de refuser un site : descriptif plein de fautes, trop court, trop long (on me l'a déja fait celle là ...), incomprehensible, ... Mais aussi sur le site en lui même : marque blanche non accepté, site sans contenu propre, hors sujet par rapport à l'annuaire, site réservé aux adultes non accepté, ...

Le Monsieur Lomax (ou Madame) a bien du te dire pourquoi il voulait pas de ton site.
 
WRInaute passionné
WRInaute passionné
lafleur2004 a dit:
Lomax7 a dit:
Je passe comme toi pas mal de temps sur les sites qui me sont proposés.

A priori, pas encore assez : https://www.google.fr/search?hl=fr&safe=off&q=site:www.maldunk.com/&sta ... t=610&sa=N

Plus de 2000 pages sur 2700 en duplicate, la guerre n'est pas gagnée, pas vrai ?

Et a ton avis, est-il réellement valable de passer du temps à rédiger une description pour essayer de choper du lien dans un site aux deux tiers en duplicate ?

Ça n'a aucun rapport avec le duplicate, regarge par exemple :
https://www.google.be/search?hl=fr&rlz=1B3GGGL_frBE285BE285&num=100&q=s ... t=900&sa=N

Google met une limite.

Le jour ou il aura 2000 pages sur 2700 dupliquée il ne sera même plus premier sur cette requête.
 
WRInaute impliqué
dvdtek a dit:
Je ne vois pas à quoi cela sert de demander aux webmasters de passer du temps à rédiger des descriptifs uniques (10 minutes dans mon cas) si c'est pour rejeter les sites ensuite.

Arnaudm a bien répondu. (pour son info c'est monsieur Lomax)
Ton site a été refusé parce que tu proposes a la vente des objets a connotation pornographique
en plus de la lingerie.

lafleur2004 a dit:
Plus de 2000 pages sur 2700 en duplicate, la guerre n'est pas gagnée, pas vrai ?

Les pages en question ne sont pas du tout en duplicate, sinon elles ne seraient pas indexées.
 
WRInaute passionné
Lomax7 a dit:
lafleur2004 a dit:
Plus de 2000 pages sur 2700 en duplicate, la guerre n'est pas gagnée, pas vrai ?

Les pages en question ne sont pas du tout en duplicate, sinon elles ne seraient pas indexées.

:lol:

C'est nouveau cette théorie ! Les pages en duplicate sont désindexées ? D'où sors-tu ça ???

Un peu de lecture : http://www.rankspirit.com/duplicate-content.php "Il ne faut pas confondre "retiré des résultats de recherche" et "désindexées". Dans la plupart des cas, les pages victimes du "Duplicate Content" sont classées en "résultats complémentaires" et ne figurent plus dans les résultats. Mais elles figurent toujours dans l'index et peuvent être consultées en cliquant sur la phrase "relancer la recherche en incluant les pages ignorées" qui figure à la fin des résultats."
 
WRInaute passionné
1-sponsor a dit:
lafleur2004 a dit:
Lomax7 a dit:
Je passe comme toi pas mal de temps sur les sites qui me sont proposés.

A priori, pas encore assez : https://www.google.fr/search?hl=fr&safe=off&q=site:www.maldunk.com/&sta ... t=610&sa=N

Plus de 2000 pages sur 2700 en duplicate, la guerre n'est pas gagnée, pas vrai ?

Et a ton avis, est-il réellement valable de passer du temps à rédiger une description pour essayer de choper du lien dans un site aux deux tiers en duplicate ?

Ça n'a aucun rapport avec le duplicate, regarge par exemple :
https://www.google.be/search?hl=fr&rlz=1B3GGGL_frBE285BE285&num=100&q=s ... t=900&sa=N

Google met une limite.

Le jour ou il aura 2000 pages sur 2700 dupliquée il ne sera même plus premier sur cette requête.

N'importe quoi. La limite de Google est toujours de 1000 résultats. Ca veut dire que si tu as 1001 pages correctes et 10 000 en duplicate, tu ne peux pas le déceler avec cette méthode.

En revanche si tu as moins de 1000 pages considérées comme originales, ça se voit de suite.

Après, qu'il soit premier sur sa requête, ça signifie juste que son site ne se mange pas de pénalité qui pourrait le plomber là-dessus, par exemple une sanction pour actions trop spammy. Aucun rapport avec le duplicate.
 
WRInaute passionné
lafleur2004 a dit:
N'importe quoi. La limite de Google est toujours de 1000 résultats. Ca veut dire que si tu as 1001 pages correctes et 10 000 en duplicate, tu ne peux pas le déceler avec cette méthode.

En revanche si tu as moins de 1000 pages considérées comme originales, ça se voit de suite.

Après, qu'il soit premier sur sa requête, ça signifie juste que son site ne se mange pas de pénalité qui pourrait le plomber là-dessus, par exemple une sanction pour actions trop spammy. Aucun rapport avec le duplicate.

mouai :?
 
WRInaute passionné
HawkEye a dit:
1-sponsor a dit:

Il a pourtant en grande partie raison ;)

Heureusement, parce que sinon, il faudrait écouter les annuairistes qui disent qu'il faut soumettre une description unique, du coup on ferait super gaffe au duplicate dans les annuaires, on vérifierait, on tomberait sur des trucs genre https://www.google.fr/search?hl=fr&safe=off&q=site:annuaire.indexweb.in ... t=980&sa=N et on se poserait de drôles de questions au sujet de l'intérêt de la soumission dans les annuaires ;)
 
WRInaute impliqué
lafleur2004 a dit:
C'est nouveau cette théorie ! Les pages en duplicate sont désindexées ? D'où sors-tu ça ???
Haha... t'excites pas ainsi lafleur. J'ai commis une petite erreur d'optimisation.
J'ai pas modifié suffisamment la variation au niveau de la balise description, et pourtant aucune n'est identique.
Ceci prouve bien que à partir de 5 mots consécutifs, le filtre se met en place sur tes pages.
Mais ça sera corrigé dès demain matin. Donc ça ne change pas grand chose en fin de compte.
Je continue l'optimisation, d'ailleurs je travaille à l'amélioration de certains aspects depuis quelques jours.
T'inquiètes pas le titre du sujet est toujours valable. La guerre contre le duplicate c'est contre les webmasters,
pas contre moi-même. :wink:
 
WRInaute passionné
Il est marrant Lomax, tu lui montres une monstrueuse connerie sur son site et en même temps qu'il te répond qu'il va la corriger de suite de suite, au lieu d'un simple "merci" tu as droit à un "t'excite pas". Lomax, non seulement tu ne comprends rien au duplicate content, mais en plus tu es un mal élevé 8)

L.Jee, je ne me sers de ça qu'avec des commandes type site: ou inurl:, pour chercher des pages en duplicate sur un site, pas sur la Toile entière. J'en tire certaines pistes que j'arrive à transformer en conclusions avec d'autres p'tites manips, toujours sur des sites précis bien entendu.

Je ne m'amuse pas à chercher le duplicate sur tout Internet :lol: déjà à partir d'un certain niveau rien que le nombre de résultats indiqué n'est pas fiable, alors le reste...

Sinon toi tu en penses quoi ? Que ce qu'indique Google est toujours faux et que l'éditeur d'annuaire sait mieux que Google qu'aucune de ses pages n'est passée en duplicate ? :roll:
 
WRInaute accro
lafleur2004 a dit:
HawkEye a dit:
1-sponsor a dit:

Il a pourtant en grande partie raison ;)

Heureusement, parce que sinon, il faudrait écouter les annuairistes qui disent qu'il faut soumettre une description unique, du coup on ferait super gaffe au duplicate dans les annuaires, on vérifierait, on tomberait sur des trucs genre https://www.google.fr/search?hl=fr&safe=off&q=site:annuaire.indexweb.in ... t=980&sa=N et on se poserait de drôles de questions au sujet de l'intérêt de la soumission dans les annuaires ;)

Eh, j'ai bien dit "en grande partie".
Je n'ai jamais dit que ton interprétation de la query susmentionnée était correcte ;)

Mon analyse de cette query est totalement différente de la tienne.
Je l'interprète comme ceci: "sur les 1000 premiers résultats (buffer), 18 ont été ignorés".
 
WRInaute passionné
HawkEye a dit:
Mon analyse de cette query est totalement différente de la tienne.
Je l'interprète comme ceci: "sur les 1000 premiers résultats (buffer), 18 ont été ignorés".

Oki, ça, c'est la théorie pour l'exemple de L.Jee. Pas de problème.

Par contre si on ajoute une commande site: ou inurl:, si tu as une idée de la logique qui ferait que Google n'affiche pas certaines pages originales parce qu'il vire d'autres pages en duplicate, je prends !
 
WRInaute accro
lafleur2004 a dit:
HawkEye a dit:
Mon analyse de cette query est totalement différente de la tienne.
Je l'interprète comme ceci: "sur les 1000 premiers résultats (buffer), 18 ont été ignorés".

Oki, ça, c'est la théorie pour l'exemple de L.Jee. Pas de problème.

Par contre si on ajoute une commande site: ou inurl:, si tu as une idée de la logique qui ferait que Google n'affiche pas certaines pages originales parce qu'il vire d'autres pages en duplicate, je prends !

C'est ma théorie pour ton exemple, celui avec site:example.com +keyword.

Il en ressort plus de 1000 résultats.
1000 sont affichés depuis le buffer.
Dans ces 1000, 18 sont filtrés, ce qui ne nous en laisse que 982.

L'index additionnel de Google n'existe plus depuis 2 ans. L'output vient du mainstream, avec un cache.
Il peut paraître logique (en tout cas, ça me paraît logique...) que Google ne filtre pas sur le mainstream complet, mais sur le cache.

L'effet de bord qui apparaît est que Google propose les 1000 résultats les plus pertinents (sur un total d'x milliers), duquel il ôte ceux qui sont considérés comme contenu similaire.

Je ne le vois pas comme: "Google a 15.400 résultats à vous proposer mais estime que seuls 982 sont fiables".
Je le vois comme ceci: "Google a 15.400 résultats à vous proposer, en voici les 1000 premiers, dont 982 sont fiables".

Il ne serait pas normal que Google trouve sur l'annuaire indeXweb.info 14.418 pages à contenu similaire (28% du site...): je connais mon index et la structure du site, et je te garantis qu'avec la plus large ouverture d'esprit qui soit, c'est totalement inconcevable ;)

Dans le cas de ta query sur indeXweb.info, ça colle assez bien: j'ai en général 3 occurences similaires d'un même contenu: la description complète, et 2 extraits de cette description (format "snippet") utilisés dans la structure du site.

La plupart du temps, on retrouvera un snippet dans les "Nouveaux sites" de chaque catégorie, qui est potentiellement un doublon du snippet qui se trouve dans la catégorie. Ces deux snippets sont bien évidemment extraits de la description originale, et peuvent entrer en concurrence avec celle-ci.*

* le cas est d'autant plus facilement lorsqu'on a à faire à une description source "courte", et/ou que la catégorie est peu peuplée.

A noter qu'un extrait peut aussi être utilisé dans ma catégorisation par thématique, "Fresh".
La description complète, elle, n'est bien évidemment utilisée qu'une fois.

Au final, je ne pense pas que "1.8% de similarité" sur un keyword aussi vaste que "maison" soit un mauvais résultat.
On s'applique pour éviter un maximum ce genre d'écueils et je pense qu'on s'en sort pas trop mal.
 
WRInaute accro
lafleur2004 a dit:
Je ne m'amuse pas à chercher le duplicate sur tout Internet :lol: déjà à partir d'un certain niveau rien que le nombre de résultats indiqué n'est pas fiable, alors le reste...
Je n'ai pas dis le contraire, mais je te montrai avec cette requête que ton raisonnement n'est pas forcément juste, ce n'est pas parce que Google ne te montre pas les 2700 pages de Lomax que ce sont des pages avec du duplicate ;) D'ailleurs ça vient d'ou cette théorie ?

Sinon toi tu en penses quoi ? Que ce qu'indique Google est toujours faux et que l'éditeur d'annuaire sait mieux que Google qu'aucune de ses pages n'est passée en duplicate ? :roll:
Ce que je sais, c'est que ton idée n'est pas une science exacte ;) Je te prouve que Google fait la même chose avec une requête lambda. Qui te dit que quand il fait ça avec la commande site c'est qu'il ignore les pages en duplicate ?

Par exemple, sur ton www. Google indique 170 pages indexées mais n'en présente que 100 au maximum, cela veut dire que tu en as 70 de dupliquées ? (Ne le prend pas mal, j'essaie vraiment de comprendre ta pensée) ;)
 
WRInaute accro
lafleur2004 a dit:
:lol:

C'est nouveau cette théorie ! Les pages en duplicate sont désindexées ? D'où sors-tu ça ???

Un peu de lecture : -http://www.rankspirit.com/duplicate-content.php "Il ne faut pas confondre "retiré des résultats de recherche" et "désindexées". Dans la plupart des cas, les pages victimes du "Duplicate Content" sont classées en "résultats complémentaires" et ne figurent plus dans les résultats. Mais elles figurent toujours dans l'index et peuvent être consultées en cliquant sur la phrase "relancer la recherche en incluant les pages ignorées" qui figure à la fin des résultats."

Tiens un farceur (t'a déjà eut une partie de l'équipe de tests de 2008, ca tombe bien, je viens juste de passer :twisted: ). Peut-être de https://www.webrankinfo.com/forum/les-penalites-google-octobre-2007-sept-20 ... 99511.html. Mais puisque tu accrédite tes informations d'un lien, j'en met un autre -http://www.ybet.be/news-fiche.php?numero=3 (Non, j'ai pas mis le lien :mrgreen: , ca fait aussi partie des tests de 2009 sur les sites liés)

Pour les résultats complémentaires, les petites recherches entre "" de morceau de phrases (bien) mais est ce qu'un utilisateur normal les utilise? (je sais vu la mauvaise fois du post tu va me dire Oui: ben voyons). Non pas retiré des résultats, juste mis tout au fond de l'index donc poge invisible sur Google. (on sent que d'être positionné à la 990 ième place sur une requête doit vachement te garantir des visiteurs). Les pages reprises en "complémentaires" sont sanctionnées et qui (à part les webmasters cliquent sur complémentaire?).

Le Duplcate ne pénalise pas? Te propose un petit tests. Je reprend des parties de contenu du site de ton WWW et les met sur quelques sites bien choisis (en deux ans de tests de pénalités, j'ai gentimment inscrit dans un fichier Excel, les modifs des pages, les différences de positionnement, .... mais aussi ceux qui font le plus de dégât en duplicate .... :mrgreen: et respectant les règles du forum jamais mentionné même en MP les bons sites pour se faire casser). De toute façon, mes techniques sont plutôt blanches (j'attend ton autorisation pour débuter les hostillités - tu essaera peut-être aussi de passer par la justice américaine pour faire supprimer le contenu - moi pas, pas assez riche). C'est quand tu veux.

Le coup des 1000 premiers résultats, tu y crois? Une commande site (pour des sites :twisted: ) donne régulièrement plus de 1000 résultats et GG ne limite pas sont index à 1000 pages par sites (ouf). Juste qu'il considère qu'un internaute NORMAL ne va pas au-delà.
Mais tu pourrais imaginer (avec tes convictions hos sujet) que parcequ'un site est repris avec des pages en duplicate que Google n'en tient pas compte? Ca tombre bien, un tests sur le café de WRi avec une phrase reprise depuis des mois qur quelques pages sur un site a fait crouler complètement le site en question (c'était un test et le site n'avait pas grande valeur puisqu'il n'existe plus). Le Trustrank, tu connais?

Un peu de lecture complémentaire https://www.webrankinfo.com/forum/petit-rappel-sur-les-inscriptions-pour-le ... 05072.html pour tes inscriptions dans les annuaires.
PS , je sais que la méthode 2003 était le plus de liens externes possibles. Tu ferais mieux de réviser les nouvelles règles Google.
PS2: j'allais sortir un gros mot :oops: pour cloturer "cette désinformation"

Euh non, suis pas faché :lol:
 
WRInaute accro
PS: serais curieux de voire les pages d'entrées effectives de ton site au niveau Google, on sait que le PR grisé n'est plus forcément un manière pour GG de montrer une pénalité en 2009 mais passer de PR3 en index à grisé sur les pages du niveau suivant, je commencerais à m'inquièté.
 
WRInaute impliqué
lafleur2004 a dit:
Il est marrant Lomax, tu lui montres une monstrueuse connerie sur son site et en même temps qu'il te répond qu'il va la corriger de suite de suite, au lieu d'un simple "merci" tu as droit à un "t'excite pas". Lomax, non seulement tu ne comprends rien au duplicate content, mais en plus tu es un mal élevé 8)

C'était sur le ton de la plaisanterie que je t'ai répondu lafaleur. Tout le monde l'aura compris sauf toi.
Si je suis un mal élevé toi tu es certainement un petit prétentieux à l'égo surdimmensionné.
Faut revenir sur terre, c'est pas parce que t'as décelé une erreur d'optimisation sur le site de Lomax
que ça te donne le droit de m'attaquer (sans raison d'ailleurs), et que tu es devenu d'un coup le dieu du référencement.
En ce qui me concerne je ne suis pas un spécialiste du référencement et d'ailleurs je l'ai répété ici maintes fois.
Sur ce, je te laisse O grand maintre du seo. :mrgreen:
 
WRInaute passionné
HawkEye a dit:
Je ne le vois pas comme: "Google a 15.400 résultats à vous proposer mais estime que seuls 982 sont fiables".
Je le vois comme ceci: "Google a 15.400 résultats à vous proposer, en voici les 1000 premiers, dont 982 sont fiables".
Ce qui me gêne dans ton interprétation, c'est que quand on clique pour afficher les résultats complémentaires, Google affiche alors souvent... un total différent du total initial (comme ça arrive aussi quand on clique pour afficher la 2e page des résultats).

A part ça, comment interpètes-tu https://www.google.fr/search?hl=fr&safe=off&q=site:www.maldunk.com&star ... N&filter=0 ? Où sont passées les pages manquantes ?


L.Jee a dit:
Qui te dit que quand il fait ça avec la commande site c'est qu'il ignore les pages en duplicate ?
Comme je te l'ai dit, sur des sites de quelques centaines de pages, j'arrive la plupart du temps à repérer de cette manière des pages en duplicate, ce qui se confirme avec d'autres p'tites manips. Ca ne marche pas avec des gros sites genre Indexweb, comme Hawkeye le fait délicatement remarquer.


ybet a dit:
Le Duplcate ne pénalise pas? Te propose un petit tests.
Merci pour ton envolée tout aussi fumeuse et mal orthographiée que d'habitude, mais c'est Google et non moi qui affirme que le duplicate ne plombe pas. Par ailleurs, le site dans mon www n'est pas à moi, et je ne m'occupe pas de son réf. Je crois que tu confonds sanction et déclassement, mais ce n'est pas bien grave.


Lomax7 a dit:
En ce qui me concerne je ne suis pas un spécialiste du référencement et d'ailleurs je l'ai répété ici maintes fois.
Alors pourquoi tu l'ouvres quand papa parle ? Je confirme : tu es mal élevé.
 
WRInaute passionné
Bon, les mecs, vous vous calmez tous (lomax & lafleur). Je suis très intéressé pour poursuivre (ou plutôt lire, car pour le moment je n'ai pas de commentaire pour faire avancer la discussion) le sujet sur le duplicate content. :evil:

Mince quoi ! Le sujet est suffisamment intéressant pour se restreindre à ce traitement de Google.

Quant à la question, plus haut, qui disait que le nombre ressorti par Google variait, c'est uniquement du à Google qui présente un volume en fonction d'un contexte (ne prenons pas argent comptant ce qui est affiché en temps réel).

Merci de poursuivre OU de clore ce sujet.

Lomax, peux-tu faire un résumé de ce qui a avancé depuis ton 1er post ? Cela permettrait de recentrer le sujet 8)
 
WRInaute passionné
Pardon, j'avais zappé un truc
L.Jee a dit:
Par exemple, sur ton www. Google indique 170 pages indexées mais n'en présente que 100 au maximum, cela veut dire que tu en as 70 de dupliquées ? (Ne le prend pas mal, j'essaie vraiment de comprendre ta pensée) ;)

Aucune idée a priori. Pour moi, ça veut dire que 70 pages ont quelque chose qui les freine dans Google. Il s'agit donc de les repérer. En ce moment, il se trouve que la plupart des problèmes sont liés à des questions de duplicate, donc en général en creusant bien on tombe là-dessus.

C'est pas plus rigoureux que ça (si tu veux de la rigueur, tu peux te baser sur les derniers exposées d'Hawkeye), mais ça aide bien.
 
WRInaute passionné
Pour moi, le test du duplicate c'est quand une requête sur google avec le descriptif complet me retourne un tas de liens. Du style : test de duplicate
Mais si les résultats s'affichent, c'est que google est content quand même ? Cette requête me retourne 65 résultats avant d'avoir la phrase magique "Pour limiter les résultats aux pages les plus pertinentes (total : 65), Google a ignoré certaines pages à contenu similaire" ... alors les 65 sont ou pas du duplicate ?
 
WRInaute accro
lafleur2004 a dit:
ybet a dit:
Le Duplcate ne pénalise pas? Te propose un petit tests.
Merci pour ton envolée tout aussi fumeuse et mal orthographiée que d'habitude, mais c'est Google et non moi qui affirme que le duplicate ne plombe pas. Par ailleurs, le site dans mon www n'est pas à moi, et je ne m'occupe pas de son réf. Je crois que tu confonds sanction et déclassement, mais ce n'est pas bien grave.
et tu pense que dicodunet s'est fait descendre pour quoi alors? Pas pour duplicate avec l'annuaire de WRI (en autre) sans doute?
Quand un "déclassement" te fais descendre sur quasiment toutes tes requêtes de 500 places, t'appelle ca comment? Une sanction ou un déclassement?
Le déclassement est la sanction (et vis versa).

En plus, la communication de Google raconte n'importe quoi depuis des années. Sinon, pas la peine de lire WRI.
 
WRInaute accro
arnaudmn a dit:
Pour moi, le test du duplicate c'est quand une requête sur google avec le descriptif complet me retourne un tas de liens. Du style : test de duplicate
Dans tous les cas de duplicate, GG en retrourne quelques uns (sauf quand les deux ou 3 pages sont carrément virées du cache). Remarqu'il en annonce 1430, en affiche 69 et quand tu clique sur "contenu ignorés", ... juste 129? Où sont les 1301 pages qui manquent?
 
WRInaute accro
lafleur2004 a dit:
A part ça, comment interpètes-tu https://www.google.fr/search?hl=fr&safe=off&q=site:www.maldunk.com&star ... N&filter=0 ? Où sont passées les pages manquantes ?

Je serais tenté d'interpréter ça de la même manière que précédemment:

"Il y a 2.710 résultats, en voici les 1.000 premiers, dont (seulement) 614 sont considérés comme fiables."

Cela pourrait effectivement signifier qu'une partie de l'index de maldunk est constituée de descriptions utilisées sur trop d'autres sites, qui de par leur potentiel propre font passer maldunk comme "le doublon".

Il lui suffirait d'un petit bout de php pour faire un check rapide sur sa db, et savoir quelles entrées sont constituées de contenu dont il existe des occurences en dehors de maldunk.com.

Ce peut aussi être dû au fait qu'il y a - à mon avis - beaucoup trop de pages "de structure" très similaires (j'ai d'ailleurs beaucoup de mal à y comprendre la navigation et la catégorisation, mais c'est un autre débat): toutes les pages de catégories "non-finales", et toutes les pages de soumission...

--> https://www.google.be/search?q=site%3Amaldunk.com%2Fcategorie%2F :roll:
 
WRInaute accro
arnaudmn a dit:
Pour moi, le test du duplicate c'est quand une requête sur google avec le descriptif complet me retourne un tas de liens. Du style : test de duplicate

Au passage, merci pour cet exemple: le site visé par cette description (annuaires-world.com) redirige à présent vers top-position.fr ... et a désormais quitté notre index :roll:
 
WRInaute passionné
HawkEye a dit:
Au passage, merci pour cet exemple

Pour l'exemple en lui même, s'il est génant, suffit de le supprimer (mais je voulais un exemple). J'ai juste tapé "annuaire", puis pris le premier descriptif complet de plus d'une ligne ...
 
WRInaute passionné
Une précision en ce qui concerne le nombre de pages affichés par Google :

- ne nombre de résultats connus est une estimation. Quand vous faites une requette avec "www", Google ne compte pas les 20 550 000 000 pages de son index pour "www", il estime la taille de cet index (comment ?). C'est ce qui explique l'écart entre ce premier chiffre annoncé et le nombre réel de pages listées (tant qu'inférieur à la limite absolue des 1000 affichages).

- Les pages en duplicate sont à priori listées, mais derrière des filtres qui indiquent "voir les pages ignorées".
 
WRInaute passionné
arnaudmn a dit:
Pour moi, le test du duplicate c'est quand une requête sur google avec le descriptif complet me retourne un tas de liens.
Absolument. Cela dit, quand tu démarres un diagnostic, tu ne t'amuses pas à taper ce genre de requête pour toutes les pages du site. Tu recherches d'abord celles qui pourraient être en diificulté, avant d'envoyer la sauce. Mais ce n'est pas suffisant. Il arrive par exemple qu'une page apparaisse comme en duplicate sur un morceau de phrase, mais pas sur un autre.


ybet a dit:
et tu pense que DicoDuNet s'est fait descendre pour quoi alors? Pas pour duplicate avec l'annuaire de WRI (en autre) sans doute?
Ce site possédait de nombreuses caractéristiques tout à fait spammy, mais il était interdit d'en parler ici à l'époque, je ne sais pas si ça a changé. Quoiqu'il en soit, il a probablement été sanctionné. Si tu veux alors que ce soit pour des raisons de duplicate, c'est ton droit, mais il peut y avoir d'autres causes... ou un ensemble de causes.


ybet a dit:
Quand un "déclassement" te fais descendre sur quasiment toutes tes requêtes de 500 places, t'appelle ca comment? Une sanction ou un déclassement? Le déclassement est la sanction (et vis versa).
C'est bien ce que je disais, tu confonds tout :lol:

Des pages ou des sites peuvent être déclassés par exemple pour des raisons de pertinence, suite à une visite humaine ou la mise en place d'un nouveau filtre. Ca n'a rien à voir avec une sanction, automatique ou manuelle, qui est la conséquence de manips "déconseillées" par les guidelines de Google.

Ca vaut pour le duplicate. Un site peut voir des répertoires entiers déclassés parce que non originaux, sans que cela plombe le reste du site, le tout dans un contexte 100 % white hat. Ce n'est pas une sanction. Et un site peut se voir réellement puni si Google pense que le duplicate en question est fait dans le but de, comment dire, "influencer ses pages de résultat". Là, c'est une sanction.

Par analogie, si on compare le réf à une course, un athlète peut perdre sa médaille parce qu'il est fatigué ou blessé, ou encore parce qu'il est pénalisé, voire disqualifié. Ce n'est pas tout à fait la même chose.

Le résultat est lui aussi tout à fait différent. En cas de simple déclassement, les réajustements nécessaires suffisent à faire revenir le site en quelques jours ou semaines. En cas de sanction, tu es bon pour le grand nettoyage de printemps et une joyeuse reinclusion request, avec probablement un drapeau à perpète sur ton site.

Pour résumer, Google peut décider que ton site est mauvais, auquel cas il te déclasse. Il peut encore décider que ton site (ou ton réf) est spammy, auquel cas il te sanctionne.


ybet a dit:
En plus, la communication de Google raconte n'importe quoi depuis des années. Sinon, pas la peine de lire WRI.
Je te suggère pourtant de t'y plonger longuement. La communication de Google est au contraire une mine d'or, et bien entendu la première source d'information, avant WRI, pour qui veut voir ses projets prospérer dans Google.


HawkEye a dit:
Cela pourrait effectivement signifier qu'une partie de l'index de maldunk est constituée de descriptions utilisées sur trop d'autres sites, qui de par leur potentiel propre font passer maldunk comme "le doublon".
[...]
Ce peut aussi être dû au fait qu'il y a - à mon avis - beaucoup trop de pages "de structure" très similaires (j'ai d'ailleurs beaucoup de mal à y comprendre la navigation et la catégorisation, mais c'est un autre débat): toutes les pages de catégories "non-finales", et toutes les pages de soumission...
Ca signifie donc au minimum que des pages ne se portent pas bien, et c'est un bon départ pour affiner le diagnostic comme tu commences à le faire. J'irais quand même un peu plus loin : des pages en duplicate qui ne montent pas quand on clique "voir les résultats complémentaires", ça fait quand même bizarre. Il est même possible aussi que le nombre de 2700 soit fantaisiste, et que Lomax ait, en fait, moins de pages que ça sur son site. Mais ça, ya que lui qui le sait.
 
WRInaute accro
Décidément, tu doute de rien.
A partir d'un pourcentage de duplicate, c'est le site qui saute. T'a jamais regardé les plongées dans les graphiques de trends pour les annuaires? Et ici, c'est bien le sujet: le duplicate dans les annuaires. Modif de l'algo peut-être mais pourquoi les pénalités ne sont pas tombées en même temps pour les sites, même pas par vague mais totalement dispersés dans le temps. En clair pourquoi les annuaires on commencé à tomber fin 2007 jusquà août 2009 .... Un algorythme différents suivant les sites?

http://www.seoblackout.com/2008/11/06/limiter-duplicate-content-annuai ... reeglobes/ apparament, il n'y a pas que nous qui pensons que les annuaires se sont fait casser par le duplicate content.
 
WRInaute accro
ybet a dit:
...il n'y a pas que nous qui pensons que les annuaires se sont fait casser par le duplicate content.
Que penses-tu de mon hypothèse ?

Ce n’est pas le duplicate qui est visé par les pénalités mais précisément les annuaires car gros pourfendeurs de duplicate.

Google en est conscient et il décoche son message : vous êtes bien gentils mes braves amis mais le nombre croissant d’annuaire perturbe ma pertinence.
 
WRInaute accro
Pourtant, quand tu corriges le duplicate sur un annuaire, il repart comme avant. Donc Ybet à raison ... J'en ai encore fait l'expérience début Septembre. Nettoyage d'un annuaire qui avait été sanctionné et il est très bien repartit. Ne pas écouter Google sur ce coup là, ils affirment encore aujourd'hui qu'il n'existe pas de sanction pour duplicate alors que nous l'avons l'argement prouvé depuis le début de l'été 2008, soit plus d'un an ...
 
WRInaute passionné
Ybet, j'en suis bien désolé, mais après avoir confondu déclassement et sanction, voilà à présent que tu te vautres dans le sophisme le plus noir. Ton raisonnement est :

1/ Le duplicate est néfaste pour les annuaires.
2/ Les annuaires, qui contenaient beaucoup de pages en duplicate, ont chuté.
donc 3/ Les annuaires ont chuté à cause du duplicate.

Désolé, mais ça ne tient pas la route. Les annuaires se sont peut-être fait plomber pour d'autres raisons, comme le propose Salva. Il est possible que ces collections de liens, dont un grand nombre ne sont pas très heureux, finissent effectivement par perturber les classements.

Il est possible aussi que Google, tout simplement, a mesuré que les internautes sont plus satisfaits de ses résultats quand ils ne présentent pas de pages d'annuaires. Ou bien les internautes ont montré, par leur comportement tel que mesuré par Google, que tel et tel annuaires ne sont pas pertinents. Cette seule raison serait à ses yeux tout à fait suffisante pour gicler les annuaires des Serp.
 
WRInaute accro
L.Jee a dit:
Pourtant, quand tu corriges le duplicate sur un annuaire, il repart comme avant. Donc Ybet à raison ... J'en ai encore fait l'expérience début Septembre. Nettoyage d'un annuaire qui avait été sanctionné et il est très bien repartit. Ne pas écouter Google sur ce coup là, ils affirment encore aujourd'hui qu'il n'existe pas de sanction pour duplicate alors que nous l'avons l'argement prouvé depuis le début de l'été 2008, soit plus d'un an ...
Et tu feras quoi au prochain changement d’algo ? C’est l’histoire du serpent qui se mord la queue.

A terme (je me répète :) ), seule une infime partie des annuaires subsistera. Pas plus que deux ou trois par thème à mon sens (ça ne fait pas lourd). L’internaute lambda n’en a pas besoin de plus, bien au contraire. Le chemin le plus court est souvent le meilleur.

Concernant la sanction du duplicate, je n’y crois pas : j’ai potentiellement 400% de duplicate sur mon www et Google (avec mon aide et sans toucher au contenu) fait merveilleusement bien la part des choses.

Si certains n’avaient pas sciemment pourri mon pavé dans la mare, on aurait pu en débattre en toute sérénité.
Mais la société est ainsi faite : il ne faut pas bousculer les dogmes :wink:

Edit : grosse fote
 
WRInaute passionné
L.Jee a dit:
Ne pas écouter Google sur ce coup là, ils affirment encore aujourd'hui qu'il n'existe pas de sanction pour duplicate alors que nous l'avons l'argement prouvé depuis le début de l'été 2008, soit plus d'un an ...

Tu devrais en informer Oilvier Duffez, il n'a pas l'air au courant car il écrivait il y a quelques semaines à peine : "Parmi les fortes croyances (erronées) en référencement, l'idée que Google pénalise un site pour cause de contenus dupliqués est assez bien classée." dans https://www.webrankinfo.com/dossiers/techniques/contenu-duplique

Enfin les mecs, vous lisez jamais WRI ou quoi ?

:lol:
 
WRInaute accro
lafleur2004 a dit:
Tu devrais en informer Oilvier Duffez, il n'a pas l'air au courant car il écrivait il y a quelques semaines à peine : "Parmi les fortes croyances (erronées) en référencement, l'idée que Google pénalise un site pour cause de contenus dupliqués est assez bien classée." dans https://www.webrankinfo.com/dossiers/techniques/contenu-duplique
Je lui ai déjà dit, regarde les commentaires. Après libre à lui de suivre ce que Google à pu communiquer dire ce qu'il veut sur son site. En attendant on a clairement prouvé ce que j'avance.

salva a dit:
Et tu feras quoi au prochain changement d’algo ? C’est l’histoire du serpent qui se mord la queue.
Comme pour tous les sites, quand l'algo change, on s'adapte, c'est le jeu. Je ne vois pas le problème, c'est pareil quand tu joues à un jeu borderline, aujourd'hui ça passe, demain peut-être pas et tu t'adaptes ;)

A terme (je me répète :) ), seule une infime partie des annuaires subsistera. Pas plus que deux ou trois par thème à mon sens (ça ne fait pas lourd). L’internaute lambda n’en a pas besoin de plus, bien au contraire. Le chemin le plus court est souvent le meilleur.
Nous verrons bien ;)

Concernant la sanction du duplicate, je n’y crois pas : j’ai potentiellement 400% de duplicate sur mon www et Google (avec mon aide et sans toucher au contenu) fait merveilleusement bien la part des choses.
Attention, cette sanction ne touche pas tous les sites. Regarde un annuaire comme compare le net, dupliqué énormément et pourtant il fait parti de ceux qui drainent le plus de trafic. Regarde aussi, on en voit qui font du spamindex et qui ne sont pas sanctionnés. Comme toutes sanctions, certains y échappent. Ton contenu dupliqué c'est quoi exactement ? Il est à toi et tu as été pompé ou l'as tu pris ailleurs ? Si google te désigne la paternité du contenu, t'es tranquille et c'est bien normal.

Et si tu veux qu'on débatte sur le duplicate et qu'on essaye d'y voir tous plus clair, on peut tout à fait ouvrir un tinychat pour en discuter en live à plusieurs en avançant des exemples. Tu verras que le duplicate à été fatal à beaucoup de monde, que ceux qui ont modifié cela sont repartis etc ... ;)
 
WRInaute accro
L.Jee a dit:
Attention, cette sanction ne touche pas tous les sites. Regarde un annuaire comme compare le net, dupliqué énormément et pourtant il fait parti de ceux qui drainent le plus de trafic.
Combien dans ce cas ?
 
WRInaute accro
salva a dit:
L.Jee a dit:
Attention, cette sanction ne touche pas tous les sites. Regarde un annuaire comme compare le net, dupliqué énormément et pourtant il fait parti de ceux qui drainent le plus de trafic.
Combien dans ce cas ?
Ils sont 3 ou 4 (que des gros). Mon avis est que ces sites choppent la paternité des descriptions qu'on leur soumet, ce qui a pour effet que ce sont les petits qui mangent les pénalités car Google doit les imaginer comme des voleurs, alors que les gros seraient honnêtes, tu vois ce que je veux dire ? J'en ai discuté avec compare le net et Yagoort et ils ont le même point de vue sur le fait qu'ils ne sont pas touchés par cette pénalité ;)
 
WRInaute passionné
L.Jee a dit:
Attention, cette sanction ne touche pas tous les sites. Regarde un annuaire comme compare le net, dupliqué énormément et pourtant il fait parti de ceux qui drainent le plus de trafic.
quand je regarde les courbes trends, elles sont quand même à la baisse pour les très gros annuaires :
http://trends.google.com/websites?q=compare-le-net.com%2Cyagoort.org%2 ... all&sort=0

Le seul qui s'en sort c'est indexweb.info. Vu sa position avec le duplicate, l'explication et évidente pour moi.
 
WRInaute accro
Ils descendent mais ne sont toujours pas pénalisés. On verra bien si ça tient longtemps ... Puis si tout le monde refuse les descriptions dupliquées, il y aura toujours au moins un gros annuaire sur tous qui finira par très bien fonctionné avec le duplicate que nous avons refusé :D
 
WRInaute accro
L.Jee a dit:
salva a dit:
L.Jee a dit:
Attention, cette sanction ne touche pas tous les sites. Regarde un annuaire comme compare le net, dupliqué énormément et pourtant il fait parti de ceux qui drainent le plus de trafic.
Combien dans ce cas ?
Ils sont 3 ou 4 (que des gros). Mon avis est que ces sites choppent la paternité des descriptions qu'on leur soumet, ce qui a pour effet que ce sont les petits qui mangent les pénalités car Google doit les imaginer comme des voleurs, alors que les gros seraient honnêtes, tu vois ce que je veux dire ? J'en ai discuté avec compare le net et Yagoort et ils ont le même point de vue sur le fait qu'ils ne sont pas touchés par cette pénalité ;)
On y vient alors, 3 ou 4 annuaires (généralistes ?), je pronostique 2 ou 3 par thème.

Tu as du talent L.Jee :) et je te trouve sympathique, alors si tu le permets je te donne un conseil que tu peux prendre ou laissé :

Fais-nous un annuaire thématique que tu bichonnerais comme tu le fais avec costaud, concentre-toi dessus, au besoin retrousse-toi les manches et fais-en la référence absolue.

L’avenir est aux annuaires thématiques, le message de Google me semble limpide.
 
WRInaute accro
3 ou 4 qui tiennent encore face au duplicate content Salva, mais sinon il y a une poignée d'une quinzaine d'annuaires qui tournent bien (suivant leur taille), on est loin de tes 3/4 :p

Pour l'annuaire thématique, j'ai bien autre chose à faire, sans compter que j'en ai déjà, dont un qui fait 7/10k vu/j ;)
 
WRInaute passionné
L.Jee a dit:
En attendant on a clairement prouvé ce que j'avance.

Bien entendu, on n'a rien prouvé du tout. On a juste constaté qu'en général, un site avec peu de duplicate se porte mieux qu'un site avec beaucoup de duplicate. Voir la-dedans de la sanction systématique, c'est une interprétation tout à fait hasardeuse quoique, hélas, assez commune.

forty a dit:
l'avenir est aux annuaires sans duplicate (jusqu'au prochain changement d'algo).

L'avenir est aux sites qui rendent un réel service aux naunautes, et donc, parmi ceux-ci, aux annuaires qui sont capables de leur fournir une vraie valeur ajoutée. "Changement d'algo" ou pas, DC ou pas, thématique ou pas.
 
WRInaute accro
L.Jee a dit:
3 ou 4 qui tiennent encore face au duplicate content Salva, mais sinon il y a une poignée d'une quinzaine d'annuaires qui tournent bien (suivant leur taille), on est loin de tes 3/4 :p

Pour l'annuaire thématique, j'ai bien autre chose à faire, sans compter que j'en ai déjà, dont un qui fait 7/10k vu/j ;)
Je trouve que tu te concentres trop sur l’aspect technique et pas assez sur la réalité économique.

Les annuaires perturbent la pertinence de Google. Les cas de spamindexing par les annuaires sont en diminution mais encore nombreux. Et je ne pense pas que les annonceurs voient ceci d’un très bon œil.

Ce que désire ardemment l’annonceur, c’est de cibler l’internaute au plus près. Et je ne vois pas comment un annuaire à moins d’être thématique peut faciliter sa tache.

Si tu as saisi ça tu as tout compris.
 
WRInaute accro
Donc tout visiteur venant de google n'est pas bien ciblé d'après toi, il vient d'un moteur généraliste, les annonceurs devraient voir cela d'un mauvais oeil. Désolé ;)

@lafleur : Sisi certains ici l'ont très bien prouvé.
 
WRInaute accro
salva a dit:
ybet a dit:
...il n'y a pas que nous qui pensons que les annuaires se sont fait casser par le duplicate content.
Que penses-tu de mon hypothèse ?

Ce n’est pas le duplicate qui est visé par les pénalités mais précisément les annuaires car gros pourfendeurs de duplicate.

Google en est conscient et il décoche son message : vous êtes bien gentils mes braves amis mais le nombre croissant d’annuaire perturbe ma pertinence.

On a aussi regardé l'année passée mais des sites standards ont aussi sautés. Au passage pour répnde à [Edit Hwk: lafleur2004]. Je donne un paquet de coup de main en MP sur ce forum et justement, j'avais envoyé un mail à Olivier (la réponse sur ce sujet était "ceque dit Google" mais lis l'article .... comme d'habitude puisque tu le pense j'avais monté et pas lu entre les lignes et j'ai pas franchement l'habitude de me taire si je suis pas d'accord : tu le sais vu ta pemière réponse .... y compris avec mes fautyes d'orthograaffffes sur le forum).
Pour Compare le Net, les MP de l'année passée (ben oui, on travaille pas qu'avec des tests et idées -élucubrations parfois mais aussi avec des contacts). Il a rien compris, déclassé puis revenui sans rien faire (le trustrank peut-être).
Pour l'algo (Salva), je pense que Google s'emmèle de plus en plus les pinceaux. Des déclassements sur des pages propres, des pages de MFA qui passent quelques jours, ... L'algorythme est plus qu'instable. A force de metre des pondérations ca change complètement les positionnements. Et notre but, c'est de trouver la règle générale (pourtant, le post de départ est le duplicate dans les annuaires).

En 6 ans, je connais seulement 2 membres (bannis) qui ont été capables de mettre une telle mauvaise fois (tu m'excuse Lafleur si on es pas d'accord sur ce terme) tout en suivant (connaisant) au niveau post des règles un peu évolués de référencement (pas les règles standards et capable de se battre (avec de la mauvaise fois) sur les meilleurs (pas focément en référencement d'aillieurs) mais surtout d'avoir monté des sites anti (c'est même quasiment à la limite de la diffamation) sur ce site. Le premier est [Edit Hwk], le deuxième est [Edit Hwk]. Honnêtement Lafleur2004, t'es le quel des deux? (pas de sites à toi dans le profil mais poste plus de 1300 posts ... tu m'autorise le même procédé sur les 2 autres sites de ton profil puisque le WW n'est pas ton site?).
Finalement (j'avoue qu'il a raison quand il dit "Merci pour ton envolée tout aussi fumeuse et mal orthographiée que d'habitude") ... Quelqu'un qui vient sur WRI régulièrement :p

Pour terminer puisque finalement on a (comme un match de box) ... A ma droite Lafleur2004 (pas ses sites sur WRI, 1304 messages qui nie le duplicate content) et à a gauche une bonne dizaines de membres (deux seulement en ont plus de 10.000 mais ont participés aux tests de duplicate de 2008 et continuent en 2009 ... avec d'autres).

Le post de départ de https://www.webrankinfo.com/forum/membres/lomax7.62517/ est bien bien "Je déclare une guerre sans pitié au Duplicate Content'. C'est à le post. Sauf qu'un visiteur essaye juste de faire monter le nombre de posts par procacation.

PS: puisque tu es sur que le duplicate ne casse pas les sites > donne moi l'authorisation sur les 2 autres de ton profil (si tes idées sont bonnes, tu risque rien :lol: , par contre, si les notres au niveau duplicates .... Mais tu es sur de toi, joueur?... On essaye pour voire 8) . Te jure, les sanctions pour pénalités n'existent pas (c'est bien ce que tu répèe dans ce post, on a tout inventé à une bonne centaine sur WRi, mais aussi sur les sites spécialisés américains), tu n'a rien à crainre. Deuxième fois, met un oui :roll: (mais je sais que non, provocateur).

Un tit merci sur ce post à L'Jee et Salva (quelques uns qui viennent ici posent des questions mais aussi répondent). Pour https://www.webrankinfo.com/forum/membres/lomax7.62517/ . Désolé que ton post soit pris dans les feux des discussions. je vais bien trouvé une "excuse de référenceur amateur".


[Edit Hwk: merci de calmer le jeu plutôt que d'ajouter de l'huile sur le feu.]
 
WRInaute accro
L.Jee a dit:
Donc tout visiteur venant de google n'est pas bien ciblé d'après toi, il vient d'un moteur généraliste, les annonceurs devraient voir cela d'un mauvais oeil. Désolé ;)
Pourquoi un annonceur devrait afficher deux fois sa pub alors qu'une seule suffirait ?

Pourquoi un internaute doit-il passé par un annuaire pour accéder à l'information qu'il recherche ? S'il souhaite accéder à un annuaire, il le stipule dans sa requête, non ?

Le client (donc l'annonceur) et l'internaute sont rois et Google a bien l'intention de remplir jusqu'au bout la tache qui a fait son succès : la recherche de la pertinence :)
 
WRInaute accro
ybet a dit:
Pour l'algo (Salva), je pense que Google s'emmèle de plus en plus les pinceaux. Des déclassements sur des pages propres, des pages de MFA qui passent quelques jours, ... L'algorythme est plus qu'instable. A force de metre des pondérations ca change complètement les positionnements. Et notre but, c'est de trouver la règle générale (pourtant, le post de départ est le duplicate dans les annuaires).
L'algorithme instable ? Je pense au contraire qu'il s'affine de plus en plus rapidement.
 
WRInaute passionné
salva a dit:
Pourquoi un annonceur devrait afficher deux fois sa pub alors qu'une seule suffirait ?
le taux de clic dans mon annuaire est inférieur à 5%. Les visiteurs cliquent quasiment que sur les sites référencés.
salva a dit:
Pourquoi un internaute doit-il passé par un annuaire pour accéder à l'information qu'il recherche ? S'il souhaite accédé à un annuaire, il le stipule dans sa requête, non ?
Je ne vois pas pourquoi un annuaire qui a fait un travail de sélection et de classement n'est pas pertinent pour des gens qui veulent voir plusieurs sites d'un domaine particulier.
salva a dit:
Le client (donc l'annonceur) et l'internaute sont rois et Google a bien l'intention de remplir jusqu'au bout la tache qui a fait son succès : la recherche de la pertinence :)
la pertinence est une notion bien trop relative. C'est pas demain que les moteurs de recherche pourront répondre à toutes les requêtes avec uniquement un résultat qui soit pertinent.
 
WRInaute accro
forty a dit:
la pertinence est une notion bien trop relative. C'est pas demain que les moteurs de recherche pourront répondre à toutes les requêtes avec uniquement un résultat qui soit pertinent.
Plusieurs résultats peuvent être pertinents sur la première page s'ils sont affichés brutes, sans détours.
 
WRInaute impliqué
ybet a dit:
Pour https://www.webrankinfo.com/forum/membres/lomax7.62517/ . Désolé que ton post soit pris dans les feux des discussions. je vais bien trouvé une "excuse de référenceur amateur".

Je vous en prie faites comme chez vous. :mrgreen:

Au départ il s'agissait juste de dénoncer le refus de certains (presque tous) webmasters de se plier
à la condition exigée de description unique. Rien d'autre.
Le post a dérapé sur un délire lafleurien, dont seul pépé lafleur doit avoir le secret.
Que je remercie au passage pour avoir découvert une erreur sur mon site.
Comme quoi je ne suis pas du tout mal élevé comme il le prétend.
Mais lui par contre, il est prétentieux à souhait. :mrgreen:
 
WRInaute passionné
Ybet, j'ai bien vu que tu ne supportais pas la contradiction, mais là, ta réponse est réellement lamentable. :cry:

ybet a dit:
mais surtout d'avoir monté des sites anti (c'est même quasiment à la limite de la diffamation) sur ce site. Le premier est rituel, le deuxième est herazor. Honnêtement Lafleur2004, t'es le quel des deux?
:lol: :lol: :lol: Me voilà transformé en revenant diffamateur à présent ! Mon pauvre garçon, tu es vraiment à côté de tes pompes. D'ailleurs :

ybet a dit:
A ma droite Lafleur2004 (pas ses sites sur WRI, 1304 messages qui nie le duplicate content) et à a gauche une bonne dizaines de membres (deux seulement en ont plus de 10.000 mais ont participés aux tests de duplicate de 2008 et continuent en 2009 ... avec d'autres).
Dans mon dernier post par exemple, j'écris : "en général, un site avec peu de duplicate se porte mieux qu'un site avec beaucoup de duplicate". J'écris aussi, un peu avant, "En ce moment, il se trouve que la plupart des problèmes sont liés à des questions de duplicate" et tu dis que je "nie le duplicate" ? Mais peut-être as-tu un problème de compréhension... as-tu songé à consulté un orthophoniste ?

A part, ça, je persiste. Tout déclassement n'est pas une pénalité. Une pénalité tombe pour punir un spammeur, un déclassement tombe quand Google décide, parfois temporairement, que le contenu n'est pas pertinent, ou n'intéresse pas les internautes. Ca fait une énorme différence, même si tu sembles absolument incapable de la saisir. Si vous êtes 10, ou 10 000, à croire que les pénalités et les déclassements c'est la même chose, ben vous êtes 10, ou 10 000, à vous planter en beauté.

Lomax7 a dit:
Que je remercie au passage pour avoir découvert une erreur sur mon site.
Comme quoi je ne suis pas du tout mal élevé comme il le prétend.
Ah tout de même ! Bien ! Il n'y a pas de quoi, tout le plaisir à été pour moi :D

Lomax7 a dit:
Mais lui par contre, il est prétentieux à souhait.
Oui, j'y arrive car je m'entraîne beaucoup ;)
 
WRInaute occasionnel
forty a dit:
salva a dit:
Pourquoi un internaute doit-il passé par un annuaire pour accéder à l'information qu'il recherche ? S'il souhaite accédé à un annuaire, il le stipule dans sa requête, non ?
Je ne vois pas pourquoi un annuaire qui a fait un travail de sélection et de classement n'est pas pertinent pour des gens qui veulent voir plusieurs sites d'un domaine particulier.

Les moteurs de recherche sont eux même des super annuaires. Comment un super annuaire peut-il proposer un autre annuaire comme résultat pertinent ? Ca sous entend que le super annuaire est moins pertinent que l'annuaire "normal" sinon il fournirait directement les meilleurs résultats sans passer par un intermédiaire. C'est presque un aveux de faiblesse.
 
WRInaute passionné
dop20vt a dit:
Les moteurs de recherche sont eux même des super annuaires. Comment un super annuaire peut-il proposer un autre annuaire comme résultat pertinent ? Ca sous entend que le super annuaire est moins pertinent que l'annuaire "normal" sinon il fournirait directement les meilleurs résultats sans passer par un intermédiaire. C'est presque un aveux de faiblesse.
tu laisses de côté le travaille de l'annuairiste qui filtre les sites qu'il présente. C'est pas demain que tu va remplacer mon oeil humain et l'impression général que je peux avoir sur un site par un ordinateur (même surpuissant).
Un site peut être jugé de mauvaise qualité par google avec ses critères purement SEO mais être intéressant pour un visiteur de mon point de vue d'humain.
 
WRInaute occasionnel
forty a dit:
tu laisses de côté le travaille de l'annuairiste qui filtre les sites qu'il présente. C'est pas demain que tu va remplacer mon oeil humain et l'impression général que je peux avoir sur un site par un ordinateur (même surpuissant).
Un site peut être jugé de mauvaise qualité par google avec ses critères purement SEO mais être intéressant pour un visiteur de mon point de vue d'humain.

Là on parle de critiques de sites. Effectivement dans ce cas, il y a un travail de sélection, d'appréciation, de critique. Ca impliquerait d'ailleurs que les présentations/critiques des sites soient réalisées uniquement par le webmaster de l'annuaire (qui n'en est plus un).

Un annuaire classique qui se borne à valider ou non les inscriptions des webmasters peut inculquer sa vision de la pertinence, mais à ce moment là il rentre en concurrence avec les moteurs de recherche qui sont sensé avoir leur propre notion de pertinence dans leurs résultats.
 
WRInaute occasionnel
Moi j'aime le duplicate !

Hello je ne suis pas un fan des annuaires à description unique,

1) parce que je ne vois en quoi un peu de duplicate peu nuire
2) Je ne vois pas pourquoi les annuairistes ne reprennent pas les descriptions pour les "formater à leur sites"
3) Je ne comprend pas pourquoi un pauvre type aynt un site va ce faire C.. à faire 1500 descriptions courtes, longues etc, pour faire plaisir au annuairiste

4) Je trouve déjà super sympa que le type en question nous ai choisi !!

De plus pour répondre a Lomax7 il ne font pas de descriptions unique parce qu'ils ne savent pas ce que c'est !!!!

Pour eux ils te font une description uniqueMENT .... !!!


Je précise que j'ai des annuaires.. ;)
 
WRInaute occasionnel
Re: Moi j'aime le duplicate !

Neillys a dit:
4) Je trouve déjà super sympa que le type en question nous ai choisi !!

C'est vrai en même temps c'est un échange de bons procédés. L'annuaire récupère du contenu et le site inscrit un ou plusieurs liens bien ancrés.

Après le débat est très subjectif quant à savoir si une jolie description unique vaut plus qu'un lien bien placé et bien ancré. C'est du cas par cas.
 
WRInaute passionné
lafleur2004 a dit:
Bien entendu, on n'a rien prouvé du tout. On a juste constaté qu'en général, un site avec peu de duplicate se porte mieux qu'un site avec beaucoup de duplicate. Voir la-dedans de la sanction systématique, c'est une interprétation tout à fait hasardeuse quoique, hélas, assez commune.
J'aurais tendance à être de l'avis de Lafleur.
Je ne vois pas l'intérêt de Google à dégommer un site complet qui aurait un contenu majoritairement dupliqué, dans la mesure où le filtre anti-duplicate aurait déjà repoussé les pages sans intérêt de l'index.
Ca servirais juste à tuer le contenu original qui restait à ce site web, non ?

lafleur2004 a dit:
L'avenir est aux sites qui rendent un réel service aux naunautes, et donc, parmi ceux-ci, aux annuaires qui sont capables de leur fournir une vraie valeur ajoutée. "Changement d'algo" ou pas, DC ou pas, thématique ou pas.
Tout à fait d'accord.
Il n'y a pas de traitement particulier pour les annuaires. Pourquoi il y en aurait-il un d'ailleurs ? Google mesure la popularité réelle d'un site web, c'est bien plus efficace pour la pertinence des SERPs que de chercher à jeter sans discernement dans la même poubelle tout un type de sites web.
 
WRInaute passionné
Re: Moi j'aime le duplicate !

Neillys a dit:
Hello je ne suis pas un fan des annuaires à description unique,
c'est ton droit
Neillys a dit:
1) parce que je ne vois en quoi un peu de duplicate peu nuire
malheureusement, si tu laisses faire c'est beaucoup de duplicate que tu as rapidement.
Neillys a dit:
2) Je ne vois pas pourquoi les annuairistes ne reprennent pas les descriptions pour les "formater à leur sites"
parce qu'ils doivent valider plusieurs dizaines de sites par jour et qu'il n'est pas possible de modifier profondément toutes les descriptions. Si il y peu d'inscriptions tous les jours c'est peut-être que l'annuaire n'en vaut pas la peine.
Neillys a dit:
3) Je ne comprend pas pourquoi un pauvre type aynt un site va ce faire C.. à faire 1500 descriptions courtes, longues etc, pour faire plaisir au annuairiste
faut-il rappeler que en échange ils obtiennent de la visibilité et des liens en dur? La solution c'est peut-être de rendre payant la rédaction d'une description. C'est pas parce que c'est gratuit qu'on fait ce qu'on veut. C'est assez symptomatique de notre époque ou beaucoup ne respectent pas les règles et marchent sur la gueule des producteurs de musique, de films, ...
Neillys a dit:
4) Je trouve déjà super sympa que le type en question nous ai choisi !!
Ca fait un peut le boudin qui est tout content de se faire draguer :wink:
 
WRInaute occasionnel
Re: Moi j'aime le duplicate !

dop20vt a dit:
C'est vrai en même temps c'est un échange de bons procédés. L'annuaire récupère du contenu et le site inscrit un ou plusieurs liens bien ancrés.
.


Serval ou Lafleur le disait, c'est une mode, la description unique c'est ni plus ni moins que ce que les annuairistes ont trouvés pour ne pas avoir à ce fatiguer...

Je ne parle pas de L.jee et Hawk qui en faisant celà eux ce donnent plus de travail, mais tout les autres qui n'ayant pas envie de ce sortir le doigt du .... demandent au tre de leuir donner du contenu éditorial.

Les bons annuaires qui ne sentent pas les fluctuations du temps, sont toujours les même, les algo ne leur font pas perdre de places, et finalement leur fait gagner en trafic, mais les bons sont ceux dont le webmaster c'est mis à bosser.... !

Et là je dois dire que le mot travail pose un grand probléme à 95% des annuairistes...
 
WRInaute occasionnel
Re: Moi j'aime le duplicate !

Hello Forty
Je ne laisse justement pas le duplicate s'installer, puisque je reformate tout
J'ai dans les mauvaises journée sur mes annuaires : 200 inscriptions

Pour
forty a dit:
faut-il rappeler que en échange ils obtiennent de la visibilité et des liens en dur?

Faut il rappeller qu'au lieu de faire 1500 descriptions s'il fait 1500 textes, il aura plus de trafic ciblé et rentable qu'aucun annuaire pourras lui apporter ?

forty a dit:
Ca fait un peut le boudin qui est tout content de se faire draguer :wink:

Je te l'accorde !! bien qu'ils n'est pas de soucis de ce coté là .. ;)



forty a dit:
c'est ton droit

malheureusement, si tu laisses faire c'est beaucoup de duplicate que tu as rapidement.

parce qu'ils doivent valider plusieurs dizaines de sites par jour et qu'il n'est pas possible de modifier profondément toutes les descriptions. Si il y peu d'inscriptions tous les jours c'est peut-être que l'annuaire n'en vaut pas la peine.

faut-il rappeler que en échange ils obtiennent de la visibilité et des liens en dur? La solution c'est peut-être de rendre payant la rédaction d'une description. C'est pas parce que c'est gratuit qu'on fait ce qu'on veut. C'est assez symptomatique de notre époque ou beaucoup ne respectent pas les règles et marchent sur la gueule des producteurs de musique, de films, ...

Ca fait un peut le boudin qui est tout content de se faire draguer :wink:
 
WRInaute impliqué
Re: Moi j'aime le duplicate !

Neillys a dit:
De plus pour répondre a Lomax7 il ne font pas de descriptions unique parce qu'ils ne savent pas ce que c'est !!!!

Pour eux ils te font une description uniqueMENT .... !!!
Ils ne savent pas lire alors c'est ça ? :mrgreen:
Moi je tiens un annuaire francophone, en principe ceux qui le fréquentent doivent savoir lire et comprendre le français.
Mais je suis d'accord pour dire qu'il y a certainement un petit pourcentage de gens qui se demande ce que c'est,
ou qui ne comprennent pas. J'essai de les aider souvent en réécrivant leur description.

Neillys a dit:
3) Je ne comprend pas pourquoi un pauvre type aynt un site va ce faire C.. à faire 1500 descriptions courtes, longues etc, pour faire plaisir au annuairiste
Déjà personne n'est obligé de s'enregistrer dans 1500 annuaires.
Je pense que ce temps là est révolu, il faut diversifier un peu ses inscriptions (annuaires, communiqués, forums...)
Pour te donner un exemple, mon annuaire n'est inscrit que dans une trentaine d'annuaires.
Alors même si tu t'inscris dans 100 annuaires, c'est pas difficile de donner une DU a chaque fois.

Neillys a dit:
Serval ou Lafleur le disait, c'est une mode, la description unique c'est ni plus ni moins que ce que les annuairistes ont trouvés pour ne pas avoir à ce fatiguer
Ah alors si serval et lafleur le disent... :)
Ce qu'ils oublient de préciser c'est que ce raisonnement est peut-être bon pour des freeglobes et autres annuaires prêts à l'emploi, mais pas lorsque tu as créé ton annuaire de toutes pièces.
J'ai créé mon annuaire, et j'ai pas l'intention de prendre le risque de le tuer juste parce que certains sont opposés à la mode de la DU. Mais c'est leur droit, et je le respecte.
 
WRInaute occasionnel
Re: Moi j'aime le duplicate !

Lomax7 a dit:
Ah alors si serval et lafleur le disent... :)
Ce qu'ils oublient de préciser c'est que ce raisonnement est peut-être bon pour des freeglobes et autres annuaires prêts à l'emploi, mais pas lorsque tu as créé ton annuaire de toutes pièces.
J'ai créé mon annuaire, et j'ai pas l'intention de prendre le risque de le tuer juste parce que certains sont opposés à la mode de la DU. Mais c'est leur droit, et je le respecte.

Je les cite parce que je partage depuis trés longtemps leur points de vu sur ce sujet,

Pour ce qui est de ton annuaire je ne juge rien, tu poses une question, je te répond avec toute l'assurance de mon ancienneté sur ce domaine, les "gens" possedant un site sont pour la plupart absolument pas les dévelloppeurs, et ils pigent que dalle au ref ! et ne les sous-estime pas dans leur méconnaissance , ils sont vraiment trés souvent complétement inculte (au bon sens du terme).

Pour ce qui est encore de ton annuaire, il y a quelques chose qui me dérange, (c'est totalement perso) je trouve qu'il ressemble à indexw.. dans la présentation et le choix des couleurs, non ?
 
WRInaute accro
Re: Moi j'aime le duplicate !

Neillys a dit:
Faut il rappeller qu'au lieu de faire 1500 descriptions s'il fait 1500 textes, il aura plus de trafic ciblé et rentable qu'aucun annuaire pourras lui apporter ?
Je vais répondre ce coup-ci car je lis souvent ceci. Déjà premier point, faire 1500 pages sur son site ne permet pas d'augmenter sa popularité, faut pas tout confondre. et deuxième point, encore faut-il avoir un sujet ou l'on puisse créer ces 1500 textes.

Franchement, je ne me vois pas sur mes sites caler 1500 textes, même si l'envie y est, une fois que j'ai expliqué ma thématique et fournis mon contenu, que puis-je écrire de plus ? Tout au pire quelques textes sur des sujets annexes non encore traité, mais ça n'a rien à voir avec 1500 textes sur mon site (textes qui n'auraient pas leur place sur mon site). Ne pas confondre une description sur un annuaire et du contenu pour son site, pour moi c'est totalement différent, à moins que vous fassiez 1000 fois la même page ;)

Donc franchement, dire je préfère filer du duplicate aux annuaires et garder le contenu unique pour moi, c'est du foutage de gueule ou alors vous faites 1500 pages sur le même thème pour dire la même chose tout ça pour avoir le contenu unique pour votre pomme ?

J'exagère un peu mais dans le fond c'est tellement vrai :D


Déjà personne n'est obligé de s'enregistrer dans 1500 annuaires.
Qui plus est, on doit être une trentaine à demander une description unique ;)

Pour te donner un exemple, mon annuaire n'est inscrit que dans une trentaine d'annuaires.
Sans vouloir être méchant on voit le résultat, à peine 100vu/j :p

Neillys a dit:
Serval ou Lafleur le disait, c'est une mode, la description unique c'est ni plus ni moins que ce que les annuairistes ont trouvés pour ne pas avoir à ce fatiguer
Pourquoi cette mode est-elle arrivé au moment ou le filtre anti duplicate à fait son apparition ? Je le répète, ce n'est pas une mode, c'est une obligation pour ne pas voir sombrer son site dans les fins fonds des serp ... Après que deux personnes extérieurs à ceci disent le contraire, c'est leur droit, mais qu'ils testent par eux même et on verra bien ;) Qui plus est venant de Serval qui tient un très bon blog SEO, c'est décevant. PS: Serval si tu veux on peut faire un article sur iniseo sur la pénalité du duplicate a moins que tu préfères toi aussi la communication de Google :p

Ps Neillys : T'es de très mauvaise foi, rappelle moi pourquoi tu t'es fais pénaliser tes annuaires en 2008 tout comme moi ? On a passé assez de temps au téléphone pour que tu saches que je ne parle pas dans le vent ;)
 
WRInaute occasionnel
Re: Moi j'aime le duplicate !

L.Jee a dit:
Ps Neillys : T'es de très mauvaise foi, rappelle moi pourquoi tu t'es fais pénaliser tes annuaires en 2008 tout comme moi ? On a passé assez de temps au téléphone pour que tu saches que je ne parle pas dans le vent ;)

PAs un Annuaires.... un site d'annonces....

Nuance.... Aucun de mes annuaires n'a jamais été pénalisés.. ;)


De plus, ayant viré tout le duplicate, fait tout ce qu'il y avait à faire il n'est jamais revenu, donc le mistere était ailleurs

Pour le reste en effet on se connait bien et tu sais que je ne dit pas que des conneries et que je connais largement le mots rendement sur mes sites ;)

Tu vois la course au contenu unique devient du grand n'importe quoi, et je dirai sur ce coup la que c'est toi qui est de mauvaise fois, en effet à chaque fois que ut as un PB de trafic, tu reprends toutes tes descriptions, pourquoi ne le fais tu pas dés le dépard ?
 
WRInaute accro
J'ai pas compris ce que tu as voulu dire. Je le fais bien dés le départ (mais bon nombre dupliquent leur description une fois le contrôle passé, si il y avait plus d'honnêteté ces chez gens là, ça n'arriverait pas), preuve en est j'ai refusé ta soumission :lol:

Quand j'ai commencé je ne vérifiais pas, j'ai corrigé, je suis reparti. Enfin bon je pense que tu parles de Costaud sur lequel j'ai eu une pénalité fin Aout et que j'ai évoqué au téléphone l'autre jour. Que veux tu que j'y fasse si les mecs soumettent puis dupliquent ensuite la description quant ils ont besoin de s'inscrire ailleurs ? On a bien des trucs en préparation pour contrer cela mais bon, c'est encore du budget à sortir, du temps à passer en plus, bref ...
 
Discussions similaires
Haut