Yahoo Le spamindexing des encyclopédies

WRInaute occasionnel
Un petit coup d'oeil sur cette requête papier et le résultat parle de lui même : 50% des places de la première page sont occupés par les wikimachin, les wiktionary-machin, les ekopedia-machin, les vikidi-machin, etc... que des pseudos encyclopédies : est-ce tolérable, est-ce supportable ?

Si l'on rajoute à cela que sur certaines requêtes sous Yahoo, ils listent 2 fois un même site sur la première page il reste quelle chance pour les autres sites qui sont relayés en 2 ou 3ième page ?

Je ne vais jamais rechercher quoi que ce soit sur Yahoo mais là franchement ils ne font absoluement rien pour qu'on ai la moindre envie d'utiliser leur moteur de recherche !
 
WRInaute occasionnel
Allez un peu plus "commerciale" comme requêtes :

- ordinateur : 30% de spam pour les wiki-machin-truc sur la première page de résultat...

- bijou : 30% de spam pour les wiki-machin-truc sur la première page de résultat... + un double listage pour un site.

- vêtement : 30% de spam pour les wiki-machin-truc sur la première page de résultat...

- chaussure : 20% de spam pour les wiki-machin-truc sur la première page de résultat... + un double listage pour 2 site.

- fleur : 30% de spam pour les wiki-machin-truc sur la première page de résultat...

Ca commence à faire pas mal de place occupé par les wiki-machin-truc , non ?

Ca sert à quoi de lister plusieurs fois un même site sur une même page de résultat ?

Tout le monde sait que les principaux moteurs de recherche favorisent les wiki-machin-truc dans leur classement mais chez Yahoo on frôle la dictature (30% d'occupation sur la première page)
 
WRInaute accro
En gros deux liens wikipedia et un lien wikitionnaire (donc avec un ndd différent)

kif kif ebay

Et en plus wiki est plus mal positionnée que sur Google, c'est pas si mal en fait
 
WRInaute occasionnel
Mise à part sur la requête vêtement ou il y a le site ebay qui est listé 2 fois, sur toutes les autres requêtes que j'ai proposé Ebay n'apparait pas alors qu'à l'inverse les wiki-machin skattent les places de la première page de résultat, c'est quand même pas comparable du tout !

Un wiki-machin + wikitionnaire-machin (qui est la même chose que le premier).... et si d'autres site ce ce style voient le jour il n'y aura plus que ce type de lien sur la première page de résultats de Yahoo, ça te parait pertinent comme résultats et tu penses objectivement que les autres sites (autres que ces encyclopédies) ont la moindre chance d'exister ?

Lister une seule fois un site, ça devrait être la règle ! Je ne vois aucun intérêt à lister plusieurs fois un même site sur la même page !
 
WRInaute passionné
toto2525 a dit:
Tout le monde sait que les principaux moteurs de recherche favorisent les wiki-machin-truc dans leur classement
bon c'est un topic à troll, mais quand même, même si il y a des doutes, on n'a pas de preuves, hein.

pour vérifier, faudrait faire un site avec le même nombre de pages, la même structure, la même audience et la même masse de backlinks.

me suis toujours demandée pourquoi personne n'avait encore fait ce test. :twisted:
 
WRInaute accro
La Wiki n'est favorisée que par le système utilisé pour le classement dans les pages de résultats : ce n'est pas un choix délibéré de GG.
On a fait des tas de tests sur le sujet et quand l'algo change d'un poil, les pages de la Wiki changent de place comme n'importe quelles autres, sauf si elles sont naturellement bien accrochées sur leurs positions (comme d'autres) : il faut surveiller les pages fragiles, pas les inébranlables, pour s'en apercevoir.
Et carole heinz a raison : il faut comparer ce qui est comparable, notamment la tuyauterie interne de la Wiki, c'est phénoménal pour renforcer la cohérence de l'ensemble. A imiter plutôt qu'à jalouser.
 
WRInaute occasionnel
Et la volonté ou pas de lister plusieurs fois le même site dans une même page, ça incombe à qui cette décision là ? C'est déjà assez dur de figurer sur la première page de résultats mais en plus si le moteur liste plusieurs fois un même site, c'est carrément mission impossible !

Une page comme celle là informatique de la wiki-machin il n'y a pas moins de 555 liens internes à la wiki alors que GG préconise de ne pas dépasser 100 liens par pages.... 5 fois plus de liens c'est une bricole !

Dans mon activité, certains de mes concurrents bourrent des liens html de mots clés dans leur page (généralement ils enlèvent le soulignement du lien pour que ça passe inaperçu pour l'internaute) afin d'imiter la wiki-machin : faut-il suivre leur exemple et imiter la wiki-machin-truc ? ou bien GG va-t-il enfin sanctionner les liens html ajouter abusivement (aussi bien chez la wiki que les autres sites) ? Car on est bien d'accord que pour qu'un lien html soit valider par les guidelines de GG on doit se poser cette question : puis-je expliquer naturellement du placement de ce lien dans ma page ? Comment les webmasters de la wiki vont-ils expliquer et justifer du placement de 55 liens "informatique" sur leur page informatique ? « ... on avait peur que l'internaute rate le premier lien, alors on en a placé un deuxième, etc.... »... c'est du n'importe quoi !
 
WRInaute passionné
je pense que l'histoire des 100 liens concerne uniquement les liens externes, à savoir ceux pointant vers d'autres sites ;)

quant à savoir "qui décide" de faire figurer plusieurs fois le même site sur une même page, pour une requête donnée... c'est tout simplement l'algo qui est ainsi fait! cela existe depuis des années, on appelle cela les sitelinks (jusqu'à 8 liens supplémentaires situés juste en-dessous du premier résultat) et le clustering qui consiste en l'apparition d'un deuxième lien regroupé sous le premier: google réunit deux pages qui apparaissent sur le première page; par ex. si vos deux pages sont 5 et 9èmes, google regroupe automatiquement et vous place 5 et 6ème.

on peut cumuler ces deux phénomènes (sitelinks+clustering) mais dans ce cas il n'y a pas de retrait (alinéa). on peut ainsi obtenir jusqu'à 10 liens en première page, et beaucoup plus si on rajoute les sous-domaines et le Local Business Center! exemple

ex: sur cette requête, un de mes blogs a des sitelinks (8 au total, c'est le maximum, mais il peut y en avoir moins)

sur celle-ci, mon blog n'a "que" droit à un clustering (2 résultats avec retrait pour le 2ème)

inutile de pleurer, le jour où votre site méritera ce traitement, vous serez très content ;) il suffit d'effectuer un référencement efficace ;)
 
WRInaute occasionnel
je pense que l'histoire des 100 liens concerne uniquement les liens externes, à savoir ceux pointant vers d'autres sites
Je ne pense pas, d'après leur guidelines je comprends qu'il s'agit de tous les liens (internes + externes) html d'une même page :
Sur chaque page, limitez les liens à un nombre raisonnable (moins de 100).

A la question suivante :
Évitez les "astuces" destinées à améliorer le classement de votre site par les moteurs de recherche. Pour savoir si votre site Web respecte nos consignes, posez-vous simplement la question suivante : "Suis-je en mesure d'expliquer en toute sérénité à un site Web concurrent les solutions adoptées pour mon site ?"
Que pourrait répondre les bourreurs de liens de la wiki-machin lorsqu'on trouve parfois plus de 40 fois le même lien dans une même page ?

Ou qu'on trouve plus de 500 liens html sur une page, avec une densité qui frôle l'outrance ?

Comment la wiki peut-elle justifier honnêtement d'une telle densité de liens html dans ses pages sans que ce soit fait délibérement dans un but de référencement (non pas par les petites fourmis de la wiki qui sont très gentilles d'apporter du contenu à la pieuvre mais plus par des "chefs wikimiens" qui eux se chargent de se maillage de liens et de leur ajout ?
 
Nouveau WRInaute
carole heinz a dit:
Zecat a dit:
Ouep il "suffit" de ... :D

Pour compléter tes illustrations avec cette fois sitelink+sous domaines+clustering :

https://www.google.fr/search?hl=fr&q=yag ... cher&meta=

Reste plus beaucoup de place :wink:
mais c'est scandaleux! :twisted:

Moi je trouve ça acceptable pour cet exemple là uniquement, puisque si tu fournis un nom de domaine, tu souhaites probablement obtenir des résultats sur ce nom de domaine, non?
 
WRInaute passionné
à toi de voir comment tu interprêtes les guidelines en tout cas tu vois bien que les centaines de liens internes ne pénalisent pas la wiki... plutôt que de te dire "bon ben c'est pas grave si je mets 110 liens internes sur mon site" tu te dis "la wiki est favorisée"... c'est un point de vue, mais pas forcément la vérité, hein.

quant aux "chefs wiki" je crois qu'il s'agit surtout de "robots" qui balancent un lien à chaque fois qu'ils tombent sur un mot-clé qui est traité par un article ;)

ça existe même pour wordpress dis-donc: http://www.webinventif.fr/keywords-autolink-2/ ;)
 
WRInaute occasionnel
L'utilisation de robots pour créer des liens html... hum-hum... ça doit pas être 100% conforme aux guidelines de GG tout ça, mais bon :cry:

Finalement la wiki ce sont des myriades de petites fourmis humaines qui font 98% du travail et un petit robot vient mettre en lien tout ça !

Sans ces liens il y a de très fortes probalités que l'on ne connaisse même pas la wiki, car ce sont ces liens qui font son référencement !
 
WRInaute accro
toto2525 a dit:
L'utilisation de robots pour créer des liens html... hum-hum... ça doit pas être 100% conforme aux guidelines de GG tout ça, mais bon :cry:

Pourquoi ?
C'est juste de la programmation intelligente, c'est comme les gens qui font des regex pour gérer leurs liens internes.
Tant que le html qui est servi est conforme, que tu le fasses en transpirant caractère par caractère ou avec de la programmation intelligente, ça ne change rien ? Tu ne crois pas ?
 
WRInaute occasionnel
Imagine si je developpais un script php (robot) ou autre qui parcours le web à la recherche de petites phrases ayant un intérêt dans mon domaine et que je construise ainsi un site web basé sur le plagiat d'une phrase par site rencontré... on utilise ce fameux robot qui te place des liens dans ton beau site et le tour est joué : tu as crée un site automatiquement et dont le contenu grossira (ce qu'adore GG) jour après jour ! T'en penses quoi ?

Elle est ou la limite "éthique" entre un site construit par des humains pour des humains et un site construit par des robots pour des robots (crawlers) ?

Personnellement ça me choque profondément que la wiki utilise ce type de procédé (si cela est avéré, bien sur), et cela mériterait une pénalisation de la part des moteurs de recherche, on est dans l'automatisation et la manipulation de contenu. Sans la tuyauterie des liens qui a été mis en place par la wiki grâce à leur robot placeur de liens, la wiki n'aurait certainement pas le référencement quelle a aujourd'hui, donc il y a bien une corrélation directe entre la technique de placement des liens dans leur page et leur référencement : est-ce acceptable, tolérable ?
 
WRInaute accro
Déjà d'une ce ne sont pas des robots mais un scipt, je sais ça fait moins "technologie" mais bon, de deux beaucoup de sites (et pas seulement les "wiki") ont un système de création de liens internes à la volée, de trois je vois pas trop où est le problème, c'est quand même pas la faut de Google si les gens préfèrent cliquer sur ce type de site !
La demande engendre l'offre.

Ensuite non ce ne sont pas ces liens internes qui favorisent outre mesure la sur-présence de wikipedia (pour ne parler que d'elle) dans les résultats des moteurs mais simplement le fait qu'elle est le symbole du référencement naturel et du linkbaiting (même si bien entendu des petits malins la truquent pour se favoriser eux-mêmes).

Après moi, je le rappelle, j'aime pas Wikipedia, mais alors pas du tout mais pour d'autres raisons...
@+
 
WRInaute accro
toto2525 a dit:
Imagine si je developpais un script php (robot) ou autre qui parcours le web à la recherche de petites phrases ayant un intérêt dans mon domaine et que je construise ainsi un site web basé sur le plagiat d'une phrase par site rencontré... on utilise ce fameux robot qui te place des liens dans ton beau site et le tour est joué : tu as crée un site automatiquement et dont le contenu grossira (ce qu'adore GG) jour après jour ! T'en penses quoi ?

Elle est ou la limite "éthique" entre un site construit par des humains pour des humains et un site construit par des robots pour des robots (crawlers) ?

Que ça n'a rien à voir et que tu n'as pas dû très bien comprendre.
Toi tu parles d'aller piquer du contenu ailleurs...

Ce que fait Wikio est qu'ils ont simplement un programme INTERNE qui permet de créer automatiquement dans chaque article INTERNE à leur site des liens sur tous les autres articles INTERNES de leur site sur la base du titre de chaque article.

Si pas d'article dans Wikio, pas de lien. Si article nouveau, nouveaux liens INTERNES

Encore une fois je ne vois pas où est le problème ?
 
WRInaute occasionnel
Ensuite non ce ne sont pas ces liens internes qui favorisent outre mesure la sur-présence de wikipedia
Pas du tout d'accord avec ça mais alors pas du tout !

c'est quand même pas la faut de Google si les gens préfèrent cliquer sur ce type de site !
Si un site a mis en place des techniques de tuyautage de liens internes (par robots, scripts, etc...), cela favorisera son référencement, et plus son référencement sera bon et plus il aura de clics (de visteurs) en provenance des moteurs de recherche, non ?

Toi tu parles d'aller piquer du contenu ailleurs...
Tu crois qu'elles font quoi les petites fourmis de la wiki-machin, ils ne piquent pas du contenu sur d'autres sites (en oubliant de citer le site) !!! Alors certe, ce n'est pas aussi caricaturale que mon exemple de script automatique mais bon c'était simplement histoire de prendre un cas extrème.

Si pas d'article dans Wikio, pas de lien. Si article nouveau, nouveaux liens INTERNES
Regarde en bas de cette page http://fr.wikipedia.org/wiki/Caractère, rubrique Divers, le lien "Le caractère de Hecke", clic dessus et il t'amène sur une page ou il n'y a pas d'article ! Pourtant cette page Caractère de Hecke existe bien et elle est référencée par GG
 
WRInaute accro
Si un site a mis en place des techniques de tuyautage de liens internes (par robots, scripts, etc...), cela favorisera son référencement, et plus son référencement sera bon et plus il aura de clics (de visteurs) en provenance des moteurs de recherche, non ?
Et alors ?
Tu as deux façons de faire des liens internes : soit par programmation (pas ROBOT, PROGRAMMATION), soit à l'ancienne, à la mimine.
Tu as aussi plusieurs façons de faire des pages webs, soit à l'ancienne, en codant entièrement chaque page, soit en utilisant des modèles, soit encire plus efficace, en utilisant des CMS.
Pourtant tu ne sembles pas dire que qu'utiliser un CMS soit une technique pas éthique.

Là c'est la même chose : faire des liens internes est un choix qui est ouvert à tous les internautes. L'avantage de Wikipedia et d'un certains nombre d'autres sites est de savoir les faire automatiquement.
Si tu ne sais pas comment le faire, apprends, plutôt de dire que c'est border-line.

Tu crois qu'elles font quoi les petites fourmis de la wiki-machin, ils ne piquent pas du contenu sur d'autres sites (en oubliant de citer le site) !!!
Ca n'a rien à voir avec les liens internes.
En ce qui me concerne, j'ai eu plusieurs fois des demandes AVANT d'utiliser certains matériels de mon site, et mes refus ont toujours été respectés.

Si pas d'article dans Wikio, pas de lien. Si article nouveau, nouveaux liens INTERNES
Regarde en bas de cette page http://fr.wikipedia.org/wiki/Caractère, rubrique Divers, le lien "Le caractère de Hecke", clic dessus et il t'amène sur une page ou il n'y a pas d'article ! Pourtant cette page Caractère de Hecke existe bien et elle est référencée par GG[/quote]

Il faut comprendre un peu comment Wikipedia fonctionne. Les listes de thèmes et d'articles sont souvent importés d'une version dans une autre langue. En l'occurence, il y a un article dans la version anglaise et dans la version allemande, et un article à faire dans la version française.

En réalité caractère de Hecke est une mauvaise traduction de "opérateur de Hecke". Tu remarqueras d'ailleurs que sur ce sujet de spécialiste, la recherche "Hecke" renvoie Wiki en seconde page seulement, opérateur de Hecke en quatrième page seulement. Donc en gros, le "spam indexing" ne serait visible que sur une recherche erronée...
 
WRInaute accro
toto2525 a dit:
Ensuite non ce ne sont pas ces liens internes qui favorisent outre mesure la sur-présence de wikipedia
Pas du tout d'accord avec ça mais alors pas du tout !
Je t'assure pourtant que si, la preuve étant que les sites qui utilisent de tels techniques manuelles ou automatiques, et ils sont nombreux (le blog WRI par exemple), ne semblent pas favorisés plus que cela (même si ça reste un facteur).
La seule raison que je vois à la prédominance de ces types de sites c'est le fait que ce sont des trous noirs tout y rentre (contenu d'autres sites, liens) et rien n'en ressort.
Le reste, tel le favoritisme supposé dont ils bénéficient, n'est que supputations qui seront dures à prouver, à mon humble avis.
@+
 
WRInaute accro
serval2a a dit:
La seule raison que je vois à la prédominance de ces types de sites c'est le fait que ce sont des trous noirs tout y rentre (contenu d'autres sites, liens) et rien n'en ressort.

Au contraire, le "trou noir" est plutôt défavorisé.
D'ailleurs, Wikipedia a de nombreux liens externes. Même si ils sont en nofollow, cela n'en fait pas un "trou noir"

L'absence de liens de sortie est plutôt dans les techniques à éviter.

Mettre les liens externes en nofollow a un impact sur la redistribution interne de PR, certes, mais ce n'est pas le PR qui fait le positionnement ;)
 
WRInaute accro
Salut Marie-Aude,
Je ne suis pas trop partisan de dire que le liage externe participe grandement au positionnement, il est même selon moins quasi-totalement ignoré(surtout parce que Google n'en a jamais parlé nulle part comme critère), toutefois sur ce point Wikipedia, il faut le rappeler, fait des liens externes et même beaucoup et qui plus est ils sont sans nofollow ;)
C'est juste ceux qui sont vers le "web" qui sont dans ce dernier cas les autres participent au système de trou noir de la nébuleuse.
 
WRInaute accro
Ben tout simplement vers les autres sous-domaines de Wikipedia, les wiktionnary, les wikibooks, les wikinews, les wikisources, les wikiquote, les wikiversity, vers mediawiki ou la wikimedia fondation et leurs propres sous-domaines.
Les sous-domaines restent, malgré les erreurs d'interprétation de l'été dernier, des sites à part entière pour Google ;)
Donc il y a bien des liens externes mais il ne participent en rien au maillage du web, si ce n'est à amplifier la captation du link juice transmis par les sites tiers qui n'est jamais redistribué.
Exemple : sur ce fil de WRI combien de liens vers Wikipedia ?
 
WRInaute occasionnel
L'avantage de Wikipedia et d'un certains nombre d'autres sites est de savoir les faire automatiquement.
Ca c'est sure ils savent bien la faire et avec quelle densité... parfois on ne voit plus que du texte en bleu souligné tellement il y en a dans leur page : des liens = Oui ; trop de liens : Non (ça n'apporte plus rien, c'est touffu, ce n'est plus naturel mais uniquement axé POUR le référencement).
 
WRInaute occasionnel
Je ne pense pas que Wikipedia se focalise sur son référencement.
Toi qui à l'air de bien connaitre la wiki, demande leur de reprogrammer leur robot bourreur de liens en lui disant de mettre 2 fois moins de liens sur leur page et on verra bien s'il y a bien un lien de cause à effet entre nombre de liens et leur positionnement (leur référencement) sur les moteurs de recherche !

Plus t'es bien positionné sur le moteurs de recherche et plus t'auras de visiteurs et plus tu auras de petites fourmis qui te rejoindront pour faire grossir la pieuvre : tu penses pas que le référencement devient un point stratégique (voir vitale) pour toutes ces encyclopédies ?
 
WRInaute accro
Je suis sans doute totalement stupide, naïve, etc...
mais je pense que le but premier de Wikipedia n'est pas d'être bien référencée dans Google, mais de donner sa "promesse".

Quand tu recherches des informations, la possibilité de pouvoir sauter d'une définition à l'autre d'un simple clic, d'aller approfondir le sujet et l'ensemble des sujets connexes à petits coups de clics droits est un plus incontestable pour l'utilisateur (et je vois à quel point j'utilise plus ces liens in text que les "related links" en bas de l'article).

Que ce que Wikipedia fait pour être une bonne encyclopédie en ligne soit bon pour son référencement est incontestable, mais je pense qu'ils le font d'abord pour être une bonne encyclopédie. D'autant plus qu'à l'époque de leur création, la lutte pour le référencement était plus simple :) et d'autant plus (bis) que jusqu'à maintenant ils ne monétisent pas.

La deuxième raison pour laquelle, amha, Wikipedia ne se focalise pas sur son référencement, c'est parce qu'ils n'ont pas besoin. Entre tous les liens externes, leur volume de contenu, ils n'ont aucun besoin de s'occuper de cet aspect, et c'est nous qui focalisons sur le positionnement de Wikipedia.
 
WRInaute accro
Très bonne conclusion à mon humble avis, tu as résumé tous les points forts de Wikipedia en terme de référencement.
@+
 
WRInaute accro
La vente de CD c'est comme pour Linux :)

Pour le reste, c'est du racket, pas de la monétisation ;)

Cela dit, je préfère encore Wikipedia à Encarta...
 
WRInaute occasionnel
Est-ce que croyez 2 minutes que le fondateur de la wiki ne succombera pas à la vue des dollars lorsque que GG (par exemple) les agitera sous son nez et lui proposera de racheter la wiki (ou d'y mettre ses pubs) ?

Pour l'instant GG laisse faire, il laisse grossir la pieuvre (il n'a pas à s'en priver car les petites fourmis bénévoles font le travail gratuitement) et puis lorsqu'il le jugera opportun il fera une offre (commerciale) qu'un être humain ne peut refuser (c'est qu'une question de prix, n'importe qui s'achète !)... et hop voilà comment s'approprier la plus grosse encyclopédie mondiale pour une bouchée de pain (comparé au coût que cela aurait engendré si GG avait du payer toutes ces petites fourmis pour construire la même encyclopédie) !
 
WRInaute accro
Et à qui fera-t-il l'offre commerciale ?

Ce qui est special, dans Wikipedia, c'est que l'encyclopédie n'appartient à personne.
Son fondateur l'est au sens de créateur (même si à l'époque il était PDG d'une boite qui soutenait le projet, et a considéré que l'autre co-fondateur n'était qu'un salarié), mais Wikipedia ne lui appartient pas, tout est CC.

La seule organisation qui serait amenée à prendre une telle décision serait la fondation. Mais en tant qu'organisation à but non lucratif, faire des bénefs avec de l'Adsense, ou équilibrer exactement les revenus avec les charges est difficile.

Au cas où ça t'aurais échappé, il y a eu une grosse crise de financement chez Wiki il y a quelques temps, et aucune pub, mais de simples appels aux dons, alors que les inquiétudes étaient réelles.

Google ne peut pas faire une offre à des personnes, puisque les membres du board de la fondation ne possèdent pas l'encyclopédie, et n'ont pas le droit de toucher un centime sur la vente "d'actifs" appartenant à la fondation.
On peut éventuellement éventuellement laisser trainer les mains dans le beurre pour des frais de déplacement, mais pas pour une transaction à des centaines de millions de dollars.

Et surtout, légalement, Wiki n'est pas à vendre.

Que croirais tu qu'il se passerait si Wiki se "vendait" d'une façon ou d'une autre ?
Tout simplement ce qui s'est passé à plus petite échelle : les petites mains retireraient, en toute légalité, leur contenu.

Et surtout, le débat a déjà eu lieu... et il n'y a pas eu de monétisation.

Un peu de lecture : http://wikimediafoundation.org/wiki/Res ... ing_policy
 
WRInaute accro
Tiens j'ai d'ailleurs trouvé cela, qui est intéressant - en tout cas j'ignorais :
http://fr.wikipedia.org/wiki/Wikia

Le "grand saut avec le gros méchant Google" a déjà eu lieu, et il est totalement séparé de Wikipedia.

Et ces sites monétisés n'apparaissent pas dans les top10, loin de là (ne pas les confondre avec les wikitionnaires et autres qui sont des projets de la fondation).
Et leur contenu n'est pas pompé directement de Wikipedia.

Et pour l'indexation dans les moteurs, tu as ça :
http://fr.wikipedia.org/wiki/Aide:FAQ/t ... Google_.3F
 
WRInaute accro
toto2525 a dit:
Et la volonté ou pas de lister plusieurs fois le même site dans une même page, ça incombe à qui cette décision là ? C'est déjà assez dur de figurer sur la première page de résultats mais en plus si le moteur liste plusieurs fois un même site, c'est carrément mission impossible !
gg n'est pas là pour faire plaisir au webmaster, mais pour faire plaisir à l'internaute, sinon l'internaute cherchera un autre moteur de recherches
toto2525 a dit:
Dans mon activité, certains de mes concurrents bourrent des liens html de mots clés dans leur page (généralement ils enlèvent le soulignement du lien pour que ça passe inaperçu pour l'internaute) afin d'imiter la wiki-machin : faut-il suivre leur exemple et imiter la wiki-machin-truc ? ou bien GG va-t-il enfin sanctionner les liens html ajouter abusivement (aussi bien chez la wiki que les autres sites) ? !
il te suffit de faire un spam report
 
Haut