Le filtre Google contre le spam (suroptimisation SEO) [24-04-2012]

WRInaute discret
sur une liste d'articles, je ne peux pas trop changer le nom de l'article
le nom court est utilisé pour l'ancre du lien texte
le nom long de l'article est utilisé pour l'attribut alt de l'image qui sert d'ancre sur le lien image
et j'ai une mini-description qui apparait en rollover, c'est là dessus que j'ai viré les occurences (et c'était là que j'avais un peu abusé aussi)

j'ai des landing pages qui passent avec du 2.68% sur un mot... là je suis pas très loin au dessus.

pour les maillots, j'ai utilisé "shirt" dans la description mais pour les pantalons .... je vais pas employer falzar ou froc :mrgreen:
pour d'autres types de produit, j'ai des idées et je vais élargir un peu le champ lexical.

je croyais que GG tolérait la répétition dans une liste d'éléments (plus que dans un texte) ... j'espère que ça n'a pas trop changé.
 
WRInaute discret
je vais peut-être virer la balise alt des images miniatures
le lien et l'ancre (en doublon avec le lien texte) n'est pas utile (c'est le 1ère ancre qui compte) si ce n'est que le virer me faisait perdre un peu de jus sur les pages produits (j'avais déjà essayé avec et sans) - je rankais un peu moins bien sur les pages produits : 2 liens sur la même cible valent mieux qu'un seul ... c'était avant le filtre du 25/04.
 
WRInaute discret
J ai une petite question:

Mon site locations-de-vacances.fr se classe assez bien sur "location vacances" puisqu'il est 4-5 ième.

Par contre sur "locations vacances" qui est juste le pluriel, Google le classe 18ième. On voit clairement qu'il y a une sanction mais je ne m explique pas pourquoi ?!
 
WRInaute accro
Ca ne semble pas si clair que ça. C'est une requête sur-spammée et il y a toujours une différence entre les singuliers et les pluriels
 
WRInaute discret
+1 avec fredfan, je pense pas à une pénalité. Chez moi tu es 2ème dans les SERP sur "locations de vacances" ...
 
WRInaute discret
dans GWT mes deux mots clés les plus présents sont pourtant "locations" en premier et "vacances" en second. Je vois pas pourquoi il me fait la distinction comme cela :(
enfin soit y a plein de truc qu on comprendra jamais avec Google
 
WRInaute discret
ah mince, j'avais rajouter le "de" ...je suis fatigué ... désolé
travailles davantage le réf sur cette "ancre" là, il y a plus de concurrence.
 
WRInaute accro
cupidonbe a dit:
Par contre sur "locations vacances" qui est juste le pluriel, Google le classe 18ième. On voit clairement qu'il y a une sanction mais je ne m explique pas pourquoi ?!
pourquoi sanction ? parce que sa "bonne" place c'est sur la 1° page ? les requêtes au pluriel sont les plus recherchées au niveau seo. Donc tu n'as pas encore assez bossé dessus
 
WRInaute discret
ha oui alors je comprends... parce que avant le site était location-de-vacances.be au singulier et tous les gens pointaient avec une ancre "location de vacances" tss
tout est donc a refaire.

Merci pour vos conseils.
 
WRInaute occasionnel
ybet a dit:
Je viens de relire quelques tests que j'avais publié sur WRI et sur mon site en 2008 et en 2009 sur les liens. Faut être con, tout ce que j'avais découvert en testant sur des sites en production sur quelques pages n'a jamais été réellement utilisé en pratique sur mes sites.

T'es trop fort, on ne pourra jamais se passer de tes tests intelligents :wink:

ybet a dit:
une trentaine de mes pages en anglais d'un site entièrement en français, traduites bêtement à l'époque avec yahoo montent dans les stats ... Si ces pages avec un vocabulaire - grammaire - orthographe ressemblant à un japonais imitant un anglais avec un accent du centre Bruxellois monte, ils doivent pas réellement lire le contenu.

Surprenant exemple, même en liens nulles. Donc, comme à priori, je cite bien à priori, le manchot ne comprendrait pas "totalement" les langues, je vais faire un test en verlan pour voir si le manchot (bandit) me répond :mrgreen:

ybet a dit:
quand le visiteur finit de lire la page, il a 3 solutions: quitter avec la croix, revenir en arrière ou cliquer sur l'adsense du bas. Ca doit être la troisième solution qui motive Google à me faire monter.

Ah, c'était bien le bon temps :lol:

ybet a dit:
Quand à moi, finis de donner de l'argent au WWW (ou plutôt au WSPA) pour protéger les panda et autres pingouin, je tire à vue sur tout ce qui ressemble à une bestiole non W3C.

Idem, heureusement que dans les forêts en France, y'a pas de pingouin, car je te jure que... j'aurai fais une bonne battue, genre waterloopingouin, bottes de chasse, le manchot au fusil. Et pis j'ai un bal masqué le 30 Juin, j'ai fais cadeau à ma belle-mère... un habit de manchot, au moins là, j'aurai une raison valable envers ma femme de tirer à vue.

ybet a dit:
et pas des bricolages 301 avec changements de sites. C'est le "site standard" qu'on doit analyser.

Réponse indéniablement pertinente, mais faut dire que ça m'a traversé l'esprit quand même vu que les BL n'ont plus autant de valeur qu'auparavant (1998-2006). Pourquoi ne pas prendre un nouveau nom de domaine, récupérer le contenu du site planté, radier l'ancien du manchot et en référencer un nouveau, tout neuf, sans aucun BL et cie ? Le manchot a la mémoire des pages d'un site planté ? Question que je me pose...

En tous les cas, ce que j'ai fais, c'est baisse des occurrences et suppressions des balises "alt". Là, j'en suis à 350 occurrences, soit pour 240 pages (pleines de textes et pas d'images), donc ratio de 1.45 mot clé. Je teste et vous dis le retour.

Merci ybet, c'est toujours un plaisir de te lire :wink:
 
WRInaute discret
Writer a dit:
Tomybe a dit:
J'pense que Google est assez malin pour avoir anticiper ça. Et si il ne l'ont pas anticipé il on du le lire assez souvent depuis le 24 Avril pour l'anticiper.
Oui c'est ça, Google va faire appel à l'FBI pour enquêter si c'est le propriétaire du site en question qui fait le spam ou c'est son concurrent.. lol j'adore les hypothèses tirés par les cheveux...

J'tire aucune hypothèse, j'dis simplement que le raccourci est un peu facile.

Mais je peut prendre le risque de l’hypothèse en ne voyant pas pinguin comme une pénalité, mais comme une simple "amélioration" de leur algorithme incluant une façon différente d’interpréter les backlinks (il y a d'ailleurs eu un article à ce sujet bien avant cette mise à jour).

Maintenant si cette nouvelle update rend plus ou moins caduc l'optimisation des ancres sans esprit de pénalité, que pensez-vous que XRunner pourrait bien faire à part faire des backlinks pour n'obtenir que du vent? Ce n'est que mon avis! Voir la pénalité partout est contre productif je pense.
 
Nouveau WRInaute
Bonjour,

je possède un site dans un domaine ultra concurrentiel, la mutuelle, qui a été sérieusement touché par pinguin.
le contenu est riche est bien rédigé, j'ai du faire, eu total 5 à 7 CP bien rédigés en 2 ans et des annuaires en 2005, lors de la création du site et une 20aine d'annuaires depuis un an.
je constate en regardant WMT que des liens d'annuaires tels que recherche-sur-internet.com ou updowner.com pointent vers mon site mais, dans ces annuaires, je n'avais fait qu'une soumission normale et je vois que, de chacun de ces annuaires, pointent des centaines de liens vers mon site ?

Est-ce normal ??
Puis-je interdire à google de ne pas en tenir compte si ces derniers me sont préjudiciables ??

Merci pour vos réponses ???
 
Nouveau WRInaute
ballet a dit:
Bonjour,

je possède un site dans un domaine ultra concurrentiel, la mutuelle, qui a été sérieusement touché par pinguin.
le contenu est riche est bien rédigé, j'ai du faire, eu total 5 à 7 CP bien rédigés en 2 ans et des annuaires en 2005, lors de la création du site et une 20aine d'annuaires depuis un an.
je constate en regardant WMT que des liens d'annuaires tels que recherche-sur-internet.com ou updowner.com pointent vers mon site mais, dans ces annuaires, je n'avais fait qu'une soumission normale et je vois que, de chacun de ces annuaires, pointent des centaines de liens vers mon site ?Est-ce normal ??Puis-je interdire à google de ne pas en tenir compte si ces derniers me sont préjudiciables ??Merci pour vos réponses ???

Je suis exactement dans le même cas : thématique concurentielle et 391 liens non demandés qui viennent de recherche-sur-internet.com, ce qui en fait le 1er domaine qui linke vers mon site très sévèrement touché par le hyène, pardon le penguin.

Peut-être une piste de plus à explorer ?
 
WRInaute accro
ballet a dit:
je constate en regardant WMT que des liens d'annuaires tels que recherche-sur-internet.com ou updowner.com pointent vers mon site mais, dans ces annuaires, je n'avais fait qu'une soumission normale et je vois que, de chacun de ces annuaires, pointent des centaines de liens vers mon site ?
j'ai aussi des sites parasites qui ont piqué une partie de mon contenu et qui envoient des centaines de bl vers mes sites, mais ça n'est pas un réel problème, car, dans ton domaine, le problème est le plus souvent in site : du genre "je peux mettre jusqu'à 8% mes mots clés dans une page ?" "allons-y allègrement"
il faut donc "juste" reprendre le contenu en ne pensant plus seo mais internaute
 
Nouveau WRInaute
Une semaine de passée, un peu de recul et un changement de perspective dans l'axe de la réflexion m'amènent à me poser de sérieuses questions sur la volonté réelle de GG sur cette mise à jour.

1 - Sur les sites qui m'appartiennent (9), seuls ceux liés à une activité professionnelle juridiquement établie ont été impactés. Ces activités sont petites sans être "toutes petites", sont bien installées et pourraient connaître un fort développement en cas de meilleur apport de visiteurs sur leurs sites. Ces activités sont online (e-commerce) ou pas (immobilier, vacances, services ..) mais dans ce dernier cas, l'activité et les tarifs sont parfaitement décrits sur le site et des outils de réservation/prises d'infos spécifiques sont présents. Ceux n'ayant aucun objectif commercial (blogs indépendants ou personnels) n'ont pas été touchés.
Un exemple frappant : 2 blogs WP, pas de SEO particulier, pas de campagnes de BL, thèmes venant de la même source (template monster), un pro et l'autre non .... grosse chute du pro (activité pour touristes aux antilles) et légère montée de l'autre (blog photo personnel).

2 - Sur les sites sur lesquels j'interviens (hébergement ou autre), même constat. Le seul lien entre tous les sites touchés, c'est l'activité derrière. Un gros blog perso (plusieurs milliers de VU/J) assez optimisé et très linké n'a rien subit, alors que des plus petits sites vitrines, sans bl ou presque (en tout cas aucun d'annuaires, CP, digg ou autres) ont perdus sur leurs KW principaux.

3 - Sur les retours d'expériences à droite à gauche, ça se confirme aussi. Les gros spammeurs mfa n'ont pas forcément été impactés, les petits/moyens sites/blogs persos ou associatifs non plus ... par contre des e-commerces à bon potentiel de développement ont été touché.

4 - De ceux que je connais personnellement, AUCUN site utilisant adwords de manière suivie et non négligeable n'a été touché ...

Ce n'est qu'une partie du problème, je suis bien d'accord, mais ce n'est pas anodin. On ne m'empêchera pas de penser que sous couvert de lute contre le spam, GG en a profité pour donner un gros coup de fouet à adwords en pénalisant beaucoup de sites pro qui n'utilisaient pas le service. En ces temps ou le maître du monde de la pub online se fait bien secouer par FB .... il est normal de poser la question ! lQue des critères liés au SEO soient pris en compte, c'est évident, mais que d'autres qui n'ont rien à voir avec le spam soient aussi utilisés (à des fins uniquement commerciales) me semble à envisager et pourrait expliquer en partie le flou autour des causes des baisses !
 
WRInaute accro
ça ne correspond absolument pas à ce que j'ai pu voir sur mes sites, où j'ai beaucoup de sites pros, dans les thématiques voyage aussi, et où je n'utilise jamais d'adwords
 
Nouveau WRInaute
Il est évident qu'il est impossible pour GG de pénaliser tous les sites pro n'utilisant pas adwords, c'est pas mon propos ... mais il ne me semble pas impossible que ce soit un critère dans l'application du filtre !
 
WRInaute occasionnel
Et voici une pétition anti-penguin : http://www.change.org/fr/pétitions/google-please-kill-your-penguin-update-l

Extrait
With the recent Google Penguin update, it has become nearly impossible for small content based websites to stay competitive with large publishers like eHow, WikiHow, Yahoo Answers and Amazon.

Countless webmasters have seen their livelihoods vanish overnight. In a recent interview, Sergey Brin came out against "Walled Gardens" of the likes of Facebook and expressed worries about the direction that the internet. Ironically, the Penguin update has created a similar garden that only admits multimillion dollar publishing platforms.

Si l'URL a déjà été donnné... sorry
 
WRInaute passionné
Google n'est pas là pour faire plaisir aux WM mais pour donner du contenu aux users, tant que le contenu est bon le reste il s'en fout, que ça soit un gros site ou un petit.
 
WRInaute accro
Me suis fais supprimé quelques posts dans la fin de conversation avec une petite dispute avec ... pour qu'il essaye de comprendre pour son site (je discute pas) pourtant, je remet l'essentiel (hors textes hors propos) d'un des postes:
On va résumer:

Panda
essayait de casser les parties de textes créés automatiquement avec orthographe - grammaire - conjugaison - synonymes pas adaptés au sujet et autre pas trop lisible: en gros, textes créés par des logiciels automatiques ou au minimum par des membres qui ne connaissent pas le sujet. Faut juste comprendre que la langue anglaise est plus facile pour créer des textes automatiques sur un sujet que le Français avec des règles de conjugaison - orthographe nettement plus pointues (ou plus tordues). En deuxième partie, PANDA a supprimé des sites généralistes qui reprenaient des articles sur tout et rien, le plus souvent (pas toujours) avec peu de réelle valeur.
Pinguin, s'attaque aux sites sur-vitaminés, reprenant des bases de référencement mais en sur-optimalisatant toutes les parties. Les causes de déclassement cette fois-ci sont (c'est à peu prêt çà):
1. texte avec des occurences (pourcentage) trop élevées du / des mots clés et des combinaisons de ces termes, y compris les synonymes, pluriel / singulier, conjugaison de verbe différentes et ... pour revenir sur l'exemple supprimé les fautes d'orthographes douteuses (installation et installation - avec réinstallation: 6 X le même mot sur une page de moins de 200 mots). Ca rejoint la direction du post de philyd qui va gérer son contenu (dé-optimaliser)
2. liens internes contenus trop répétitifs ou navigations trop changeante et spasmique (suis pas forcément toujours blanc non plus :oops:, une explication de la méthode utilisée d'un de mes site touché le montre quand j'explique sa méthode de référencemment ... vers la fin de -http://www.ybet.be/news-fiche.php?numero=37
3. liens externes en footer - navigation sur une majorité des pages sur un ou plusieurs autre site (qu'ils soient apparament sur la même thématique ou non, même si quelques posts semblent dire le contraire)
4. réception massives de liens à partir d'un site, avec ou non sans lien de retour, voulu ou non.
5. envoi / réception de liens (pour la plupart "in texte") réguliers: pas sur toutes les pages mais juste suffisamment pour essayer de faire monter quelques requêtes. On revient au liens "amicaux" de 2009 sauf que cette fois, GG a probablement un peu modifier la procédure: ce ne sont plus les pages qui envoient / recoivent qui sont touchées mais bien le ou les 2 sites).
6. tout les bricolages en tous genre (mais c'est pas nouveau et ceux-là ben tant pis pour eux).

Ca me semble un bon résumé des pistes à étudier dans les semaines qui viennent et un bon résumé des particularités des sites touchés. J'ai peut-être oublié une possibilité ou l'autre, ça serait gentil de la rajouter :wink: Ca me semble plus logique de travailler sur une base comme celle-là dans le futur (quitte à se partager les directions de changements et les résultats entre plusieurs webmasters) plutôt que de mettre 100 messages plus ou moins (in)utiles.
Patrick
 
WRInaute accro
Les petites planètes a dit:
seuls ceux liés à une activité professionnelle juridiquement établie ont été impactés. Ces activités sont petites sans être "toutes petites", sont bien installées et pourraient connaître un fort développement en cas de meilleur apport de visiteurs sur leurs sites
Je pense aussi aux activités financières de Google (mais depuis plus de deux ans) pour expliquer certains classement. Pourtant, ... mon site principal reprend une activité et ... des pages de contenus. :roll: Bizarrement, quand je regarde les outils webmasters de GG, je retrouve nettement plus de liens vers la trentaine de pages commerciales que vers les pages de contenu indicatifs: le site date de 2003. On a nettement tendance à créer des liens (y compris à partir des autres sites qu'on gère) vers les parties lucratives plutôt que vers les autres: ca peut aussi expliquer les déclassements des parties commerciales ... mais cette logique de déclassement a débuter depuis plus de 6 mois, Pinguin ne fait peut-être qu'accentuer la descende.
 
WRInaute impliqué
Les petites planètes a dit:
Il est évident qu'il est impossible pour GG de pénaliser tous les sites pro n'utilisant pas adwords, c'est pas mon propos ... mais il ne me semble pas impossible que ce soit un critère dans l'application du filtre !

J'y crois pas une seconde...

Plusieurs sites de clients n'ont pas du tout été impactés et en outre dans certains domaines que je suis ce n'est pas du tout les boutiques de e-commerce qui ont plongés mais bien des sites de contenu.
 
WRInaute passionné
franckM a dit:
Les petites planètes a dit:
Il est évident qu'il est impossible pour GG de pénaliser tous les sites pro n'utilisant pas adwords, c'est pas mon propos ... mais il ne me semble pas impossible que ce soit un critère dans l'application du filtre !

J'y crois pas une seconde...

Plusieurs sites de clients n'ont pas du tout été impactés et en outre dans certains domaines que je suis ce n'est pas du tout les boutiques de e-commerce qui ont plongés mais bien des sites de contenu.

Pareil, je n'y crois pas non plus...
Un de mes sites utilisant adword à l'année avec un budget pourtant très correct, à été déclassé de 6/7 positions,
au profits de sites proposant moins d'informations...
 
WRInaute accro
skyll a dit:
déclassé de 6/7 positions, au profits de sites proposant moins d'informations...
Vue la moyenne générale ça pourrait être lié a un dépassement par des sites sortis de nul part (OVNI) plus qu'un déclassement / pénalité.

On pourrait ajouter a la liste des critères a observer par site la relation que vous pourriez avoir vis a vis d'un service Google en terme de concurence.
 
WRInaute accro
Les petites planètes a dit:
Il est évident qu'il est impossible pour GG de pénaliser tous les sites pro n'utilisant pas adwords, c'est pas mon propos ... mais il ne me semble pas impossible que ce soit un critère dans l'application du filtre !
ça ne viendrait pas plutôt du fait que pour tes blos, tu as mis les données en ligne et basta, alors que pour les autres, étant donné qu'ils sont dans un domaine concurrentiel, tu as sûrement pas mal chargé l'optimisation in site et hors site ?
 
WRInaute discret
skyll a dit:
Un de mes sites utilisant adword à l'année avec un budget pourtant très correct, à été déclassé de 6/7 positions,
au profits de sites proposant moins d'informations...
T'as de la chance, moi j'ai droit à des sites parqués et des blogs avec 0 post devant mes sites..
 
WRInaute discret
WRInaute discret
Tomybe a dit:
y a un formulaire sur google spam report pour dénoncer la copie et les problèmes de droit d'auteur.
Le duplicate content n'a rien à voir avec le SPAM, d'ailleurs ce formulaire ne le permet pas et c'est tout à fait normal vue que Google dispose d'assez bon serveurs dans ses datacenter pour s'en occuper au lieu de le faire manuellement.
 
WRInaute accro
Writer a dit:
Marie-Aude a dit:
Copie = duplicate content

Toujours lutter contre la copie ^^
Le duplicate content pénalise la copie pas l'original à ce que sache..
encore faut-il savoir lequel est réellement l'original. Pourquoi serait-ce le 1° à avoir mis le texte en ligne ? imagine que j'écrive un article dans un journal (papier). J'attends que le journal ait été acheté par les clients et, 3-4 semaines plus tard, je mets en ligne mon article. Sauf qu'entre temps, un de mes lecteurs a recopié mon article papier sur son blog. Son article sera donc en ligne plus de 3 semaines avant le mien. Doit-il être considéré comme le vrai auteur ?
 
WRInaute passionné
Leonick a dit:
3-4 semaines plus tard, je mets en ligne mon article. Sauf qu'entre temps, un de mes lecteurs a recopié mon article papier sur son blog
çà ne doit pas être le cas le plus général du plagiat de contenu de sites même si çà peut arriver
 
WRInaute accro
Leonick a dit:
Doit-il être considéré comme le vrai auteur ?
Et les dates de crawl effectués par google ne permettent pas de déterminer qui a publié le premier non plu, bref comme le dit Leonick c'est pipo et molo pour déterminer qui est l'auteur sur internet.
 
WRInaute discret
Leonick a dit:
encore faut-il savoir lequel est réellement l'original. Pourquoi serait-ce le 1° à avoir mis le texte en ligne ? imagine que j'écrive un article dans un journal (papier). J'attends que le journal ait été acheté par les clients et, 3-4 semaines plus tard, je mets en ligne mon article. Sauf qu'entre temps, un de mes lecteurs a recopié mon article papier sur son blog. Son article sera donc en ligne plus de 3 semaines avant le mien. Doit-il être considéré comme le vrai auteur ?
Sans discours philosophiques le premier contenu original posté sur Internet c'est par défaut l'original, toute copie ultérieure est une copie.. Google c'est un robot algorithme loin d'être un organisme de traitement de litiges de droits de productions.
 
WRInaute discret
zeb a dit:
Leonick a dit:
Doit-il être considéré comme le vrai auteur ?
Et les dates de crawl effectués par google ne permettent pas de déterminer qui a publié le premier non plu, bref comme le dit Leonick c'est pipo et molo pour déterminer qui est l'auteur sur internet.
Non juste il cite le cas particulier des la presse papier..
 
WRInaute accro
Writer a dit:
Tomybe a dit:
y a un formulaire sur google spam report pour dénoncer la copie et les problèmes de droit d'auteur.
Le duplicate content n'a rien à voir avec le SPAM, d'ailleurs ce formulaire ne le permet pas et c'est tout à fait normal vue que Google dispose d'assez bon serveurs dans ses datacenter pour s'en occuper au lieu de le faire manuellement.

Il y a un formulaire pour dénoncer le spam et un autre formulaire pour demander le retrait d'une page portant atteinte à ses droits d'auteurs des SERPS, et figures toi qu'il est efficace...
 
WRInaute accro
Writer a dit:
Sans discours philosophiques le premier contenu original posté sur Internet c'est par défaut l'original...
Ou mais avec un discours pratique tu met ton contenu sur le fofo WRI quelques heures après un blog bien clean et c'est le blog qui se fait plomber ... les fréquences de crawl influent énormément.
 
WRInaute passionné
Pour l'avoir utilisé le formulaire, je peux dire que çà fonctionne. Le plagieur a vu son site désindexé dans les 48 heures. Mais il s'agissait d'un site aspiré totalement et la preuve était très facile à apporter.
 
WRInaute discret
Marie-Aude a dit:
Il y a un formulaire pour dénoncer le spam et un autre formulaire pour demander le retrait d'une page portant atteinte à ses droits d'auteurs des SERPS, et figures toi qu'il est efficace...
En attendant on cherche pourquoi les robots de Google favorisent les copies..
 
WRInaute accro
Writer a dit:
Non juste il cite le cas particulier des la presse papier..
pas du tout, j'expliquais juste qu'on ne pouvait pas prendre uniquement en compte l'antériorité d'un article pour déterminer son réel auteur.
Comme expliqué par d'autres au dessus, le 1° crawl d'un article sur une page d'un site A ou d'un site B va dépendre de la vitesse de crawl de gg sur A ou B
 
WRInaute accro
Writer a dit:
En attendant on cherche pourquoi les robots de Google favorisent les copies..

Ah ?

Writer a dit:
Le duplicate content pénalise la copie pas l'original à ce que sache..

Tu es d'une cohérence remarquable...

Cela dit, je ne pense pas que les robots "favorisent la copie" je pense que l'algo ne sait pas distinguer l'original de la copie.
 
WRInaute accro
Writer a dit:
En attendant on cherche pourquoi les robots de Google favorisent les copies..
Je pense qu'ils ne sont pas forcement capable de reconnaitre l'original tout simplement. Si nous humains avons cette capacité en procédant rapidement a beaucoup de déductions un bot lui devra se baser sur des certitudes et ne pourra pas forcement trancher.
Par exemple un site bien tenu produisant beaucoup de contenu qui se retrouve en compétition avec un blogspot ne laissera généralement aucun doute sur l'auteur dans notre cas mais pour un bot ?? que va il comprendre de la tendance marqué de cette plateforme a héberger des copieurs.
 
WRInaute discret
Marie-Aude a dit:
Tu es d'une cohérence remarquable...

J'ai dit que le duplicate content devrait pénaliser les copies alors que Google est entrain de les favoriser.. Difficile à saisir ?

Marie-Aude a dit:
Cela dit, je ne pense pas que les robots "favorisent la copie" je pense que l'algo ne sait pas distinguer l'original de la copie.
Chaque page sur internet dispose d'une date de création..
 
WRInaute discret
zeb a dit:
Writer a dit:
En attendant on cherche pourquoi les robots de Google favorisent les copies..
Je pense qu'ils ne sont pas forcement capable de reconnaitre l'original tout simplement. Si nous humains avons cette capacité en procédant rapidement a beaucoup de déductions un bot lui devra se baser sur des certitudes et ne pourra pas forcement trancher.
ça sert à quoi la nouvelle balise HTML canonical page faite par Google pour éviter les duplicates content. Juste pour la forme ?
 
WRInaute accro
Writer a dit:
ça sert à quoi la nouvelle balise HTML canonical page faite par Google pour éviter les duplicates content. Juste pour la forme ?

ça te sert à toi personnellement quand tu dupliques ton propre contenu sur ton propre site ou sur un autre site à dire à Google "dans mes sites, tu choisis cette page là"

C'est bien évidemment totalement inutile quand c'est sur un autre site qui au mieux fera des canonicals vers lui même
 
WRInaute accro
Avant que tout le monde s'embale sur le duplicate content (copieur - copié) je rappelle qu'il n'y a pas de règles: un texte peut être mis en ligne 1 jour, un copieur le met deux mois plus tard et ... GG supprime l'original . Il n'y a aucune règle! Sauf que généralement, c'est le gros qui passe (mais pas toujours), ou plutôt celui qui semble le plus digne de confiance (trustrank)

On a assez bossé là dessus avec L'Jee il y a quelque temps ... :wink:
 
Nouveau WRInaute
Leonick a dit:
Les petites planètes a dit:
Il est évident qu'il est impossible pour GG de pénaliser tous les sites pro n'utilisant pas adwords, c'est pas mon propos ... mais il ne me semble pas impossible que ce soit un critère dans l'application du filtre !
ça ne viendrait pas plutôt du fait que pour tes blos, tu as mis les données en ligne et basta, alors que pour les autres, étant donné qu'ils sont dans un domaine concurrentiel, tu as sûrement pas mal chargé l'optimisation in site et hors site ?
Non, l'exemple cité est caractéristique. 2 blogs, à peu près autant de contenu, aucun travail SEO dessus, aucun linking autre que ceux faits par les utilisateurs/fournisseurs/clients, optimisation onsite pas plus sur l'un que sur l'autre, même version de WP, même fournisseur de thème et même adresse IP. Un domaine est plus ancien mais était parqué et a été utilisé en même temps que l'autre, donc pas d'antécédent de pages indexées. Je n'arrive pas à m'expliquer pourquoi celui lié à une activité pro (service aux touristes) a été pénalisé et pas le blog photo ... c'est incompréhensible !
 
WRInaute impliqué
Il y a un formulaire pour dénoncer le spam et un autre formulaire pour demander le retrait d'une page portant atteinte à ses droits d'auteurs des SERPS, et figures toi qu'il est efficace...
Oui bah de mon côté ça n'a rien fait, et pourtant la copie est visible et a été effectuée 4 mois (!) après l'original (j'ai fait un sujet sur wri il y a quelques semaines).

J'ai eu le droit à un beau message de Google par email me disant qu'ils ne pouvaient rien faire pour mon cas...

Ah si, après avoir été plagié sans pitié, mon site a été bien pénalisé par Pingouin (bref la loose totale :mrgreen: ). Le pire est que le site plagieur est toujours dans les résultats, parfois devant mon site.
Sur ce coup, Google est vraiment pitoyable...
 
WRInaute accro
Le duplicate content a cassé depuis 2008 .... Vois pas pourquoi tout à coup GG en remettrait une couche au point de casser des sites à -50 % .
Si l'espèce de parolier de GG a dit juste (ce que pour une fois je crois) c'est la sur-optimalisation..
Chez moi, toutes les pages ne sont pas touchées de la même manière (elle y semblent toutes): une large partie descend sous les 100 première place, quelques autres milieu de deuxième page et d'autre à la cinquième: il faut juste trouver chaque fois les concordances entre celles qui ont disparue, celle qui sont restées, celles qui ont un petit peu descendu, ...
 
WRInaute discret
Juste à titre d'information il me parait la mise à jour ça tourne encore -23 position le 30 et -10 position le 1er...
 
WRInaute accro
sur mes states, les DATA CENTER de google me font chuter tous les 3 ou 4 jours, l’amplitude de baisse en plus faible que l'amplitude de journalière hausse, donc globalement ça va dans le bon sens.
 
WRInaute occasionnel
emipoker a dit:
ballet a dit:
Bonjour,

je possède un site dans un domaine ultra concurrentiel, la mutuelle, qui a été sérieusement touché par pinguin.
le contenu est riche est bien rédigé, j'ai du faire, eu total 5 à 7 CP bien rédigés en 2 ans et des annuaires en 2005, lors de la création du site et une 20aine d'annuaires depuis un an.
je constate en regardant WMT que des liens d'annuaires tels que recherche-sur-internet.com ou updowner.com pointent vers mon site mais, dans ces annuaires, je n'avais fait qu'une soumission normale et je vois que, de chacun de ces annuaires, pointent des centaines de liens vers mon site ?Est-ce normal ??Puis-je interdire à google de ne pas en tenir compte si ces derniers me sont préjudiciables ??Merci pour vos réponses ???

Je suis exactement dans le même cas : thématique concurentielle et 391 liens non demandés qui viennent de recherche-sur-internet.com, ce qui en fait le 1er domaine qui linke vers mon site très sévèrement touché par le hyène, pardon le penguin.

Peut-être une piste de plus à explorer ?

Alors le coup de bambou est venu aujourd'hui pour moi - 30 à -40 sur des termes ultra concurrentiels positionnés en première page depuis des lustres. Je n'étais pas vraiment touchée par le filtre la semaine dernière. Comme vous il y a pas longtemps j'avais constaté dans GMT un millier de liens provenant de updowner.com entre autre.
J'avais contacté son propriétaire qui m'avait expliqué qu'effectivement mon site ne devait pas y figurer (c'était un site pro je crois et je n'avais jamais fait de soumission) mais que son site avait été piraté quelques mois plus tôt. Pourtant on ne trouvait aucun lien vers mon site en regardant le sien.
Une piste?
 
WRInaute discret
J'ai une constatation intéressante à faire.

Mon site a complètement chuté dans les résultats de Google mais une chose m'a interpellé ce matin :

J'ai autant de visites depuis Facebook que Google !!

Alors je me suis rendu sur Google, j'ai fait une requête et ... ma page facebook est tombé en première page !
Google privilègerait-il les sites à fort TRUSTRANK au détriment des petits sites ? ... A voir !

Et vous, vous avez remarqué ce phénomène ?
 
WRInaute occasionnel
Effectivement les réseaux sociaux et tout ce qui est viral est privilégié j'ai l'impression contrairement au mois dernier où il y avait un peu de tout (Amazon, des affilés, des articles...). Actuellement sur mon nom de marque on retrouve 1- mon site 2 facebook 3- Twitter 4- vidéos You tube 5- Google + 6- Fia net etc et la suite ce sont des sites avec les avis des internautes
 
WRInaute discret
Uyuni a dit:
Effectivement les réseaux sociaux et tout ce qui est viral est privilégié j'ai l'impression contrairement au mois dernier où il y avait un peu de tout (Amazon, des affilés, des articles...). Actuellement sur mon nom de marque on retrouve 1- mon site 2 facebook 3- Twitter 4- vidéos You tube 5- Google + 6- Fia net etc et la suite ce sont des sites avec les avis des internautes
Tout ce qui est viral doit rester viral dans le vrai sens du terme, ça ne veut pas dire avoir une page facebook en première position sur Google, ça ne l’appel plus du viral dans ce cas.
 
WRInaute impliqué
Bonjour,

Ce qui suit ne concerne pas mon www qui n'a pas été impacté par le Penguin.

Après quelques jours d'"enquête", je pense avoir trouvé une façon de trouver les liens responsables du déclassement pour suroptimisation et éventuellement de demander leur suppression.
- D'abord il faut identifier les pages qui ont été déclassées, donc si vous n'avez pas encore d'outil permettant de suivre le positionnement de vos mots clés chaque jour... Ca va être compliqué! Personnellement je suis 200 mots clés chaque jour via ranks.fr pour 5 sites. Et j'envisage de passer rapidement à 250.
- Une fois les pages repérées, il faut trouver les backlinks via OpenSiteExplorer http://www.opensiteexplorer.org/ ou Majestic SEO: https://www.majesticseo.com/, et ne prendre que les liens externes.

Ce que j'ai fait ensuite :
- contacter de tous les sites identifiés pour demander le retrait du ou des liens profonds de la page (article/CP/fiche annuaire). Parfois on peut via une interface admin directement le modifier. Dans mon cas c'était un seul annuaire sur lequel j'avais inscrit l'ensemble des sites qui est ressorti, avec pour chaque page sanctionnée un lien profond correspondant. Les descriptions étaient courtes et il y avait en plus du lien vers la page d'accueil 3 liens profonds minimum. Les pages d'accueil sont restées alors que les domaines étaient du type KW. Les sites avaient plus d'un an et quelques bons backlinks, mais le ratio liens vers home/liens profonds était peu être trop important?
- ajout de liens vers la page d'accueil des sites avec des ancres non optimisées type cliquez ici ou -http://www.example.com
 
WRInaute impliqué
Bigb06 a dit:
Dans mon cas c'était un seul annuaire sur lequel j'avais inscrit l'ensemble des sites qui est ressorti, avec pour chaque page sanctionnée un lien profond correspondant. Les descriptions étaient courtes et il y avait en plus du lien vers la page d'accueil 3 liens profonds minimum. Les pages d'accueil sont restées alors que les domaines étaient du type KW.

Donc si je te suis, je n'aurais qu'à inscrire tes sites de nouveau dans cet annuaire pour qu'ils plongent à nouveau ?

Bonjour le negative SEO !

Tu as réellement retrouvé tes anciennes positions en totalité ?
 
WRInaute impliqué
Je n'ai pas dit que j'avais retrouvé mes positions! Juste une façon de trouver les raisons et de les corriger. Pour moi le fautif ne fait aucun doute :)
 
WRInaute accro
lagzor a dit:
Alors je me suis rendu sur Google, j'ai fait une requête et ... ma page facebook est ...
Il est possible aussi que des modification FB soit la raison d'un classement plus musclé de leur pages. A noter que certaines d'entre elles on pris du PR il y a pas longtemps ... (est ce lié ?)
 
WRInaute passionné
Bigb06 a dit:
Je n'ai pas dit que j'avais retrouvé mes positions! Juste une façon de trouver les raisons et de les corriger. Pour moi le fautif ne fait aucun doute :)
J'ai vu masse de liens d'allogarage dans des commentaires à l'époque, c'est peut-être ça ?
 
WRInaute passionné
Excuse-moi, j'ai survolé la discussion, j'ai vu ton message et j'ai cliqué sur www :)
 
WRInaute impliqué
Je pense aussi que des ancres trop optimisées peuvent en partie expliquer le problème. Sur le site qui a été pénalisé, trop d'ancres optimisées. Mon prochain test sera d'en convertir un nombre non négligeable avec le nom du site, ce qui en soit me semble le plus logique lorsqu'un lien est créé et cela dans + de 50% de cas.

Tu pourras nous tenir au courant de ton expérience ?
 
WRInaute accro
Rogers a dit:
Je pense aussi que des ancres trop optimisées peuvent en partie expliquer le problème.
En bon bourrin de base j'ai souvent que des ancres optimisées (pour le peu de liens que je fait moi même), en revanche c'est quasi toujours des anchors différents (au point de plu trop savoir quoi inventer d'ailleurs) ... Est ce ton cas ?
 
WRInaute discret
:lol: :lol: Vous faites rire! C'est très drôle, du grand n'importe quoi.
Bon allez les annuaires, mettez en place un formulaire de désinscription.

-La semaine prochaine Matt va nous dire d'enlever nos liens des profils de forums.
-En juin il faudra faire des balises H 7 avec des titles en anglais.
-A la fête des père: Filtre "Elefant" il va falloir minimiser les liens internes pointant sur Facebook pour pas sur optimiser le social trust
-En juilletil va falloir éviter les images GIF animés. Et un "link map" officiel.
-Pour la rentrée, il faudra avoir son Apps smartphone.
-A Noël, le fameux filtre "caméléon" anti image duplicate, et donc la fin des banques d'images non affiliés. Avec un petit forcing pour avoir une page site "autor" avec un profil Google + et une maps au dessus de la tête.
Heureusement que le 21 12 c'est la fin du monde
 
WRInaute accro
Très honnêtement, quand je vois la suroptimisation de la page d'accueil de ton -www... une petite revue des bases ?
 
WRInaute accro
rédac cabanes a dit:
:lol: :lol: Vous faites rire! C'est très drôle, du grand n'importe quoi.
Bon allez les annuaires, mettez en place un formulaire de désinscription.

1/-La semaine prochaine Matt va nous dire d'enlever nos liens des profils de forums.
-2/-En juin il faudra faire des balises H 7 avec des titles en anglais.
-A la fête des père: Filtre "Elefant" il va falloir minimiser les liens internes pointant sur Facebook pour pas sur optimiser le social trust
-En juilletil va falloir éviter les images GIF animés. Et un "link map" officiel.
-3/-Pour la rentrée, il faudra avoir son Apps smartphone.
-A Noël, le fameux filtre "caméléon" anti image duplicate, et donc la fin des banques d'images non affiliés. Avec un petit forcing pour avoir une page site "autor" avec un profil Google + et une maps au dessus de la tête.
Heureusement que le 21 12 c'est la fin du monde

1/ je viens de le faire y a quelques heures pour se forum, pas pour les critiques, parce que je cherche à convertir point.

2/ je suis sur le point de faire ou nouvelle version sans H1 ni strong ni rien, que du texte et éventuellement quelques pubs ADS , on verra.

3/-j'avais une idée génial d'application pour smartphone ANDROID, mais n'étant absolument pas programmeur et encore moins concepteur de logiciel....
 
WRInaute accro
Bigb06 a dit:
Je n'ai pas dit que j'avais retrouvé mes positions! Juste une façon de trouver les raisons et de les corriger. Pour moi le fautif ne fait aucun doute :)
Ne fais aucun doute :wink: , c'est pas comme celà qu'on travaille dans ce type de problème mais bien par ca marche et je remonte ou ca marche pas et j'ai pas bougé.

Je suis aussi en train d'analyser les BL externes vers mes sites et le plus souvent ce sont des sites totalement inconnus qui reprennent le début de quelques pages (y compris le header): genre tests de positionnement, annuaires des années 2006 montés à la va vite en copiant les bases de données d'annuaire plus gros, ... Pour les supprimer ....
 
WRInaute discret
Oui Marie Aude, très.. sur-optimisé. J'ai été un peu fort dans le style superlatif, mais ce qui me fait marrer c'est de dire que Google ne fait le distinguo entre un bon lien et les liens métastasés, qui faut lui ré-apprendre la messe. Quand il a décidé d'ignorer une source, c'est le champion de monde. :D
@mipc, ce message ne t'es pas destiné.
 
WRInaute impliqué
Beaucoup de gens critiquent mais personne n'a fait le test? :)
Pour donner plus d'indications : 4 sites impactés (100 kvu/mois), des sites type mot clé + ville. Le positionnement de la home sur mot clé n'a pas bougé. Le positionnement des pages villes n'ont pas bougé SAUF certaines qui recevaient des liens profonds venant d'un certain annuaire. Et juste pour qu'on ne parte pas sur les annuaires, un site de CP avec description et liens profonds c'ets en gros... un annuaire. Je reviendrai lorsque je serai sorti de la sanction... ou pas vu l'accueil... Ca me désole de lire 100 posts de mipc pour rien dire (c'est ou le bouton +ban ?), et lorsque je donne un point de vue, on ne prend pas la peine de tester.
 
WRInaute impliqué
En bon bourrin de base j'ai souvent que des ancres optimisées (pour le peu de liens que je fait moi même), en revanche c'est quasi toujours des anchors différents (au point de plu trop savoir quoi inventer d'ailleurs) ... Est ce ton cas ?

Quasi toutes optimisées, sauf quelques commentaires de blogs où je garde mon pseudo pour plus de cohérence. J'ai aussi un lien dans un article sur un site très connu qui lui n'utilise que le nom du site et quelques annuaires très very old school où je n'ai que l'URL.

Le reste c'est de l'optimisé avec une ancre qui reste finalement dominante.
 
WRInaute accro
à priori rien, tu a le droit d'avoir un nom de domaine à mot clé, ça n'est pas pénalisant, faut juste évité les répétition dans le NDD et dans les répertoires du site et toute le long de la chaîne, même les nom des fichiers, faut pas faire le spam de la mort.
 
WRInaute accro
Rogers a dit:
le reste c'est de l'optimisé avec une ancre qui reste finalement dominante.
ton avis la dessus ? :wink:

Je partage une idée que j'ai exposé en mp et qui serait ma vision de concepteur de filtre (c'est pas moi je le jure tirez pas) :

si on m'avais demandé de fabriquer cet algo comment j'aurais fait ?

  • * Dans un premier temps j'aurais repris a mon compte tous les filtres détecteurs que google a déjà et qui provoquent déjà des micro pénalité qu'on ne peut observer sur le trafic mais qui se voient en suivant le positionnement (sauf que le positionnement depuis les "not provided" et la personnalisation ne sont plus un repère utile (phase 1 GG te met dans le noir)).

    * Dans un second temps je me serait attaché a dev d'autre filtres pour les cas grossiers et connus via WRI et autre forum SEO. Disons des filtres "anti recette de cuisine". le nombre de place publiques ou on échange les trucs qui marchent ou pas (comme des c*ns j'ai envie de dire) fait que GG est parfaitement au courant de nos habitudes.

    * pour finir j'aurais créé une note tenant compte de tous ces filtres et j'aurais mis une barre à ne pas franchir sous peine de se prendre +100 dans les SERP et ceci quelque soit la qualité du site puisque cette note serait le reflet de techniques SEO et pas de la qualité d'un site.

Qu'est ce qu'aurait donné ce truc -> surement des très bon sites en compétition forte noyés au fond des SERP et des bouses sans aucune stratégie devant en compagnie des sites qui passent sous la barre. Bref un truc vraiment dédié au spam sous toutes ses formes. Et là fatalement quand on charge la mule sur un site comme on est obligé de le faire souvent on serait mal.
 
WRInaute accro
zeb a dit:
Rogers a dit:
le reste c'est de l'optimisé avec une ancre qui reste finalement dominante.
ton avis la dessus ? :wink:

Je partage une idée que j'ai exposé en mp et qui serait ma vision de concepteur de filtre (c'est pas moi je le jure tirez pas) :
Un des site touché chez moi est materiel-informatique .... et jamais essayé de passé dessus puisque c'est un dictionnaire sur le sujet. Pas de réelles ancres sur mat mais bien sur dico .... déclassé gentillement depuis une dizaines de mois sur dic*-* (pas mon concurrent ... un collègue référenceur). C''est pas le NDD que Google est en train de casser mais bien les ancres.
Je pense que quelques uns me connaissent sur WRI, suis pas un vrai professionnel du référencement, ni un débutant. Je suis juste en MP en train de remettre en route une petite équipe de tests (c'est jamais que la troisième fois) avec quelques uns qui ont plongé et d'autres non. Ma femme me fait déjà un peu la tête en se rappelant de quelques années précédantes (Chou, il est 3 heure ... TU MONTE TE coucher ... à cette heure c'est pas couché mais bien dormir pour se lever le lendemain :oops: )

Par contre, ca fait le troisième en MP qui s'est fait déclassé sur des sites avant Panda et avant Pinguin sur les bases qu'on a (suppose) sur ces pénalités. GG a testé sur des groupes de sites avant et comme en 2007-2009, on a juste pensé que le nb de visiteurs qui descend, c'tait le haut et bas. C'est peut-être là l'intérêt d'Olivier avec ses tests sur des gros sites de prévoir d'avance mais faut une super analyse.
 
WRInaute occasionnel
Salut Ybet ! heureux de vous lire avec vos testes... :mrgreen:

Je serais heureux de partager avec vous les testes j'ai quelques déclassement mais pas une grosse sanction...
 
WRInaute passionné
Je pense avoir trouvé la solution à Penguin.

D'après mes analyses la plupart des sites impactés ont plus de 60% de liens provenant de sites qui n'ont rien à voir avec leur niche et qui ne sont pas "revelant". Par exemple obtenir des liens depuis un site de cuisine vers un site de forex.
 
WRInaute accro
pour savoir si c'est vraiment une pénalisation ou juste une valorisation à zéro de tels liens, il pourrait être bien de juste retirer ces liens là. Si le site reprend ses anciennes places c'est bien une pénalisation. Si rien ne change c'est une valorisation nulle de tels bl. Bien évidemment, il faudra attendre un peu (genre 1 ou 2 semaines) avant de pouvoir se prononcer, vu l'inertie que peuvent avoir les serp
 
WRInaute impliqué
Je ne pense pas à une pénalisation des liens. Google envoie ses notifications de liens factices. Que ce soit justifié ou non, GG veille là dessus et un grand nombre de webmasters on reçus des messages sur ce problèmes de liens plus ou moins naturels (après c'est comme tout, leurs outils ne sont pas à 100% fiables, ça peut être sujet à caution).

Ce qui est logique (un algorithme n'est juste qu'une succession de formules mathématiques avec des conditions), ce serait d'entraîner la nullité de ces liens optimisés. Je l'ai déjà dit au début de pingouin, mais je rejoints ce qui vient d'être dit plus haut par notre ami Ybet, mais je pense aussi que GG a commencé le travail avant Pingouin et avant les 2 derniers Panda et cela de façon plus simpliste et pondérée.

Toutefois, Pingouin ne travaille pas que sur les ancres, GG l'a clairement annoncé, la suroptimisation du site peut aussi être un facteur. L'optimisation des ancres et la suroptimisation onsite sont les 2 critères qu'ils nous ont grossièrement indiqué dans leur communiqué, mais je ne doute pas que d'autres variables soient en jeu.
 
WRInaute impliqué
ton avis la dessus ? :wink:

Je partage une idée que j'ai exposé en mp et qui serait ma vision de concepteur de filtre (c'est pas moi je le jure tirez pas) :

si on m'avais demandé de fabriquer cet algo comment j'aurais fait ?

* Dans un premier temps j'aurais repris a mon compte tous les filtres détecteurs que google a déjà et qui provoquent déjà des micro pénalité qu'on ne peut observer sur le trafic mais qui se voient en suivant le positionnement (sauf que le positionnement depuis les "not provided" et la personnalisation ne sont plus un repère utile (phase 1 GG te met dans le noir)).

* Dans un second temps je me serait attaché a dev d'autre filtres pour les cas grossiers et connus via WRI et autre forum SEO. Disons des filtres "anti recette de cuisine". le nombre de place publiques ou on échange les trucs qui marchent ou pas (comme des c*ns j'ai envie de dire) fait que GG est parfaitement au courant de nos habitudes.

* pour finir j'aurais créé une note tenant compte de tous ces filtres et j'aurais mis une barre à ne pas franchir sous peine de se prendre +100 dans les SERP et ceci quelque soit la qualité du site puisque cette note serait le reflet de techniques SEO et pas de la qualité d'un site.


Qu'est ce qu'aurait donné ce truc -> surement des très bon sites en compétition forte noyés au fond des SERP et des bouses sans aucune stratégie devant en compagnie des sites qui passent sous la barre. Bref un truc vraiment dédié au spam sous toutes ses formes. Et là fatalement quand on charge la mule sur un site comme on est obligé de le faire souvent on serait mal.

Tu noteras que ta théorie n'est pas si éloignée de celle d'Ybet. Une addition de facteurs cumulés ces derniers mois et activés assez rudement. Ton histoire de barre est en effet intéressante. Il devrait donc être possible de trouver tout du moins les principales variables à ces modifications pénalisantes.
 
WRInaute passionné
Exact match + niche qui n'as rien à voir = Décomptabilisé

A cela s'ajoute des facteurs onsite, pages spammy, duplicate content, etc.

Je pense que leur Penguin c'est vraiment tout un tas de facteurs anti-spam réunis.
 
WRInaute discret
Mega chute de l'activité de crawling sur mes sites pénalisés, c'est assez visible sur les statistiques d'indexation..
 
Discussions similaires
Haut