Pertes de positionnement : une explication

WRInaute accro
bouvry a dit:
Les sites de grandes société par contre ne bougent pas.

peut etre qu'une variation infime sur un site qui n'a rien de spectaculaire, ca a de l'influence... mais qu'une variation infime sur un poids lourd

En gros tu souffles sur une plume, elle s'envole... tu souffles sur un météorite...
 
WRInaute passionné
WRInaute occasionnel
Je pense que la mise à jour "data refresh" qui est maintenant très présente est une bonne chose.

Après, il faut chercher ce qu'est la suroptimisation réélle... car c'est une vision des choses qui est differente pour chaques personnnes...
 
WRInaute accro
HawkEye dans le schéma, il est écrit de "faire une demande réinclusion" pour un site qui a perdu des bls ou qui est mal "backlinké" (excusez le néologisme).

je pensais que la réinclusion était pour les sites sortis de l'index
pas pour ceux "qui battent de l'aile"
de plus je me demande quel genre d'effet ça peut faire (en dehors de rien du tout)
 
WRInaute accro
Szarah a dit:
Mister HawkEye a encore frappé, et frappé juste : sur son site, il donne une explication très plausible des pertes de positionnement.
Comme le sujet est à l'honneur ce mois-ci, la lecture de cet article présente un caractère d'urgence
Data refresh et perte de positionnement.
Bon article HawkEye.

Pour certaines personnes (celles honnêtes avec elles-mêmes) qui ne comprennent pas les raisons de leur déclassement, il est bon de rappeler que l’algorithme Google est devenu si complexe, qu’une infime modification peu aussi retourner des résultats imprévus, donc normalement, non désirés.

Matt Cutts l’a bien expliqué.

Google prend soin de répertorier les incohérences produites (entre autre par ses propres employés) et corrige le tir sur les plus flagrantes (et les plus nombreuses).

Malheureusement, toutes ne sont pas repêchées.
 
WRInaute accro
Thierry Bugs a dit:
je pensais que la réinclusion était pour les sites sortis de l'index

Ce n'est pas la première fois que je lis une information selon laquelle la demande de réinclusion est suggérée même pour un site "non banni"... principalement de l'autre côté de l'Atlantique.

Quoi qu'il en soit Thierry, à mon avis le mieux à faire, c'est simplement de la jouer "naturel" et d'être patient et pas trop gourmand: j'ai jamais vu se faire blacklister un site irréprochable.
 
WRInaute impliqué
HawkEye a dit:
...le mieux à faire, c'est simplement de la jouer "naturel" et d'être patient et pas trop gourmand: j'ai jamais vu se faire blacklister un site irréprochable.

Avec ca et tes 3 conseils pour ramener un site, on a tout dit :)

Cette maniere de voir a toujours ete d'actualite et efficace. En tout cas, cela correspond a ma facon de voir les choses, et ce depuis bien longtemps.
 
WRInaute discret
itsme a dit:
HawkEye a dit:
...le mieux à faire, c'est simplement de la jouer "naturel" et d'être patient et pas trop gourmand: j'ai jamais vu se faire blacklister un site irréprochable.

Avec ca et tes 3 conseils pour ramener un site, on a tout dit :)

Cette maniere de voir a toujours ete d'actualite et efficace. En tout cas, cela correspond a ma facon de voir les choses, et ce depuis bien longtemps.

Je suis d'accord. Ca correspond aussi à ma manière de voir les choses.
 
WRInaute accro
bouvry a dit:
Les sites de grandes société par contre ne bougent pas.

Les sites qui trustent les 3 à 5 premières positions ne bougent pas.

Peut-être pas parceque ce sont des sites "de grosses boîtes", mais parceque ce sont "de gros sites", avec "de gros moyens" pour "un gros référencement", ou simplement "une grosse optimisation"... et parceque l'écart entre eux et le reste est tellement important qu'une simple modification de la considération d'un facteur par Google n'est pas suffisante, au vu de leur puissance sur d'autres facteurs.

exemple pratique:

1. "petit site"
Une balance avec 1g de chaque côté est en parfait équilibre.
J'ajoute une plume à gauche.
--> en moins d'une seconde, la balance est déséquilibrée à gauche.

2. "gros site"
Une balance avec 100 tonnes de chaque côté est en parfait équilibre.
J'ajoute une plume à gauche.
-->
--> euh...
--> eho?
--> bouge!
--> rha...

Y'aurait-il une notion d'inertie à considérer ?

:roll:
 
WRInaute discret
positionnement et adsense

bouvry a dit:
Les sites de grandes société par contre ne bougent pas.

Effectivement,
Pour un mot-clé "ville" par exemple,
des sites "d'intérêt général" mairie, organisme consulaire, sociaux, association et quelques sites commerciaux ; qui ont un contenu qui évolue peu, ont toujours les mêmes positionnements dans les résultats des recherches. Les miens, se promènent.

Une remarque :
Les premiers n'ont pas d'Adsense.
Les seconds en ont.
Est-ce une cause à effet ?
 
WRInaute accro
Re: positionnement et adsense

graphic3000 a dit:
Une remarque :
Les premiers n'ont pas d'Adsense.
Les seconds en ont.
Est-ce une cause à effet ?

Meuh non ca vient de la marmotte on t'a dit

Nan mais sans déc', personne le capte l'exemple de la plume ou quoi ? c pourtant très simple
 
WRInaute accro
HawkEye a dit:
bouvry a dit:
Les sites de grandes société par contre ne bougent pas.

Les sites qui trustent les 3 à 5 premières positions ne bougent pas.


Y'aurait-il une notion d'inertie à considérer ?

:roll:


L'inertie n'existe pas, il y a des tendances.
Même si les gros sites sont "mieux assis" sur le poids de leur réfé ou de leur ancienneté. Ils bougent aussi comme d'énormes icebergs.
Il y a le conjoncturel, l'habituel, le structurel ils sont bien analysables.

Depuis un an je joue sur Alexadex, les valeurs des sites sont basés sur leur fréquentation quotidienne en fonction de la barre Alexa.
je peux vous affirmer que les gros sites ont beaucoup bougé depuis un an
et certains ont chuté brutalement en début d'année sans jamais ensuite rattraper leur niveau de base.

Cela pour dire que même les mastodontes ressentent les hocquets de google et ça se chiffre en m. de dollars.
ce n'est pas bon pour les affaires, pas bon pour google !
 
WRInaute accro
Thierry Bugs a dit:
Depuis un an je joue sur Alexadex, les valeurs des sites sont basés sur leur fréquentation quotidienne en fonction de la barre Alexa.
mais la barre alexa c'est uniquement un truc de geek. Qui, dans le grand public, l'a installée sur son ordinateur ?
Déjà la gg barre n'est pas trop implantée dans le grand public, alors alexa...
 
Nouveau WRInaute
Au passage, je suis pas un pro, mais j'aussi des especes de declassements pendant quelques jours sur mes pages les mieux references...

J'ai remarquer que quand cela ce produisait il affichait dans google webmaster tool ceci :

Statistiques relatives à l'exploration [?]

Vos pages sur Google
Le classement PageRank de vos pages sur Google Diffusion
Nous n'avons aucune donnée concernant ce site.

Es ce qu'on parle bien du meme probleme, ou de quelque chose qui n'a en faite rien a voir ?

Merci d'avance :p
 
WRInaute accro
Leonick a dit:
Thierry Bugs a dit:
Depuis un an je joue sur Alexadex, les valeurs des sites sont basés sur leur fréquentation quotidienne en fonction de la barre Alexa.
mais la barre alexa c'est uniquement un truc de geek. Qui, dans le grand public, l'a installée sur son ordinateur ?
Déjà la gg barre n'est pas trop implantée dans le grand public, alors alexa...

la barre alexa fonctionne bien aux usa, et beaucoup de mastodontes sont us, et visités par des américains, il s'agit donc d'un "panel", un échantillon.
ci dessous la courbe de wri sur les 3 dernières années :

http://www.alexa.com/data/details/traff ... kinfo.com/

les hauts et bas sont liés à l'envoi de la newsletter
on voit une très forte hausse avant l'été dernier
et une belle chute depuis 2007
(ce n'est qu'un exemple bien sûr)
 
Nouveau WRInaute
6500 pages dans l'index google et aucun resultat

bonjour,
depuis 4 ou 5 jours, mon site vieux de 5ans n'apparait plus dans les resultats, alors qu'il etait positionné en 1ere page. je n'ai rien changé de particulier. j'ai testé les requetes suivantes :
site:monsite.com : resultat 6500pages
site:www.monsite.com resultat : 240pages
mais aucune de ces pages ne sort en recherche directe par le titre

que dois-je en conclure ?
merci de votre reponse
 
WRInaute accro
Re: 6500 pages dans l'index google et aucun resultat

lolo87 a dit:
je n'ai rien changé de particulier...
...
que dois-je en conclure ?
que la concurrence, elle, a effectué des modifications sur ses sites ou ses liens.
 
Nouveau WRInaute
Re: 6500 pages dans l'index google et aucun resultat

[/quote]que la concurrence, elle, a effectué des modifications sur ses sites ou ses liens.[/quote]

Bravo pour cette réponse cordiale et instructive !!!

Mais je me suis peut être mal exprimé, mon site etait en premiere page des resultats sur plusieurs mot clé depuis 3 ou 4 ans et a brutalement et tolalement disparu il y a 3 ou 4 jours alors que 6500 pages sont encore indexées.
le contenu évolue tous les jours.

Je reformule ma question:
Est il possible que cela vienne d'un changement d'algo de Google, d'une mise a l'ecart volontaire ?
Quelqu'un a t'il été dans le même cas ?
qu'est ce que je peux verifier ?

merci d'avance
 
WRInaute accro
Re: 6500 pages dans l'index google et aucun resultat

lolo87 a dit:
Mais je me suis peut être mal exprimé, mon site etait en premiere page des resultats sur plusieurs mot clé depuis 3 ou 4 ans et a brutalement et tolalement disparu il y a 3 ou 4 jours alors que 6500 pages sont encore indexées.
le contenu évolue tous les jours.
le positionnement n'est pas obligatoirement lié à l'indexation
Mais sinon, malheureusement, le positionnement se travaille tous les jours
 
WRInaute discret
lolo87
tu es filtré par google... ou si tu veux le patois de référenceur tu es en sandbox...

pour moi la sandbox c'est un mystère avec quelques explications...

contrairement au dire généraux la sandbox peu arriver à n'importe quel site selon moi (avec une petite retenu pour les énormes et incontournables...) pas besoin que ton site sois recent ...

tu as peut être été vistime d'un webmaster qui à voulu bien faire en ajoutant un site sur un millier de page indexée sur google et la progression de tea backlink trop subite ta précipité dans le bac à sable (sandbox) la solution est de retirer ces liens ...

j'ai subit ceci en 2006 avec une sandbox de 6 mois revenir tout d'un coup en tête sur le requête concurrentiel que je dominait avant la sandbox...

1 an après maintenant en 2007 une partie de mon site à été sandboxé en mai et la totalité début juin...

sans grosse modification pourtant dans les backlinks....

c'est rude... je perds donc actuellement 10'000 visiteurs quotidiens que me procurait google.... c'est dur à accepter mais il faut être patient et cela reviendra....
 
WRInaute accro
je vis ça également sur un site depuis mars (-80% de vu),
en fait c'est lié (pour mon cas) au sitelinks concurrentes en tête de réponses qui vont est viennent selon les quinzaines :
"quand les sitelinks sont là, je l'ai dans le baba" (109e place sur mot clé)

Depuis la semaine dernière elles sont parties, cool (11e place sur mot clé, c'est moins bien qu'autrefois, mais faut pas se plaindre, d'autant plus que ça ne va pas durer très longtemps :(
 
WRInaute passionné
Thierry Bugs a dit:
je vis ça également sur un site depuis mars (-80% de vu),
en fait c'est lié (pour mon cas) au sitelinks concurrentes en tête de réponses qui vont est viennent selon les quinzaines :
"quand les sitelinks sont là, je l'ai dans le baba" (109e place sur mot clé)

Depuis la semaine dernière elles sont parties, cool (11e place sur mot clé, c'est moins bien qu'autrefois, mais faut pas se plaindre, d'autant plus que ça ne va pas durer très longtemps :(

Je doute franchement que ça soit lié aux sitelinks de ton concurrent je dirais plutot que google fait ses mises a jour et en fonction des mises a jour toi tu t'en vas loin et les sitelinks de ton concurrent apparaissent...
 
WRInaute accro
Et bien "visiblement" si c'est lié, puisque lorsque les sitelinks apparaissent, le calcul des sites suivant est complètement différent.
De 11e à 109e place la différence est énorme (le site existe ou
n'existe plus).

S'il s'agit de m.a.j. les sitelinks vont et viennent selon les mois, c'est assez étonnant (ce genre de liens est plutôt stable)

Si mon site a un mauvais trustrank (j'ignore pourquoi ce serait le cas), pourquoi revient-il au devant tout à coup alors qu'il était plongé depuis avril (je ne modifie rien le concernant attendant de voir la suite).

On sait que google favorise parfois la nouveauté concernant certains mot clé (fraicheur), mais ce n'est pas le cas ici non plus, les concurrents sont comme moi (ou inversés) pas de fraicheur véritable.

Et surtout, inutile pour moi de crier victoire, puisque je sais que demain ou la semaine prochaine, mon site va replonger pour quelques semaines, toujours sans raison. La première chose que je verrais, ce sera les sitelinks, et là je saurais que c'est fini.

C'est très pénible car je ne sais pas sur quel pied danser avec ce site, dois je attendre ? dois-je le fermer et réouvrir sur un autre ndd ?
Je m'inquiète aussi pour mes autres sites, car je ne vois aucune réponse valable pour ce cas, alors à quand le prochain touché :(
 
WRInaute accro
Va savoir si le yoyo fréquent ces derniers mois pour plein de sites n'est pas systématiquement lié à l'attribution instable des sitelinks ... Il faudrait des témoignages ou des observations en masse, j'ai négligé complètement ce coup-là.
 
Nouveau WRInaute
lolo87, peut tu me dire si les pages les plus references de ton site sont toujours en haut de tas requette site:

Pour les Sitelink, mes concurents en ont des bons, et cela ne m'affecte pas du tout.
 
WRInaute discret
Et dans le cas où vous avez un partenaire qui vous affiche sur son footer de milliers de pages, un BL vers votre site et de plus vers une page qui n'existe plus :( que faîtes vous? Juste une redir 301 vers la home? Ce dernier ne répond même pas aux mails pour retirer le lien ou changer l'URL :(
 
WRInaute discret
Merci bcp pour ta réponse. J'ai en plus oublié de préciser que l'URL se trouve sur une expression qui n'est même pas lié avec ce que nous proposons :-(
 
Nouveau WRInaute
nehad a dit:
lolo87, peut tu me dire si les pages les plus references de ton site sont toujours en haut de tas requette site:

non pour ta question ci dessus, seule la home apparaissait sur requete nom du site en 1er pos

aujourd'hui, ma home reapparait et sort en 4e pos (c a d. mieux qu'avant)
avec le mot clé qui m'interraissait j'espere que ca va continuer,

merci de vos reponses
 
WRInaute accro
En continuant l'exemple de mon site relégué, les sitelinks sont réaparues sur un des mots clés (ma cible mais au pluriel), du coup j'y ai perdu 3 places. Le reste tient toujours (encore...) la route, mais jusqu'à quand...

je réédite, aujourd'hui 1er juillet (soit le lendemain)
car tout est parti dans la nuit :?
plus rien nada, le tdc de google encore une fois
et les sitelinks concurrents sont revenus.


C'est la Saint Thierry, merci Google
 
WRInaute occasionnel
pubwebmaster a dit:
contrairement au dire généraux la sandbox peu arriver à n'importe quel site selon moi (avec une petite retenu pour les énormes et incontournables...) pas besoin que ton site sois recent ...
Qu'est-ce que ça m'agace de lire ça :evil:

Combien de fois faudra-t-il le répéter ! Par définition la sandbox est un filtre qui frappe les sites récents ! L'analogie entre un site web récent et un petit enfant dans un bac à sable a été crée spécialement pour exprimer l'idée d'enfance, d'apprentissage, de début d'un développement etc. La notion de sandbox sert à décrire une réalité spécifique. Si on la met a toutes les sauces on n'exprime plus rien, et dans ce cas il vaut mieux se taire.

La sandbox est un filtre qui frappe les sites récents, mais cela ne veut pas dire que ce soit le seul filtre. Malheureusement il en existe de nombreux autres, résultats d'ajustements successifs de Google depuis au moins novembre 2002.

Si votre site est ancien et disparaît des résultats, ça n'a rien à voir avec le phénomène décrit comme "sandbox". Ca veut simplement dire qu'il s'est pris un filtre, point. C'est un effet de seuil qui fait que hier votre site passait tranquillement à travers le filtre, aujourd'hui il ne passe plus.

La phrase finale aussi m'exaspère "il faut être patient et cela reviendra", c'est absolument faux ! Il reviendra peut-être à la condition que Google réajuste le (ou les) filtre(s) qui l'ont fait chuter. Avec un peu de chance votre site peut repasser du bon côté de la barrière... et replonger dans 2 mois... mais il peut aussi ne plus jamais ressortir, s'il cumule plusieurs filtres anciens et stables.

Il est toujours bon de lancer de nouveaux sites, ou au moins de tenter des modifications sur ceux que vous avez déjà. L'essentiel est d'affiner ses méthodes, car ce qui marche aujourd'hui sera peut-être filtré demain.

Pourquoi Google "filtre" ? Pour maintenir la qualité de ses résultats de recherche. Evidemment il y a un effet de masse qui fait que des centaines de milliers de sites "à l'ancienne", pas actualisés, pas maintenus correctement etc... passent à la trappe. Mais que peut-on dire ? Prétexter l'ignorance ? Le manque de temps ? Si vous travaillez 1h30 sur votre site le soir en rentrant du boulot, sachez que d'autres y travaillent 60h par semaine...

Je pense que décrire tous ces phénomènes qui frappent en masse depuis au moins un an est très facile, je viens à l'instant de le faire. Par contre ce qui est extrèmement difficile, et parfois impossible, c'est d'identifier le ou les filtres qui frappent votre site. Il faut parfois des centaines d'heures de travail pour relancer des sites qui battent de l'aile. Et parfois on n'arrive rien à relancer du tout.
 
WRInaute discret
Un de mes sites vient de sortir de Sandbox. Mon expérience vaut ce qu'elle vaut mais voilà ce qui s'est passé : j'ai allégé un peu l'optimisation référencement et j'ai attendu quelques semaines. Et zou. Pas de grosse modif, juste virer un peu de leste...
 
WRInaute accro
Megachercheur a dit:
Combien de fois faudra-t-il le répéter ! Par définition la sandbox est un filtre qui frappe les sites récents ! L'analogie entre un site web récent et un petit enfant dans un bac à sable a été crée spécialement pour exprimer l'idée d'enfance, d'apprentissage, de début d'un développement etc. La notion de sandbox sert à décrire une réalité spécifique. Si on la met a toutes les sauces on n'exprime plus rien, et dans ce cas il vaut mieux se taire.

Hmm... pas d'accord du tout avec ça, Megachercheur... :?

Le filtre SB s'applique à tout site, peu importe son âge. Simplement les effets de l'âge font qu'un site plus ancien (et bien référencé) souffrira moins de la SB qu'un site récent, à actions égales.

Je décrivais mon point de vue sur la SandBox ici, tout à l'heure...

C'est mon point de vue, et c'est basé sur mon analyse et mon expérience: je peux me tromper, mais je t'avoue que je pense très sérieusement être dans le vrai...
 
WRInaute occasionnel
HawkEye, je suis d'accord avec toi et en particulier avec ta théorie de l'accélération. Donc selon toi, dans un premier temps on a observé cet effet seulement sur les jeunes sites d'où le nom sandbox. Mais en réalité ce filtre a une portée beaucoup plus vaste et s'applique au-delà des jeunes sites. Il peut frapper n'importe quel site, dis-tu.

Intéressant. Je me fâchais surtout sur une question de terminologie, mais tu as raison d'évoquer les phénomènes qui se cachent derrière la terminologie.

Si tu as raison il reste à inventer un nouveau nom, je propose filtre de proportion (croissance contenus/croissance links) ou filtre d'accélération. Peut-être filtre de développement puisqu'il concerne le rythme de développement d'un site (développement des links en relation avec le développement des contenus). Il reste à écrire une théorie de la proportionnalité des développements web, à toi de jouer HawkEye. :wink:
 
Discussions similaires
Haut