Désindexation monstrueuse

WRInaute discret
Salut à tous !

Je sais que le sujet à été moulte fois abordé mais je pense quand même être un des cas les plus extrême, voici mes chiffres:

Site 1
Pages indexées avant: 400 000, aprés: 17 000 en baisse
Visiteur/jour avant: 10 000, aprés: 1 200

Site 2
Pages indexées avant: 100 000, aprés: 950 en baisse
Visiteur/jour avant: 4500, aprés: 3000

Donc voila même si la claque est énorme sur les deux le nombre de visiteur ne reste pas lié directement au nombre de pages indexée puisque sur le second la perte de visiteur est moindre que sur le premier.

Pour ceux qui seraient passés par la comment cela évolus avec le temps ? Ne pensez vous pas que ca peut être le prémice à un black listage, avez vous déja vu ca ?

Je commence un peu à flipper en fait... .
 
WRInaute accro
Le blacklistage vient comme une gifle, sans symptômes précurseurs, je peux te rassurer quant à ça :)
 
WRInaute discret
Oui ca vient direct, mais ca veut venir aussi suite a une desindexation. J'ai un site qui a subi une desindexation progressive sur quelques jours avant d'etre blacklisté ( je cherche encore pourquoi lol ). Sinon, j'en ai un autre qui est en train de plonger également ( passage de 28000 a 420 pages ) j'attend de voir ce que ca va faire.
 
WRInaute discret
et ça continue et ça continue, de 27000 pages à 17000 puis 1000 puis 900 et maintenant 700 biento je n'aurais que la page d'accueil :lol: .

de 2000 visiteurs à 1400/jour pour le mois d'avril ( en fin de compte tout a commencé le 1er avril et moi qui croyait au poisson d'avril pffff !! )

je ne pense pas à un blacklistage sinon ça ne prendrait pas ce supplice en longueur ( faut pas déconner Google n'est pas sadique à ce point :oops: ).
 
WRInaute discret
parisien94 a dit:
J'ai un site qui a subi une desindexation progressive sur quelques jours avant d'etre blacklisté

quand tu dis blacklisté, tu veux dire en faisant site:www.tonsite.truc tu ne trouves rien ?
 
WRInaute discret
fat-freddy a dit:
Salut à tous !

Pour ceux qui seraient passés par la comment cela évolus avec le temps ? Ne pensez vous pas que ca peut être le prémice à un black listage, avez vous déja vu ca ?

Je commence un peu à flipper en fait... .


Ben sans vouloir jouer les alarmistes la suite n'est pas réjouissante.
Perso je suis passé de 50 000 pages indèxés (alors que j'en ai réellement environs 10 000 sur mon site) à 480.
Je ne sais pas quand ta désindexation a commencée, mais pour ma part cela a commencé environ 15 jours apres big daddy. Et la désindexation continue toujours. C'est moins violent mais ça continue toujours. Je perd un cinquantaine de page toutes les semaines alors que j'en ajoute a peu pres autant...

Le plus inquiètant est ce que j'ai pu lire sur plusieurs forums américain. A savoir que certains sites qui n'avaient pas été touchés jusqu'ici commencent à subir le deuxieme effet daddybaffe en pleine tronche !

Conclusion, rien ne semble s'arranger au contraire et la désindexation de tes sites peux perdurer encore un moment. Par contre pour le blacklistage généralement c'est brutale... mais avec ce qu'il se passe sur google ces derniers temps il ne faut présumer de rien...


Pour info matt's cutt conseil de faire une requette de réinclusion de nos sites... cela a fait coulé beaucoup d'encre sur son blog, pas que des mots gentil dailleyurs !!! Pour résumer, même si t'a pas fait le malin en suroptimisant, fait comme si, excuse toi et ton site ne sera plsu pénalisé... ça fait peur...
 
WRInaute impliqué
la désindexation peut être totale ou presque, une sorte de purge à la google, mais dans 1 ou 2 mois cela peut repartir à la hausse
 
WRInaute discret
Matt Cutts est une personne de Google qui donne, entre autres, des infos sur Google, son fonctionnement, etc sur son blog. -http://www.mattcutts.com/blog/

La demande de réinclusion se fait ici : -https://www.google.com/support/bin/request.py
 
WRInaute discret
La requéte de reinclusion ca doit être ca :
https://www.google.fr/addurl/?continue=/addurl

Sinon j'aimerai dire que ca me rassure de ne pas être seul... mais en fait non !

Pour moi aussi la désindexion a commencée quelque chose comme 15jours aprés bigdaddy. Je me dis que certains ont du se gaver aprés cette mise à jour parceque notre trafic il est pas tombé aus oubliettes, décidement faut pas être cardiaque pour travailler avec google :D
 
WRInaute discret
Bonjour,

Je note moi aussi une forte desindexation ...

J'avais 12 000 pages referencées, je pars 10 jours en vacances et paf plus que 670 ... je trouve ça violent moi aussi ... pour l'instant ca ne se ressent pas au niveau du nb de visiteurs ... mais bon ca ne devrait pas tarder.

Il doit effectivement y avoir un gd nettoyage de l'index ...
 
Nouveau WRInaute
Le nombre de pages indexé est fictif de toutes façons. Il faut voir le nombre de résultats réellement affiché, au besoin faire une recherche plus sélective (lins, allinurl, etc...)
 
WRInaute accro
j'ai un site qui en dix jours vient depasser de plus de 300.000 pages à ... 235 pages !!! C'est la grande lessive :) Mais bon cela ne ressemble pas a un blacklistage qui jusqu'a present c'ets toujours présenté sous la forme d'un passage instantanné à 0 pages ...

Il y a eu un post je sais plus ou sur un probleme de place dispo sur les serveur de google.
 
WRInaute discret
fat-freddy a dit:
La requéte de reinclusion ca doit être ca :
https://www.google.fr/addurl/?continue=/addurl

Sinon j'aimerai dire que ca me rassure de ne pas être seul... mais en fait non !

Pour moi aussi la désindexion a commencée quelque chose comme 15jours aprés bigdaddy. Je me dis que certains ont du se gaver aprés cette mise à jour parceque notre trafic il est pas tombé aus oubliettes, décidement faut pas être cardiaque pour travailler avec google :D

oui mais tout laisse a penser que ce n'est pas volontaire... Je veux dire par là qu'il a de forte chance pour que google ait de serieux problemes depuis bigdaddy.
-désindexation massive
-Non prise en compte des nouvelles pages de beaucoup de site
-Aucune communication rassurantes de la par de google

Il n'y a qu'a lire le blug de matt cutts pour ce rendre compte que le ton monte et un agacement profond se fait sentir sur beaucoup de forum...
Le pire c'est que c'est moins a cause du probleme que par l'absence de communication... enfin nous verrons bien ce que l'avenir nous reserve ;)
En tout cas je n'aimerais pas être un nouveau webmaster qui a bosser & ans sur son site et qui cherche a le référencer en ce moment... il va avoir des problemes...
 
WRInaute accro
vanvan a dit:
En tout cas je n'aimerais pas être un nouveau webmaster qui a bosser & ans sur son site et qui cherche a le référencer en ce moment... il va avoir des problemes...
pas sur ! Dans le même temps ou on voit des desinxations massives ... on voit a l'inverse des nouveaux sites indexés a une vitesse jamais vue ... perso j'ai un site que j'ai mis en ligne il y a 20 jours et GG a deja gobé 440.000 pages (*) !!!! certes il a été bien BL-isé mais pas plus que des précédents qui eux ont été 4 fois moins vite ...

Donc pas sur que les nouveaux aient du souci a se faire ... Je pense plutot que ce sont les anciens sites qui ont actuellement des problemes ...

(*) Enfin "chiffres Google" puisque le site fait en fait 320.000 pages !!!
 
WRInaute discret
Zecat a dit:
Donc pas sur que les nouveaux aient du souci a se faire ... Je pense plutot que ce sont les anciens sites qui ont actuellement des problemes ...

(*) Enfin "chiffres Google" puisque le site fait en fait 320.000 pages !!!


je vais changer de nom de domaine alors :)))

Plus serieusement j'ai lu pas mal de webmaster qui si plaigne d'attendre de puis des semaines le passage de bots sur un nouveau site. Tu as peut être eu de la chance... et mefit toi, avec google ton nouveau site pourrait se retrouver avec 50 pages demain ou apres demain ;)
 
WRInaute impliqué
Idem que Zecat, les sites de moins d'un an sont au top au contraire, actuellement (pour mes sites), il me faut 2 mois sans pousser quoi que ce soit (backlink) pour commencer à bien recevoir tous les jours de la requête google.
 
WRInaute discret
mx a dit:
Idem que Zecat, les sites de moins d'un an sont au top au contraire, actuellement (pour mes sites), il me faut 2 mois sans pousser quoi que ce soit (backlink) pour commencer à bien recevoir tous les jours de la requête google.

ben non le mien a moins d'un an... et je peux te dire qu'il l'a mangé la daddy baffe !!
 
WRInaute accro
vanvan a dit:
Plus serieusement j'ai lu pas mal de webmaster qui si plaigne d'attendre de puis des semaines le passage de bots sur un nouveau site. Tu as peut être eu de la chance...
je ne pense pas que cela soit du a de la chance ... mon processus de lancement de sites est désormais bien rodé et produits toujours les mêmes effets ;-)
 
WRInaute discret
vanvan a dit:
oui mais tout laisse a penser que ce n'est pas volontaire... Je veux dire par là qu'il a de forte chance pour que google ait de serieux problemes depuis bigdaddy.
-désindexation massive
-Non prise en compte des nouvelles pages de beaucoup de site
-Aucune communication rassurantes de la par de google

Il n'y a qu'a lire le blug de matt cutts pour ce rendre compte que le ton monte et un agacement profond se fait sentir sur beaucoup de forum...
Le pire c'est que c'est moins a cause du probleme que par l'absence de communication... enfin nous verrons bien ce que l'avenir nous reserve ;)
En tout cas je n'aimerais pas être un nouveau webmaster qui a bosser & ans sur son site et qui cherche a le référencer en ce moment... il va avoir des problemes...

En effet la thése du bug semble probable, parceque malgrés les contreverses, les réactions parfois loufoques du moteur concernant certains site, google a toujours fonctionné globalement d'une manière logique et à ma connaisance il n'y a jamais eut de changement de cette ampleur et à cette échelle...

Ou alors un incendie dans un de leur datacenter ou un gros problème hardware, parque j'ai du mal à croire que google se retrouve à manquer de place sans avoir anticiper le problème :?

En tout cas vu comme ca c'est déja plus rassurant, il va suffir d'attendre un peu :)
 
WRInaute discret
Zecat a dit:
j'ai un site qui en dix jours vient depasser de plus de 300.000 pages à ... 235 pages !!! C'est la grande lessive :) Mais bon cela ne ressemble pas a un blacklistage qui jusqu'a present c'ets toujours présenté sous la forme d'un passage instantanné à 0 pages ...

Il y a eu un post je sais plus ou sur un probleme de place dispo sur les serveur de google.

on se rassure comme on peut :? .
 
WRInaute impliqué
"processus de lancement de sites est désormais bien rodé"
trés important ce que tu dis la Zecat, voir même le plus important dans la vie d'un site, un peu comme le décollage d'une fusée, mais ça tu ne l'apprend pas sur les forums.
 
WRInaute accro
mx a dit:
"processus de lancement de sites est désormais bien rodé"
trés important ce que tu dis la Zecat, voir même le plus important dans la vie d'un site, un peu comme le décollage d'une fusée, mais ça tu ne l'apprend pas sur les forums.
ben si tu l'apprends a 50 % sur les forum (moi perso j'ai tout appris ici sur wri) et a 50 % en te plantant puis en recommençant diféremment puis en te plantant mais un peu moins etc etc etc et en oubliant pas de t'adapter comme tu le peux aux evolutions des moteurs ... bref une vrai parcours de santé :D :D

Tiens au passage, juste pour illustrer le fait que depuis Bigdaddy, cela semble indexer plus vite qu'avant (si on fait abstraction des pb specifiques a "bugdaddy" semble-t-il ...), voila la courbe d'indexation du site que j'evoquais ...

P440000.JPG
 
WRInaute discret
tu utilises le url rewrite ou c'est des pages statiques, si c'est la dernière je voudrai bien savoir ce que t'as mis dedans ( le larousse, bible ..!! ) .
 
WRInaute accro
fat-freddy a dit:
En effet jolis résultats... y a vraiment aucune logique dans tout ca !
Mon analyse (qui n'engage que moi et qui vaut ce qu'elle vaut :roll: ) :

a) Plusieurs indicateurs semblent montrer que depuis la mise en place de l'infrastructure "bigdaddy", cela indexe plus vite (souvent beaucoup plus vite qu'avant).

b) Parrallèlement, il semble qu'il y ait aussi ce que l'on pourrait en programmation appeler "une fuite mémoire" dont l'un des effets visibles seraient les désindexations massives auxquelles nous assistons. Bref, en un mot comme en cent : un bug !
 
WRInaute discret
Zecat a dit:
mx a dit:
"processus de lancement de sites est désormais bien rodé"
trés important ce que tu dis la Zecat, voir même le plus important dans la vie d'un site, un peu comme le décollage d'une fusée, mais ça tu ne l'apprend pas sur les forums.
ben si tu l'apprends a 50 % sur les forum (moi perso j'ai tout appris ici sur wri) et a 50 % en te plantant puis en recommençant diféremment puis en te plantant mais un peu moins etc etc etc et en oubliant pas de t'adapter comme tu le peux aux evolutions des moteurs ... bref une vrai parcours de santé :D :D

Tiens au passage, juste pour illustrer le fait que depuis Bigdaddy, cela semble indexer plus vite qu'avant (si on fait abstraction des pb specifiques a "bugdaddy" semble-t-il ...), voila la courbe d'indexation du site que j'evoquais ...

P440000.JPG


lol alorson peux aussi parler d"un site ru*es de ma ville quui passe de 90000 pages indèxé a 253... le lancement est bien rôdé mais'attérissage laisse à désire :)
 
WRInaute accro
Ouep rues est pris dans la tourment des desindexations massives ,-) mais ce qui me laisse un peu sur le c.. c'ets que l'impact sur les visites n'est pas massif. ca baisse mais c'ets pas massif ... ca defie toute logique tout cela ... Et puis rues existe depuis plus d'un an (cf plus haut sur le fait que il semble que ce soit les sites anciens qui soient touchés par ces desindexations ...).
 
WRInaute accro
anaya70 a dit:
ça y'st je sais, tu as pris les archives de l' INA en aspirateur et que tu as injecté comme un ouf :lol:
pas sur que mon mutu accepte ...:D surtout si ca fait le meme nombre de vu ... je crois qu'il sont a 3 ou 8 millions de vu / jours (je sais plus trop) !! hallucinant.
 
WRInaute accro
anaya70 a dit:
Zecat a dit:
je crois qu'il sont a 3 ou 8 millions de vu / jours (je sais plus trop) !! hallucinant.

je te le souhaite pourquoi pas ( mais ne m'oublie pas )
je te rassure, mes ambitions sont bien plus modestes .... des que je passe a 4 chiffres en vu/jour sur un site, je suis satisfait. Si ca grimpe a 2 ou 3000 c'est du bonus ... et quand c'est plus c'est jackpot ...
 
WRInaute discret
anaya70 a dit:
parisien94 a dit:
J'ai un site qui a subi une desindexation progressive sur quelques jours avant d'etre blacklisté

quand tu dis blacklisté, tu veux dire en faisant site:www.tonsite.truc tu ne trouves rien ?

Oui blacklisté ca veut dire que le site n'apparait plus dans l'index, plus aucune page, blacklisté quoi :lol:
 
WRInaute discret
parisien94 a dit:
anaya70 a dit:
parisien94 a dit:
J'ai un site qui a subi une desindexation progressive sur quelques jours avant d'etre blacklisté

quand tu dis blacklisté, tu veux dire en faisant site:www.tonsite.truc tu ne trouves rien ?

Oui blacklisté ca veut dire que le site n'apparait plus dans l'index, plus aucune page, blacklisté quoi :lol:

tiens d'un coup j'ai comme qui dirait la chiasse :?
 
WRInaute discret
anaya70 a dit:
parisien94 a dit:
anaya70 a dit:
parisien94 a dit:
J'ai un site qui a subi une desindexation progressive sur quelques jours avant d'etre blacklisté

quand tu dis blacklisté, tu veux dire en faisant site:www.tonsite.truc tu ne trouves rien ?

Oui blacklisté ca veut dire que le site n'apparait plus dans l'index, plus aucune page, blacklisté quoi :lol:

tiens d'un coup j'ai comme qui dirait la chiasse :?

lol.

Allez de toute facon y a rien a faire, juste a attendre ce qui se passe. Google est tellement imprevisible qu'on ne peut rien conclure. Mais faut etre pres a remettre son site en ligne en cas de blacklist. Le dernier que je me suis fait blacklisté m'avait quand même pris pas mal de temps a mettre en place, et le jour même de son blacklist, il existait sous un autre domaine. Faut etre reactif, même si parfois c'est usant.
 
WRInaute discret
anaya70 a dit:
tu as fait quoi pour ere blacklisté

Très sincèrement, le site avait des pages différentes, du contenu souvent different, bref rien de special. Pas de quoi etre blacklisté apres une semaine de vie. Mais c'est pas grave, je ne me pose plus de questions car en ce moment c'est un peu la berezina.

Je viens de noter quand même suite a ma desindexation de mon autre site que le nombre de visiteurs ne change pas ou peu, donc je penche vers un bug quand au nombre de pages affichées par google ( ou alors avant c'etait trop, ou maintenant c'est pas assez, ou bien encore google supprime les pages qui ne sont pas visitées, dans ce cas il est tres fort ).
 
WRInaute impliqué
Dans le même genre depuis 1 semaine je n'ai plus aucun résultat sur site:domain.com sur un de mes sites mais j'ai toujours beaucoup des visiteurs de google...
 
WRInaute accro
Ba moi j'ai vérifié, ça apparait pas avec site:, mais c'est bien parce que ce n'est pas dans l'index (je ne sais pas si tu pensais à quelquechose comme l'affichage du link: par exemple).

Bizarre effectivement ces désindexations, il faudrait espérer que ça ne dure pas trop longtemps, parce que ne pas avoir des gros et anciens sites indexés, c'est pas top (niveau utilisateur en tout cas).
 
WRInaute discret
Pareil, tout mes sites sont trés bas niveau indexation. par contre ma positions sur les mots clés sont stables.

Pourtant Google continue à se gaver sur mes pages. Comprend pas....
 
WRInaute discret
Wells a dit:
Pareil, tout mes sites sont trés bas niveau indexation. par contre ma positions sur les mots clés sont stables.

Pourtant Google continue à se gaver sur mes pages. Comprend pas....

+1... Ca se désindexe chez moi... 100/200 pages tous les jours (sur 12/13000) 8O mais mes positions restent stables.
Et pourtant, GG se goinffre comme pas possible de mes pages, et il aime ça! il reprend même deux fois du dessert. Comprend pas non plus...
 
Nouveau WRInaute
Peut être que Glge limite sans espace de stockage

Peut être, tout simplement, google limite sans espace de stockage (60 petabytes) en mettant en place des filtres aussi strictes !

D'ou la vague de désindexation actuelle!


Remarque, sur des requêtes concurrentielles (hotel paris) le nbrs de résultats à réduit de 200 000 000 à 152 000 000 (1 des +++ exemple)
:roll:
 
WRInaute discret
j'ai l'impression egalement que google fait face a ses soucis de stockage via des desindexation..
 
WRInaute discret
Je pensais à quelque chose, si le nombre de pages indéxées baisse mais que le nombre de visiteur se maintient a peu prés sur la majorité des sites (ca ne se vérifie pas du tout sur mon plus gros) cela peut vouloir dire deux choses :

Première: bug du google à l'affichage du nombre de pages indéxées, le sujet a déjà été débatu.

Deuxième: google grâce à son compteur de clic sur les liens supprime les pages qui ne sont pas cliquées et donc qui n'envoient pas ou trés peu de visiteurs pour garder simplement celles utilent à son fonctionement ce qui permettrait en plus de renvoyer des résultats plus pertinents aux internautes car déjà débarrassée des pages non cliquées.
Cette théorie serait confirmée par l'indexation des nouveaux sites qui vont ensuite passés une "période de test" pour déterminer les pages cliquées ou pas suivi par la désindexation de ces dernières...

Possible?
 
WRInaute impliqué
Pourquoi dans ce cas avoir ressorti des pages de plus d'un an actuellement en 404, risque pas d'être cliquer :), comme je l'ai déja dit dans divers posts, ma théorie est que google a eu un problème, et vu le temps qu'il met a essayer de remetre de l'ordre dans ses index, il doit être GROS le problème, d'ailleurs il serait bien de demander à olivier de créer UNE discussion qui centralise tous les posts mentionnant les désindexation, les caches vieux d'un an, car tout est lié, et ça centralisera le tout (il yen a une bonne dizaine)
 
WRInaute occasionnel
Bonsoir,

idem pour moi sur la majorité des sites, grosse desindexation depuis 2 semaines environ mais traffic à peu pres stable.
sur un de mes sites (annuaire), de 60000 pages indexées à 10000 hier, traf stable mais depuis aujourd'hui, grosse gamelle nb pages indexées et traffic (3k à 400 vu/j env.). sur certains dc, plus que 900 pages indexées.
mon serveur a été indisponible hier soir 2 h environ, mais pas vraiment sur qu'il y ait un lien.
 
WRInaute impliqué
C'est là qu'on réalise à quel point Google a un rôle majeur dans notre vie de webmaster...
 
WRInaute accro
cprail a dit:
C'est là qu'on réalise à quel point Google a un rôle majeur dans notre vie de webmaster...

dans la vie de webmasters qui ne diversifient pas les origines de leurs visiteurs, ca c clair :)

mais bon... ceux qui ne diversifient pas, meurent

Ca a toujours été comme ca
 
WRInaute impliqué
oui, évidemment
n'empêche que c'est une grosse manne de visiteurs qui viennent de google malgré tout.
 
Nouveau WRInaute
J'ai aussi une desindexation massive de 26 000 pages à 719 en 2 semaines. le trafic à baissé d'environ 15%.

par contre ce qui est incroyable, c'est qu'il me ressort des pages d'outre tombe ! des pages qui ont 1 an à l'aise et qu'il place en premier avec la commande site: . C'est comme s'il avait vidé son cache de toutes les pages recentes et qu'il ressorte les fonds de tirroir poussiereux, très bizarre.
 
WRInaute impliqué
Il est clair et évident que bcp de sites ont les mêmes symptomes, soit :

- désindexation
- réaparition de page qui n'existe plus depuis 1 an

Ca dure, et gg n'arrive pas à rétablir la situation depuis plusieurs semaines, google a des problèmes, pour les webmasters concernés, pas de quoi s'inquiéter car le problème ne vient pas de vous,

La question est pas que se passe t'il ? car on aura jamais la solution, mais plutôt combien de temps ça va durer ? je suis perso sceptique sur la durée, et je pense qu'elle sera longue comme certains américains le pensent aussi, car en général en un mois google a tjs réussi a remettre de l'ordre dans ses bases, et la c'est pas le cas.

Et sinon déja dans ce ce post: https://www.webrankinfo.com/forum/topic ... 421_15.htm

cette url: http://www.malaiac.net/moteurs/79-espac ... oogle.html

ou il reprend et traduit un message dans google group:
http://groups.google.fr/group/google-si ... 7de352aff0

qui en gros explique sa théorie (au 18 avril) qui je trouve calque exactement a ce qui se passe en ce moment:

-----------------------------------------

Partie I : Novembre 2005 revival
En mars 2006, Google renvoie à tous les DataCenter des bases de données datant de novembre 2005, malgré les mises en garde des webmestres. La plupart des nouvelles pages créées dans les six mois précédents sont laissées de coté. Ou sont les ingénieurs ?

Partie II : Casse un jambe à tes crawlers
Alors que les robots d’indexation peinaient à retrouver les millions de pages oubliées par la migration BigDaddy, Google modifie les crawlers… qui crawlent moins souvent et moins profondément. Et, tant qu’à faire, ils le font de telle facon qu’une page nouvelle est crawlée, puis recrawlée, puis crawlée encore une fois, puis oubliée.

Partie III : Les survivants au Karcher
Au cas où du contenu frais ait échappé aux Parties I et II, Google fait le nettoyage de printemps de son index. Supprimer aléatoirement des millions de pages, ca allège, c’est sur. Pas de souci, elles reviendront… ou pas.

-----------------------------------
 
WRInaute impliqué
cela peut expliquer la "désindexation" de bcp de sites, mais cela n'explique pas le retour de vieilles pages datant d'un an avec la commande site: ou alors j'ai pas tout compris au texte.
 
WRInaute impliqué
en cherchant un peu dans les commentaires, j'ai trouvé ça, cela correspond exactement à mon cas mentionné ici déja dans un autre post:
______________
#
Brian M Said,

May 16, 2006 @ 2:02 pm

Please, please, please delete all of the old supplemental results! I think if you took a poll, you would find very few webmasters (or end users) who actually value any of those old junk pages (many of which do not even exist anymore).

I have even used the URL removal tool in the past - but those old pages just keep coming back!
_________________
et Matt cutts répond un peu plus bas:


Brian M, I’ve passed that sentiment on. I believe that folks here intend to refresh all of the supplemental results over the summer months, although I’m not 100% sure.

-------------

Il faudrait donc attendre au moins l'été pour un retour à la normal, et ce n'est pas sur à 100% ...
wait and see
 
WRInaute discret
WebRankInfo a dit:
j'ai l'explication je pense : http://www.mattcutts.com/blog/indexing-timeline/

en clair, avec BigDaddy, Google indexe moins souvent certains sites : ceux qui ont ou font trop de mauvais liens


c'est un début d'explication... Mais il ne faut pas confondre indexation et crawl... j'entend beaucoup de webmaster dire que ça crawl beaucoup mais ça n'indexe pas... Matt ne parle ici que de crawl !

J'ajouterais un commentaire perso sur la politique de GG, maitre du monde. Ils ont visiblement décider de pénaliser des sites qui font des liens qui ne leur convienne pas ! Mais en quoi cela ragarde-t-il un moteur de recherche !!!!
Google depasse largement les bornes, finellement le contenue d'uin site peut être tres interessant, mais si les liens externe le lui conviennent pas, google n'indexe plus ou peu le site !!! Super !!! C'est null pour les webmasters, c'est null pour les utilisateurs !!

Je ne vois pas en quoi cela regarde GG si un webmaster fait un lien vers un annuaire pourri !!! Quand en plus on voit à quel point tout ce bins n'a eu que tres peu d'effet, voir aucun, sur les sites qui spam (enfin sur les requettes que je surveille en tout cas) on peu applaudir des 2 mains la belle prise d'initiative et la nouvelle politque de GG !
 
WRInaute accro
vanvan a dit:
Je ne vois pas en quoi cela regarde GG si un webmaster fait un lien vers un annuaire pourri !!!

Et en quoi ca te regarde la façon dont GG gère son algo ? tu bosses chez GG ? t'es actionnaire ?

Si t'es utilisateur et que ca te plait pas, essaye autre chose

Si t'es webmaster, ben cherche un autre système pour attirer des clients

Mais non, ca préfère se plaindre... et GG ceci, et GG cela... et GG il devrait m'apporter un million de visiteurs, et GG il vient trop souvent, il me plante mon site... et GG il vient pas assez souvent... et GG il me met pas premier

On dirait des gamins dans une cours de récré :)

ps : c encore un de mes posts inutiles Vanvan :) et oui... parfois j'oublie que je parle à des geignards :)
 
WRInaute impliqué
Tu as surement du mal à comprendre que ce qui est énervant, c'est le fait que parfois ils font bien ce qu'ils veulent, parce qu'ils savent bien qu'ils sont tellement leaders.
 
WRInaute discret
finstreet, je ne vais même pas débattre avec toi tellement je respecte ta haute connaissance d'Internet...

pour ceux qui n'ont pas suivi, je résume la pensé hautement intuitive de ce grand visionnaire : "passez-vous de Google bande de nul"

Je m'incline devant l'évidence de la nature quasi mystique de la prescience dont tu nous gratifie :roll:


PS: il n'est pas utile de montrer toutes ces etonnantes facettes de ta personnalité à chacune de mes interventions, non, non je t'assure que malgré ltoute la douleur que cela provoque en moi, j'arrive à me passer de tes commentaires pourtant si lumineux... :roll:
 
WRInaute accro
cool svp. Dites vous vos 4 verites entre 4 zieux en MP mais pas dans le topic ... ca serait dommage de devoir le verrouiller.
 
Nouveau WRInaute
Bonjour à tous

Tout d abord j espere que mon message est bien à sa place et ne derangera donc pas.
En fait, je poste ici en dernier recours juste pour comprendre ce qui a pu se passer et en connaitre les causes eventuelles.
Durant les 4 derniers mois, mon site est passé de 100.000 pages indexés à (testé à l instant) 900.
Je ne comprend pas le pourquoi de cette desindexation massive. Les pages anciennement référencées existent toujours et je n ai quasi rien changé sur le site (recemment j ai retiré les balises meta qui j ai lu ici meme ne servent plus).
Si quelqu un avait la gentillesse d eclairer ma lanterne sur ce probleme ce serait vraiment sympa

L adresse de mon site (si considerée comme de la pub, je m en excuse) : http://www.reggae-vibes.fr/index.php

Perso, j ai pensé à pas mal de choses pouvant en etre la cause mais je dois dire que je ne peux etre sur d aucune. La derniere en date : le fonctionnement de mon site qui classe des albums et a donc dans beaucoup de topic des liens amenant a d autres topics du meme forum ??

Merci d avance

Je me permet donc de poster dans ce topic qui visiblement centralise le meme genre de probleme que le mien :p.

Moi par contre, je n ai pas une baisse de trafic vraiment significative (les habitués passent toujours quoi) et pas de page de plus d 1 an qui réapparait.
Et ce n est pas non plus un bug d affichage car comme je l ai dit dans le topic verrouillé, des recherches que je faisais il y a quelques mois et ou j arrivais en tete dans la plupart des cas, aujourd hui je n apparais plus du tout dans les resultats.
 
WRInaute occasionnel
WebRankInfo a dit:
j'ai l'explication je pense : http://www.mattcutts.com/blog/indexing-timeline/

en clair, avec BigDaddy, Google indexe moins souvent certains sites : ceux qui ont ou font trop de mauvais liens

En clair, un rel="nofallow" dans le lien pourrai aidez a arranger les choses?

Pour info mon site toucher est une sorte d'annuaire, donc beaucoup de liens sortant sur le plus souvent les mêmes sites (gros sites d'informatique).
 
WRInaute impliqué
je ne crois pas du tout dans cette version de "mauvais liens" et "crawl et indexation".
je suis d'accord avec mx quand il dit "mais alors pourquoi de vieilles pages ressortent elles ?", c'est vrai aucun rapport.
google modifie sa manière de travailler et je pense que les problèmes viennent de là et que tout va revenir à la normale au fil du temps.
d'ailleurs j'ai un site qui commence à bien remonter au niveau du nombre de pages indexées.
ce n'est que mon avis :wink:
 
WRInaute occasionnel
Tu a bien de la chance, moi ca crawl mais ca indexe pas, ca fais 3 mois que j'attend en me disant que ca aller revenir mais en continuant a ajouter du contenu. Alors maintenant je pense que je vais changer quelques trucs pour voir, on sais jamais...
 
WRInaute accro
yeca a dit:
Tu as surement du mal à comprendre que ce qui est énervant, c'est le fait que parfois ils font bien ce qu'ils veulent, parce qu'ils savent bien qu'ils sont tellement leaders.

Un leader à l'instant n'a aucune possibilité de savoir si il le sera à l'instant t+1 et encore plus sur Internet... qui aurait cru que trois étudiants auraient devandé un jour IBM ? qui aurait cru qu'un mec qui vendait des ordinateurs par correspondance serait le n°1 mondial ? qui aurait cru que Microsoft aurait raté le premier train d'Internet ? qui aurait pensé que Yahoo est raté le rachat de Google ? qui aurait cru que Amazon aurait fait un jour des bénéfices ?

Bref, la réalité à l'instant t n'est pas la réalité ad vitam eternam... et je persiste à dire qu'un site qui risque sa viabilité (ce qu'on peut lire sur pas mal de posts) à cause de la désindexation d'un seul moteur, meme leader, ca met en doute la capacité de développement de tel site.

Refuser que Google fasse plus d'1/3 des visites, c'est dur, très dur à faire... mais faisable. Après je vois pas l'intérêt de m'engueuler pour ca. Mais bon
 
WRInaute impliqué
Sauf que IBM, Dell, Microsoft, Amazon, c'est tous des précurseurs, le marché n'existait pas.

Sort moi des exemples d'énormes sites qui après une longue période de toute puissance se sont fait rattrapés et doubler ?
 
WRInaute accro
yeca a dit:
Sauf que IBM, Dell, Microsoft, Amazon, c'est tous des précurseurs, le marché n'existait pas.

Sort moi des exemples d'énormes sites qui après une longue période de toute puissance se sont fait rattrapés et doubler ?

IBM ne fait meme plus de PC... Dell est n°1... IBM a vendu sa branche PC

General Motors, archi n°1... se prend une taule actuellement

Panam... archi leader aux Etats-Unis... en faillite

Enron...faillite

Netscape... véritable concurrent de IE... inexistant

Ca c pour l'économie réelle. Il n'y a aucune différence pour Internet. Internet est un secteur économique comme un autre. Google est n°1 dans les moteurs de recherche ? c'était pas Yahoo avant ? Et tu te souviens encore de Lycos ? un des n°1 européen... ou Liberty Surf dans les fournisseurs d'accès... qui n'est plus rien

Et etre leader 3-4-5 ans ne préjugent en rien que le site le sera encore dans un an...

Internet est tout neuf. Les leaders dans 5 ans ou 10 ans n'existent peut etre encore pas :) C'est pour ca qu'on parle de "vie" économique. Ca bouge.

Tu aurais miser un kopeck sur la disparition de Napster, archi n°1 mondial il y a quelques années ? Tout évolue. Internet n'est qu'un secteur comme un autre...
 
WRInaute impliqué
être leader et archi leader à mon avis y'a de la marge

mais bon, c'est vrai qu'on peut pas savoir.

ce que je sais et ce que je disais, c'est que AUJOURD'HUI ils sont archi leaders
 
WRInaute accro
yeca a dit:
être leader et archi leader à mon avis y'a de la marge

mais bon, c'est vrai qu'on peut pas savoir.

ce que je sais et ce que je disais, c'est que AUJOURD'HUI ils sont archi leaders

Oui ca c vrai... Google est archi leader dans les moteurs de recherche... mais c encore, et heureusement, aux webmasters de décider comment orienter l'origine de ses visiteurs. Rien n'empeche de faire du tract, de la pub online, des newsletters fréquentes, des buzz, des jeux concours, des gros partenariats... bref passer son temps à devenir indépendant de Google plutot que d'essayer d'être de plus en plus dépendants en passant des heures et des heures à mieux se référencer.
 
WRInaute impliqué
mais ça coute beaucoup d'argent ça ;)

du coup tu deviens dépendant du succès du truc que tu payes, je crois pas que ça soit mieux.
 
WRInaute accro
yeca a dit:
mais ça coute beaucoup d'argent ça ;)

du coup tu deviens dépendant du succès du truc que tu payes, je crois pas que ça soit mieux.

l'ingéniosité et la créativité ne coutent rien mais souvent on va faire la facilité

Y'a un truc que tu n'as pas compris... je ne te parle pas de faire 100% avec autre chose... mais de faire 33% pour chaque chose... donc tu n'es dépendant de rien...

enfin je comprend pas trop... tu préfères rester dépendant à 95% de Google pour éviter d'etre dépendant à 33% d'une autre façon de faire venir des gens :)
 
WRInaute impliqué
être dépendant à 95% de google et être dépendant à 30% d'une technique A, 30 % d'une technique B et 35 % d'une technique C, tu es toujours dépendant à 95 % au final.

tu vas me dire que si un flanche, tu as moins de répercutions. c'est vrai, mais être à 95% dur une technique te permet de beaucoup travailler dessus et de minimiser les risques.
 
WRInaute accro
yeca a dit:
être dépendant à 95% de google et être dépendant à 30% d'une technique A, 30 % d'une technique B et 35 % d'une technique C, tu es toujours dépendant à 95 % au final.

tu vas me dire que si un flanche, tu as moins de répercutions. c'est vrai, mais être à 95% dur une technique te permet de beaucoup travailler dessus et de minimiser les risques.

minimiser les risques ? comment tu veux minimiser les risques alors meme que tu ne controles rien ?

Un chef d'entreprise dont le CA est réalisé à 95% par un seul client est quasi sur aussi de faire faillite à 5 ans :) ca c pas moi qui le dit... c'est les stats des Tribunaux de COmmerce

C un principe de base en finance... en marketing...

Bon c fini pour moi, ciao
 
WRInaute impliqué
tu controles rien à ton référencement toi. Dommage, je comprend pourquoi tu passe par d'autres procédés :)

on parle pas de client là, google n'est pas un client. Tupperware a toujours basé son système sur quelque chose d'impossible à controler de la même manière. Et pourtant ça marche très bien.
 
WRInaute accro
Euh ben non je ne controle pas le devenir financier de Google... si Google fait faillite ou change brutalement son algo... tu fais quoi ? bah tu pleures lol

Bon ben bonne gérémiade... on n'a pas avancé...

ps : Tupperware est sans doute l'un des systèmes de distrib les plus controlés au monde... :) à moins que Danone controle Carrefour :) mais j'ai du louper une étape lol

ps : sérieux il te manque de grosses notions en gestion économique de base, très très grosses, et vu que j'ai pas l'ame à minuit de donner des cours, ciao
 
WRInaute impliqué
Zecat a dit:
--> finstreet et yeca : pour ajouter un peu de complexité a votre debat sur la notion de dépendance et ses effets de bord :

http://forum.yagoort.org/forum/sujet-re ... nt-73.html

:wink:

aucune raison d'être dépendant d'adsense si on respecte les règles.

je ne crois pas aux gens qui disent ne pas comprendre pourquoi leur compte a été fermé, surtout qu'au bout de qq minutes, ils avouent leur péché ;)

Sinon, faut pas voir du crépage de chignon dans tout débat, je vois pas où tu vois que ça déborde là...

si Google fait faillite ou change brutalement son algo... tu fais quoi ? bah tu pleures lol

la faillite, je doute qu'on la voit pas arriver, le changement d'algo, je te dis que si tu sais pas prévoir cette alternative, tant pis pour toi. Toi tu fais de la newsletter, moi je prévois un minimum les changements d'algo :)
 
WRInaute accro
yeca a dit:
Sinon, faut pas voir du crépage de chignon dans tout débat, je vois pas où tu vois que ça déborde là...
Disons qu'on vous sent un tantinet tendus :wink: mais si c'est pas le cas, tant mieux.
 
WRInaute accro
yeca a dit:
je ne crois pas aux gens qui disent ne pas comprendre pourquoi leur compte a été fermé, surtout qu'au bout de qq minutes, ils avouent leur péché ;)
Tout a fait d'accord. mais le propos est un peu différent. il porte plus sur la perception que peuvent avoir les adsenseur et pas sur la pertinence ou le bien fondé des radiations de compte realisées par Google adsense.
 
WRInaute impliqué
Tendu je sais pas.

Je sais que c'est parfois risqué de laisser passer le tendu, mais c'est quand deux points de vue s'affrontent que le débat est intéressant, pas quand tout le monde est content ;)

Du moment que personne ne prend les autres de haut ou commence à jurer, tout va bien.
 
WRInaute accro
yeca a dit:
Tendu je sais pas.

Je sais que c'est parfois risqué de laisser passer le tendu, mais c'est quand deux points de vue s'affrontent que le débat est intéressant, pas quand tout le monde est content ;)

Du moment que personne ne prend les autres de haut ou commence à jurer, tout va bien.
oki pour moi :wink:
 
WRInaute discret
Désolé de vous couper les gars mais juste pour en revenir un peu au sujet, y a-t-il des critères connus pour un "bon" ou un "mauvais" lien ?

Merci ;)
 
WRInaute passionné
fat-freddy a dit:
Désolé de vous couper les gars mais juste pour en revenir un peu au sujet, y a-t-il des critères connus pour un "bon" ou un "mauvais" lien ?

Merci ;)
Ah oui bonne question ça, ça m'intéresse aussi de savoir ça s'il vous plait :!:
 
WRInaute discret
fat-freddy a dit:
Désolé de vous couper les gars mais juste pour en revenir un peu au sujet, y a-t-il des critères connus pour un "bon" ou un "mauvais" lien ?

Certainement qu'il y en a des critères -connus- :
- La LOGIQUE ..

Si j'ai un site PR1241 dont le thème principal est la vente de bagnoles, et que j'ai 25 liens sortants sur toutes mes pages, vers des sites :
- De recettes de cuisine, de casinos en ligne, ou des sites de Q, et j'en passe des vertes et des pas mûres, il va de soi que ces liens sont plutot -louches- ..

Mais si mes liens pointent vers des sites de :
- Garagistes, mécaniciens, de vente de pneus, de controle technique, ou de cote argus, ce sont des bons liens pour mon site, et donc pour les visiteurs, fastoche a comprendre comme principe, no ?

Pour les liens entrants, c'est ingérable, je peux linker ton site a partir d'un site p0rn, sans que tu ne m'aies rien demandé, donc il ne serait pas logique de filtrer dans ce sens ..
 
WRInaute occasionnel
vanvan a dit:
Je ne vois pas en quoi cela regarde GG si un webmaster fait un lien vers un annuaire pourri !!!
D'autant qu'on peut faire un lien vers un site sans savoir qu'il est considéré comme "mauvais voisinage" par Google. Je n'arrive pas à croire que Google puisse désindexer un site simplement parce qu'il fait un lien vers un site consédéré comme mauvais.

cprail a dit:
Dans le même genre depuis 1 semaine je n'ai plus aucun résultat sur site:domain.com sur un de mes sites mais j'ai toujours beaucoup des visiteurs de google...
Tu n'as plus aucun résultat avec la commande "site:domain.com" et tu continues à avoir des visiteurs de Google ? Est-ce indiscret de te demander l'url de ton site.

Pour ma part sur mon annuaire, c'est la berezina, je passe en l'espace d'une semaine de 30 000 pages indexées à moins de 10 000 :cry:. Comme l'ont fait remarquer certains, ca ne baisse pas vraiment niveau traffic puisque je passe d'environ 30000vu à 26000vu hier. Cependant, le plus inquiétant c'est que je commence à baisser sur de grosses requetes. Par exemple j'ai complètement disparu de Google sur une requete qui m'apportait plus de 100 visiteurs/jour, donc contrairement à ce qui a été dit je ne pense pas que Google désindexe les pages les moins cliquées. Peut-être que la commande "site:" commence à fonctionner comme la commande "link:" dans le sens où elle ne donne qu'un échantillon du nombre réel de pages indexées ? Je dis cela car mes pages indexées ont été divisées par 3 mais le traffic ne baisse que légèrement (pourvu que ca dure, mais je m'attends à tout) ...
 
WRInaute accro
Courage camarade ! Comme disait un certain roland, la route est parsemée de ronces et de veaux :D :D

Perso, sur mon vieux ruesdemaville.com, je suis passé en 10 jours de 230.000 (chiffre affiché par GG puisque le site ne fait pas autant de page a 564, dernierer valeur ce matin ...) Tu vois t'as encore del amarge de "progression" (ou regression c'est selon) :D
 
WRInaute discret
GoGueule a dit:
Certainement qu'il y en a des critères -connus- :
- La LOGIQUE ..

Si j'ai un site PR1241 dont le thème principal est la vente de bagnoles, et que j'ai 25 liens sortants sur toutes mes pages, vers des sites :
- De recettes de cuisine, de casinos en ligne, ou des sites de Q, et j'en passe des vertes et des pas mûres, il va de soi que ces liens sont plutot -louches- ..

Je suis d'accord que la logique aide beaucoup pour le référencement ;) mais ca ne reste que spéculation, je voudrais savoir si il y a des critères avérés pour un mauvais lien. Cela me semble étrange que google pénalise un site sur un simple lien sans en connaitre le contexte...
 
WRInaute impliqué
La question est de savoir jusqu'ou google va t'il aller dans le retour vers le passé ?
Aujourd'hui j'ai battu le record en retrouvant via la commande site: des pages datant de novembre, et décembre 2004, qui sont en 404, le site étant de 2000, s'il continu son retour en arrière, sa crédibilité va en prendre un coup ...
Pour vous faire une idée, pour 11800 résultats avec la commande site: seulement 44 résultats (donc url) sont à jour ! (le reste appartient au passé)
 
WRInaute impliqué
SuperPJ a dit:
Tu n'as plus aucun résultat avec la commande "site:domain.com" et tu continues à avoir des visiteurs de Google ? Est-ce indiscret de te demander l'url de ton site.

Ce n'est plus le cas depuis quelques jours (je n'ai plus de visiteurs depuis google), mais ça fait bien 2 semaines que je n'ai plus de pages dans site:.
-otherside.pumaxprod.com
Pour le peu d'importance que ça a (mon site perso) je m'en fais cependant pas trop.
 
WRInaute discret
J'ai atteint ce soir le stade ultime de la maladie, la commande site ne renvoi plus rien alors qu'il y a à peine 1 mois j'avais 400 000 pages indexées, déprimant....

Les visiteurs continuent visiblement à arriver, j'attends les stats xiti pour plus de détails.
 
WRInaute occasionnel
Je ne sais pas pour vous mais mon nombre de pages indexées remonte légèrement depuis hier. Pour rappel j'étais passé depuis la semaine dernière de 30000 pages indexées à 9900. Or depuis hier, c'est remonté à 12300 sur quasiment tous les datacenters.

fat-freddy : ca s'arrange de ton côté ?
 
Nouveau WRInaute
Ca continue a descendre chez moi, de manière presque régulière: 20 pages en moins par jour, je suis passé de 500 pages il y a un mois à 83 pages aujourd'hui. au rythme ou ça va, j'aurai disparu dans 4 jours.

D'autre part, aucune des nouvelles pages crées depuis 2 mois n'ont été ajoutées.

Bien sûr c'est un petit site perso, et je n'ai rien à gagner (si ce n'est un peu de satisfaction personelle). Mais Google a quand même diminué par 2 le nombre de visiteurs qu'il m'envoie, et Google représentait à peu près 40% des visiteurs => Diminution de 20% du total des visites. Si on ajoute la sandbox sur mon couple de mots clés principaux, J'en conclus ce que tout le monde en conclus ... Attendre, et 'privilégier le référencement sans GG'
 
Discussions similaires
Haut