J'abandonne

  • Auteur de la discussion Auteur de la discussion Kaliiii
  • Date de début Date de début
WRInaute occasionnel
Google a un comportement plus que bizarre ces derniers temps. Apres avoir normalement crawlé l'ensemble de l'un de mes sites et être monté a plus de 200 pages référencées et 70 backlinks, il stagne maintenant a 80 pages, dieu seul sait pourquoi etant donné que le nombre de page augmente jour apres jour. je n'ai aucune explication logique a ca, et ce n'est plus une histoire de patience (cela fait maintenant quelques mois) ou alors je ressens les effets d'une "sandbox" si tenté qu'elle existe vraiment...

Je commence a désesperer...

un idée ?

Merci d'avance

Thierry
 
WRInaute impliqué
Salut,

Augmente les liens vers ton site et tu vera qu'il va crawler plus rapidement.

En ce moment, Google est un peu long à indexer de nouvelles pages...
Chez moi c'est pareil avec des milliers de BL vers mes pages.

T'inquiettes pas, ca va arriver :wink:
 
WRInaute passionné
Un américain m'a dit un jour, le PR détermine ton nombre maxi de pages indexées. Mais bon sinon moi ca ne dépasse pas les 400 pour un site par exemple.
 
WRInaute accro
le PR influ sur le niveau de profondeur du crawl, avec un bon plan de site, cela ne poses plus réellement de problème (2 clics= toutes les pages visitées)
Kaliiii tu as peut-etre tes pages en "duplicate content". n'as tu pas des titres / métas / contenus trop semblables sur tes pages ?
 
WRInaute passionné
Non sans doute, enfin lui nous avait fait une présentation à une conférence et le malin avait un site de cloaking de news yahoo qu'il ne montrait par ailleurs qu'à Google mais pas aux autres. Ca lui rapportait bcp bcp de visiteurs. C'était selon ses propos 20 000 dollars mensuels.

27 ans, 50 personnes sous ses ordres. il nous a fait sa conférence et est ensuite il a repris son avion. Mais c'était ce genre de génie qui se moque de moi et de mon ignorance. La canaille. Mais je me souviens à présent qu'il était canadien.
 
WRInaute impliqué
C'est pareil pour moi. GG refuse d'indexer plus de 20 pages. :?
J'ai beau en rajouter (une petite cinquantaine à l'heure actuelle) ca ne monte plus : bloqué à 20.

Pourtant j'ai tout bien fait comme il faut ! :lol: URL rewrite, SiteMap, DMOZ, etc...
 
WRInaute occasionnel
e-kiwi a dit:
le PR influ sur le niveau de profondeur du crawl, avec un bon plan de site, cela ne poses plus réellement de problème (2 clics= toutes les pages visitées)
Kaliiii tu as peut-etre tes pages en "duplicate content". n'as tu pas des titres / métas / contenus trop semblables sur tes pages ?

Alors, non justement, je n'ai pas de duplicate content, je me suis arrangé pour que les Keywords soient générés automatiquement en PHP. En ce qui concerne la profondeur du crawl, le plus étonnant c'est que Googlebot visite toutes ces pages. j'ai un sitemap validé et installé qui le guide également a travers toutes ces pages.

Le PageRank je me méfie en ce moment, j'ai l'impression que ce n'est plus une valeur très "Sure" bien que pour d'autres sites que je gère ca ai quand même fait ses preuves.

Le nombre de pages indexées pour moi est assez important, plus même que le nombre de Backlinks.

Suire Yahoo mes chiffres sont :
Pages : 939
Links : 1200

Sur google :
Pages : 80
Links : 40

humm ... ca sent le sable !
 
WRInaute discret
La canaille. Mais je me souviens à présent qu'il était canadien.

En fait, il y aura toujours moyen de "bypasser" nimporte quoi, il y a des gens qui reussisse soit a contourner les regles, ou les exploiter au maximum sans pour autant en brimer, cela dit, la nationnalité des gens n'a aucune importance ;)
 
WRInaute accro
dravick10 +1

Les règles ne sont jamais parfaites.
Celui qui gagne est celui qui les connaît le mieux et sait en exploiter les lacunes.
 
WRInaute occasionnel
Szarah a dit:
dravick10 +1

Les règles ne sont jamais parfaites.
Celui qui gagne est celui qui les connaît le mieux et sait en exploiter les lacunes.

A vrai dire, je pense que ces methodes paient un temps et puis perdent de leur efficacité quand la faille est découverte...
 
WRInaute accro
Oui, c'est clair, c'est parce que les règles évoluent.

Donc, on peut dire que les malins, par l'usage imprévu qu'ils font des règles, aident le système à se perfectionner :)
 
WRInaute occasionnel
Il faut savoir que depuis peu, google modifie sa manière d'indexer. En premier lieu il est de force à constater que Mediapartner qui s'occupe des adsenses a depuis quelques temps déja les mêmes IP que Mozilla Googlebot/2.1 (66.249.65, 66.249.66., 66.249.72.). Apparemment googlebot/2.1 a disparu en temps que tel et Mozilla Googlebot est devenu le bot chargé de l'indexation et de la mise en cache des pages.
De plus la stratégie d'indexation de Mozilla Googlebot semble différente de googlebot/2.1 avec des visites beaucoup plus espacées dictées plutôt par la fréquence des mises à jour des pages que par le PR (nbre de back_links). D'où des passages et des indexations de sites totalement différents de ce que l'on pouvait avoir avant en terme d'habitude du passage des bots. Jusqu'à maintenant il semblerait que cette nouvelle manière d'indexer n'ait pas (encore?) eu de retentissement sur le positionnement des pages par rapport aux mots_clefs.
à lire:
http://www.webmasterworld.com/forum30/33806.htm
 
WRInaute occasionnel
Up

Je refais monter ce post suite a une agravation de la situation.

A vrai dire je ne comprend pas trop ce qui se passe et ca commence a m'énerver sévere.

On est tombé mainetenant a 30 pages référencées et ca me prend sérieusement la tete vu que je n'ai aucune explication plausible. l'url apparait meme sous la forme de l'url simple sans titre ni rien lorsque je tape le mot clef parischat.

Est-ce que le fait d'avoir changé de page d'accueil et fait pas mal de modifs sur la structure du site (sans pour autant avoir retiré les pages référencées) a pu jouer ?

Bref. Je commence a en avoir marre de Google et de ses règles mystérieuses.
 
Haut