2ème index Google : le triangle des Bermudes

Nouveau WRInaute
Quelqu'un aurait-il une réponse à propos d'une grave chute de trafic qui touche notre site 1001stages.com lancé en octobre 2008 et qui, jusqu'en février, connaissait une belle croissance en VU :

Depuis le 25 fevrier 2009, notre trafic est tombé d'une moyenne de 1000 visites/jour à 100 visites/jour soit une perte de 89 %

D'après nos analyses, ceci serait lié à l'identification de la part de Google d'environ 2300 "liens cassés". Or il ne s'agissait pas de « liens cassés » mais de liens temporairement désactivés (en attente du lancement de notre forum), inscrits pour mémoire dans les zones "commentaire" du code source. Nous ne pouvions pas imaginer que ces liens en commentaires pourraient nous pénaliser... Nous avons alors immédiatement éliminé tous ces liens, comparé la version du site en ligne le 25 février avec une version précédente pour pointer d'éventuels changements susceptibles d'avoir également entraîné ce déréférencement. Il semble que tout le reste soit parfaitement OK.
Nous avons aussi immédiatement contacté Google via l'interface webmaster, expliqué, le cas, posté régulièrement de nouveaux sitemap (le site évolue beaucoup). Aucune réponse de Google. Nous leur avons écrit par courrier, contacté par fax. Toujours rien. Cela fait 2 mois : aucune amélioration du trafic côté Google.

Nous avons entendu parler d'un second index. Il semble en effet que cela soit une réalité : sur les quelques 2700 pages indexées sur Google, seulement 250 seraient dans le premier index, le reste dans le second. Pour parvenir à ces chiffres, nous avons fait une recherche sur notre url sur Google : 2700 résultats environ, puis sur AOL : 250 résultats environ. Nous arrivons à la même conclusion directement sur Google en poussant la recherche jusqu'au message proposant de "limiter la recherche au 250 résultats les plus pertinents". Concrètement, les 2450 autres pages stagnent dans le second index et sont exclues des requêtes sur Google. Ce qui est d'autant plus aberrant que nous avons un contenu considérable (plus de 10000 fiches différentes rédigées) aucun duplicate content, un important, netlinking, un gros travail sur le référencement éditorial (balises title, h1, h2, h3,) etc. Tout ce qui en général participe à un bon référencement....

Evidemment nous commençons à être furieux contre Google. :evil:

Quelqu'un peut-il nous dire comment sortir de ce foutu second index ????

Merci d'avance à tous ! :D
 
WRInaute passionné
ça ne sert à rien de vous prendre à google, l'erreur vient de vous.
c'est simple, il se trouve que 89% de vos visiteurs arrivaient sur votre site via les pages que vous avez supprimer/désactiver !
quand google vous signale des lien cassés, ceci ne veux pas dire que si vous les supprimez définitivement vous retrouvez votre trafic (d'ailleur je ne comprends pas votre logique là dessus).
quand un lien est cassé, il faut remettre en ligne la page, ou faire une redirection 301 vers la page de remplacement.

et surtout surtout : ne jamais supprimer du contenu avant d'avoir mis en ligne le contenu de remplacement et avoir fait les redirections 301 (là en l'occurrence je parle de votre forum) .


donc pour moi c'est vous qui avaient fait une erreur et pas google.


quand à l'histoire du double index .... bah ... il me semble que c'est l'architecture du moteur qui l'impose : d'abord tous les liens sont "indexés" dans un premier temps, et ensuite analysés, épurés, classés ...etc. il peut y avoir plusieurs indexes en interne, mais un seul reflète les résultats de recherche (du moins dans un même datacenter)
 
WRInaute impliqué
Ce qui est d'autant plus aberrant que nous avons un contenu considérable (plus de 10000 fiches différentes rédigées) aucun duplicate content, un important, netlinking, un gros travail sur le référencement éditorial (balises title, h1, h2, h3,) etc.
Et justement, n'y aurait-il pas un netlinking trop important ? Sur chaque page tu as plus de 360 liens internes, et tous les mêmes.
Même parmi les gros portails, j'en connais très peu avec autant de liens internes.
 
WRInaute impliqué
Argonaute a dit:
Ce qui est d'autant plus aberrant que nous avons un contenu considérable (plus de 10000 fiches différentes rédigées) aucun duplicate content, un important, netlinking, un gros travail sur le référencement éditorial (balises title, h1, h2, h3,) etc.
Et justement, n'y aurait-il pas un netlinking trop important ? Sur chaque page tu as plus de 360 liens internes, et tous les mêmes.
Même parmi les gros portails, j'en connais très peu avec autant de liens internes.

oulalalala !!! effectivement, beaucoup trop de liens internes, jamais vu ca !

et en plus une liste de lien cela ce code comme ceci:

Code:
<ul>
<li>lien 1</li>
<li>lien 2</li>
<li>lien 3</li>
</ul>

et non pas

Code:
<li>
lien 1
lien 2
lien 3
</li>


allez hop au boulot...

par contre, changer la structure du linkage interne est necessaire, mais ne risque pas d'ameliorer ton cas dans un premier temps...
 
WRInaute discret
Autre remarque (qui n'a sans doute rien avoir avec le problème ) : La balise <h1> sert généralement pour un titre (relativement court) et non un paragraphe complet de plusieurs lignes comme tu l'as fait :wink: .
Cette pratique pourrait être considérée comme de la suroptimisation, je te conseille donc d'utiliser la balise <p>pour un paragraphe.
 
Discussions similaires
Haut