Désindexation étrange et quotidienne

Nouveau WRInaute
Voilà une mystère que je n'arrive pas élucider :

Il y a 2 semaines, 1500 pages de mon site étaient indexées dans Google, aujourd'hui et plus précisément à l'heure où j'écris ce sujet, il n'y a plus que 900 pages d'indexées.

Une désindexation qui a en plus tendance à s'accélerer, depuis avant hier il y a 50 pages retirées de google par jour.

Ce matin 946 pages indexées -> ce soir 900 pages

Pour combler le tout il s'agit des pages les mieux placées dans Google.

Résultat mon trafic a baissé de moitié.

Ma question : Quel peut être la raison d'un tel comportement de google ?
 
WRInaute impliqué
Si c'est le site infododo, google en connait 698 et en considère 453 comme pertinentes en faisant la requête
Code:
allinurl:www.infododos.com site:www.infododos.com

Peut-être des pages trop profondes dans l'arbo, ou des descriptions similaires entre plusieurs pages, ou encore trop de code identique en haut des pages ignorées... Ou un problème sur un data center de Google qui n'est pas très à jour...
 
Nouveau WRInaute
Est-ce que sa pourrait venir d'une pénalité venant d'un ajout trop massif de pages sur le site ?

Il y a quelques semaines j'ai optimisé mon site en dégroupant des informations qui étaient sur la même page pour les mettre sur des pages à part.

J'ai rajouté 250 pages de cette façon. Sur un total de 1 500 pages c'était peut-être beaucoup...

Pour ce qui des pages trop profondes dans l'arbo, je ne pense pas, vu que mon arbo n'a que deux niveau : la racine et les dossiers qu'elle contient

Pour les descriptions similaires, oui certaines pages ont des descriptions similaires mais il s'agit de page peu importantes tels que les visionneuses d'images; le genre de page que Google peut désindexer sans que ça me gêne et sans que ça me fasse perdre des visiteurs.


Je précise qu'aucune modification du code de mon site n'a été faite depuis le mois de juillet. Sa ne provient donc pas à mon avis d'un problème de code à moins que Google soit extrêmement lent à réagir.
 
WRInaute impliqué
est-ce un site ancien ou nouveau ?

Je ne crois pas qu'ajouter 250 pages sur un site qui en a 1500 soit pénalisant.
Y a t'il un sitemap ?
Y a t'il assez de backlinks "profonds" (vers des pages internes du site...)

Je ne comprends pas pourquoi des pages importantes seraient désindexées. Sont elles désindexées ou ont elles juste perdu un bon positionnement ?
 
WRInaute occasionnel
luxe camapgne c'est quoi un backlink profond ?

metre un maximum de lien profond sur notre page d'acceuil ou une page de second niveau ?
 
Nouveau WRInaute
Non les pages non pas été déclassées mais bien désindexées.

Il s'agit d'un site âgée d'un 1 an et demi, à part le déclassement du 27 juin au 27 juillet il n'y a jamais eu de problème jusqu'à maintenant.

Il n'y a pas de sitemap. Je n'ai pas jugé utile d'en créé un vu que mon site avait toujours été très bien indexé.

Et pour ce qui est des backlinks internes, je vois pas trop pourquoi ce serait pénalisant, de plus je n'ai pas modifié leur nombre durant les 5 derniers mois, je pense donc qu'il ne faut pas chercher de ce côté.
 
WRInaute passionné
GG en ce moment, semble avoir durci ses critéres au niveau du diplicate, j'ai un ou deux sites, qui bien que le contenu des pages soient différentes, ce font désindéxées pour ce nouveau motif. En effet une Url, doublé d'un title trop proche semble pénalisé, maintenant, alors qu'il ne l'était pas.



Anono a dit:
Non les pages non pas été déclassées mais bien désindexées.

Il s'agit d'un site âgée d'un 1 an et demi, à part le déclassement du 27 juin au 27 juillet il n'y a jamais eu de problème jusqu'à maintenant.

Il n'y a pas de sitemap. Je n'ai pas jugé utile d'en créé un vu que mon site avait toujours été très bien indexé.

Et pour ce qui est des backlinks internes, je vois pas trop pourquoi ce serait pénalisant, de plus je n'ai pas modifié leur nombre durant les 5 derniers mois, je pense donc qu'il ne faut pas chercher de ce côté.
 
WRInaute discret
Anono a dit:
Non les pages non pas été déclassées mais bien désindexées.

Il s'agit d'un site âgée d'un 1 an et demi, à part le déclassement du 27 juin au 27 juillet il n'y a jamais eu de problème jusqu'à maintenant.

Il n'y a pas de sitemap. Je n'ai pas jugé utile d'en créé un vu que mon site avait toujours été très bien indexé.

Et pour ce qui est des backlinks internes, je vois pas trop pourquoi ce serait pénalisant, de plus je n'ai pas modifié leur nombre durant les 5 derniers mois, je pense donc qu'il ne faut pas chercher de ce côté.
J'ai un site de 1 an et demi aussi qui vient de passer de 1000 à 200 visiteurs jour :-(
 
Nouveau WRInaute
encore -50 pages ajourd'hui dans google, il n'y a donc plus que 850 pages d'indexées.

Le plus troublant est qu'il semble s'agir d'une désindexation d'une extrême précision avec presque exactement -50 pages/jour
 
WRInaute impliqué
marion17 a dit:
luxe camapgne c'est quoi un backlink profond ?

metre un maximum de lien profond sur notre page d'acceuil ou une page de second niveau ?

Un BackLink profond est simplement un lien fait vers une page profonde de notre site (qui n'est pas la page d'accueil) depuis un autre site.
Il y a dans les outils de Wri je crois un zinzin pour calculer la part de BL profond pour un site.
Cela permet à Google de voir que des pages internes du sites sont liées depuis d'autres sites, ça ressemble donc plus à des liens "naturels et spontanés" qu'à du référencement.
 
Discussions similaires
Haut