Claque après Panda, besoin d'avis

Nouveau WRInaute
Bonjour,

Je fais appel à vous car sur notre site : www.trouvea.fr, on s'est pris une petite claque avec Panda, on a essayé de mettre en place tout un tas de trucs pour essayer de palier à ça (Yslow, Pagespeed, contenu, backlinks, temps de réponse, DC, etc), mais pour l'instant le redressement n'est pas celui escompté.

Je voulais donc savoir si une âme charitable pouvais aller faire un tour sur mon site et me dire ce qu'il pense qui pourrait encore être amélioré ?

Merci
 
Nouveau WRInaute
Une idée comme ça : ne serait-ce pas une sur-optimisation des mots clefs présents dans les liens du footer ? Enfin, c'est une des sources possibles je pense.
 
WRInaute impliqué
Bonjour,

Je trouve l'architecture avec des sous-domaines à la pelle un peu bizarre.

Quand on est dans la page:http://femme-de-menage.trouvea.fr/femme-de-menage/paris/S120V2436131
On a un arbrescence:
Accueil Trouvea
> Île-de-France
> Département de Paris
> Paris
> Aide ménagère
> Femme de ménage
> Femme de ménage Paris

Mais si on clique dans cette arborescence sur "aide ménagère" (2 niveaux au dessus) on se trouve ici:
http://www.trouvea.fr/aide-menagere/C9014

Je vois pas bien l'intérêt de passer entre les sous-domaines et le domaine principal sans arrêt.

Je dis pas que ça influence les résultats de recherche mais je comprends pas l'avantage de cette architecture. Pourquoi pas simplement des sous-répertoires ?
 
Nouveau WRInaute
Oui pour ça, et de plus on a un de nombre de pages référencées assez important (1 Million) qu'on a déjà pas mal diminué (mais google met du temps à le prendre en compte car pas possible de tout faire avec google webmaster tools. On a donc des pages en noindex, nofollow + des disallow dans le robots.txt mais ça semble fonctionner moyennement avec google, ou alors être TRES long à prendre en compte).
On a donc créé qqs sous-domaines afin de diviser ce nombre de pages par sous-domaines.
 
Discussions similaires
Haut