Bonjour à tous,
je voudrais votre avis sur un problème de réf qui me turlupine un peu.
J'ai un site de e-commerce avec une base de 80 000 produits.
Il est bien optimisé pour les moteurs, avec notamment une structure de liens internes très dense, voire trop.
Les produits sont classifiés par plusieurs critères.
Pour expliquer mon problème, disons que les critères sont les suivants :
- prix
- taille
- catégorie
la recherche par lien est du type "faceted search" cad que vous pouvez cliquer sur un critère, puis affiner par les autres critères (catégorie > prix > taille / taille > catégorie etc...)
Bien que j'ai beaucoup de produits dans la DB, j'ai encore plus de combinaisons de pages de résultats avec le croisement de mes 3 catégories.
Par conséquent, j'ai un très grand nombre de pages sans résultat.
Elles sont sans interêt, se ressemblent enormément, et je soupçonne que cela impacte très négativement mon référencement.
J'envisage 3 solutions, et j'aimerais lire votre avis, ou vos idées :
1. La plus logique mais la plus difficile : une tâche cron qui calcule chaque nuit les combinaisons de critères avec des produits, et celles sans. J'affiche que les critères pour lesquels des produits existent.
2. J'insère un tag noindex sur les pages sans résultat
3. je supprime tous mes liens d'affinage depuis les pages ayant moins de X résultats
Evidemment, la 1ere parait idéale mais un peu galère niveau dev et perf.
La 2ème, là j'aimerais vraiment votre avis pour savoir si ca aiderait ou si c'est dangereux d'avoir des URLs données qui parfois ont un noindex et parfois ne l'ont pas ?
La 3ème est facile, réduit considérablement le nb de pages sans résultats, mais ne règle pas définitivement le problème
Alors vos commentaires et vos idées sont les bienvenues.
Dois je me lancer dans le dev en 1 ? (voire faire 3 rapidement puis 1)
Le dev en 2 marcherait il ?
Merci de votre aide,
je voudrais votre avis sur un problème de réf qui me turlupine un peu.
J'ai un site de e-commerce avec une base de 80 000 produits.
Il est bien optimisé pour les moteurs, avec notamment une structure de liens internes très dense, voire trop.
Les produits sont classifiés par plusieurs critères.
Pour expliquer mon problème, disons que les critères sont les suivants :
- prix
- taille
- catégorie
la recherche par lien est du type "faceted search" cad que vous pouvez cliquer sur un critère, puis affiner par les autres critères (catégorie > prix > taille / taille > catégorie etc...)
Bien que j'ai beaucoup de produits dans la DB, j'ai encore plus de combinaisons de pages de résultats avec le croisement de mes 3 catégories.
Par conséquent, j'ai un très grand nombre de pages sans résultat.
Elles sont sans interêt, se ressemblent enormément, et je soupçonne que cela impacte très négativement mon référencement.
J'envisage 3 solutions, et j'aimerais lire votre avis, ou vos idées :
1. La plus logique mais la plus difficile : une tâche cron qui calcule chaque nuit les combinaisons de critères avec des produits, et celles sans. J'affiche que les critères pour lesquels des produits existent.
2. J'insère un tag noindex sur les pages sans résultat
3. je supprime tous mes liens d'affinage depuis les pages ayant moins de X résultats
Evidemment, la 1ere parait idéale mais un peu galère niveau dev et perf.
La 2ème, là j'aimerais vraiment votre avis pour savoir si ca aiderait ou si c'est dangereux d'avoir des URLs données qui parfois ont un noindex et parfois ne l'ont pas ?
La 3ème est facile, réduit considérablement le nb de pages sans résultats, mais ne règle pas définitivement le problème
Alors vos commentaires et vos idées sont les bienvenues.
Dois je me lancer dans le dev en 1 ? (voire faire 3 rapidement puis 1)
Le dev en 2 marcherait il ?
Merci de votre aide,