Un zeste ou une louche de nofollow / noindex ?

WRInaute discret
Bonsoir,

Je n'arrive pas à trancher malgré de multiples lectures sur le sujet. Pourriez vous me donner votre avis sur le problème suivant :

J'ai développé un site comparateur dans le domaine des articles de mode (http://www.mode-shop.fr/). J'ai particulièrement insisté sur les filtres proposés en entête des listes de résultats pour affiner les recherches (c'est l'un des atouts d'un bon agrégateur de catalogues à mon avis).
Chaque lien dans ces filtres est donc une url. Cette multiplication de filtres fait que le nombre d'urls distinctes gérées devient vite vertigineux (je n'ai pas fait le compte mais plusieurs centaines de milliers au moins). Par exemple là au hasard - http://www.mode-shop.fr/-categories-/Top-Homme/fff-cat_4/p-1_o-1/c-4/ - il doit bien y avoir 400 ou 500 liens dans les filtres vers des pages d'affinement de la recherche.

Ma problematique est donc : y a t-il un interet d'user à cet endroit de nofollow et/ou de noindex (sur les pages de destination) dans ce foisonnement, par exemple pour éviter du duplicate, ou limiter le nombre de liens pris en compte, pour pas vexer google ou je ne sais quoi
Ou alors dois je ne pas m'en inquiéter du tout, laisser tel quel, et les moteurs feront le tri eux mêmes.

Que feriez vous vous même dans ce cas ?
Merci de vos conseils.

Jerome
 
WRInaute accro
A ta place, étant donné que tes pages ne seront qu'une énième version des énième autres, je mettrai tout ça en noindex en ne gardant que les pages principales (bien positionnées dans ton architecture et ton linking interne) qui elles regroupent toutes les infos ou du moins les plus importantes.

Pour le nofollow, au vu de la nouvelle communication et quand on sait comment ça communique chez Google, je passerai les liens en nofollow :)
 
WRInaute discret
Merci pour l'article récapitulatif que je n'avais pas vu/lu (comme quoi quand on sait pas chercher...).
Donc, si on reste dans le premier degré de communication par Google (cad je fais ce que je dis) il n'y a pas à se soucier du duplicate content qui n'est pas pénalisant, et pas du pr sculpting qui ne sera plus efficace.
Autrement dit, on architecture comme on pense que le visiteur aimerait qu'on architecture. Finalement c'est plus simple.

Sauf si on voit du second degré dans la com de Google, comme toi L.jee ?
Suis bien avancé...

@L.Jee : "... énième version des énième autres..."
mode :lol: : Tout est comme dans la vie non ? Le boulanger ou le coiffeur au coin de la rue est le énième autre. La voiture qu'on achète a 4 roues et nous emmène au boulot comme celle du voisin qu'il a payé le double, le bébé qu'on a possède 2 jambes, 2 bras et une tête c'est banal, même les annuaires de site se ressemblent :roll: ... Mais tout est toujours plus subtile que ça, non ?

Jerome
 
WRInaute accro
Non rien à voir. Tous les coiffeurs n'ont pas les mêmes employés, les mêmes locaux, les mêmes tarifs ;) Ton contenu à toi c'est toujours le même, il est la le problème pour moi. En gros tu vas fournir à google 15 fois le même contenu présenté différement. Je le vois comme du spam et lui a mon avis le verra de la même façon, à quoi bon prendre un risque, enfin bon tu fais comme tu le sens ;)
 
WRInaute discret
Aaaahhh OK.
Je pensais que tu parlais du principe de faire un comparateur (un énième comparateur...). D'où bête quiproquo.
Je comprends mieux. Mais j'ai cru lire que le duplicate content n'entrainait de toute façon plus aucune pénalité ?
 
WRInaute accro
Oui c'est encore une belle communication made in Google, je te l'ai dis dans mon premier post ;)
 
WRInaute discret
Finalement, après mûre réflexion (2mn30 :wink: ), je vais suivre tes conseils.
J'ai regardé les logs, et je m'aperçois que googlebot s'engouffre dans les moindres petits liens, y compris ceux estampillés 'nofollow' ou absents du sitemap...
Ce sont donc certainement des centaines de milliers d'urls différentes qu'il peut potentiellement crawler sur le site. J'imagine qu'au bout de quelques milliers de duplicate, il va forcément s'énerver :evil: , et il aura raison.

Je génère par contre depuis le début un sitemap bien propre, avec les principales urls : je vais faire en sorte que tout affichage de page ne figurant pas dans ce sitemap soit en 'noindex'.
Inutile de tenter le diable, tu as raison.

Merci.
Jerome
 
WRInaute discret
Je ressort ce post tout poussiéreux pour apporter une précision googleienne sur ce sujet précis, ce qui peut être utile pour le futur lecteur intéressé par la question.

Dans cet article sur les espaces infinis de crawl (http://googlewebmastercentral.blogspot.com/2008/08/to-infinity-and-beyond-no.html) , il y a un exemple qui correspond exactement au cas que j'ai décrit d'une page de résultats à partir de laquelle on propose des sous recherches en activant des filtres (couleur, marque, catégorie, etc), ce qui multiplie le nombre de pages de manière exponentielle.
Google préconise clairement d'utiliser un nofollow sur ces liens : une réponse aussi claire méritait d'être mentionnée :wink:
 
Discussions similaires
Haut