Page crawlé composée de rubriques

Nouveau WRInaute
Bonjour,

J'ai sur mon site une série de pages composées de plusieurs rubriques. J'ai fait en sorte que les internautes puisse plier/déplier chacune des rubriques afin de masquer les rubriques qu'ils veulent. Ce pliage n'est pas encore en Javascript et est donc une série de liensqui effectue un reload avec en parametre le nouvel état de pliage/dépliage des rubriques.

Je me pose la question suivante:

Google suit "betement" les liens et effectue donc toutes les combinaisons possibles de la page, il y en a donc 2^n. Sachant que la version par défaut de la page est "toutes rubriques dépliés", est ce que dans ce cas, il serait légitime de faire du cloaking afin d'éviter aux robots d'indexer des pages qui sont quasiement identiques. De plus ne vaut-il pas mieux que dans l'index de Google il n'y ait qu'une seule version de la page et non toutes ses délinaisons, qui forcement contiendront moins d'information.
Par ce cloaking je ne cherche pas à gruger Google, mais à éviter le bruit.

Denigrer le cloaking systématiquement est à mon avis une erreur, l'utiliser à bon etient peut être interessant dans certains cas.

J'attends vos réactions.
 
WRInaute passionné
Je pense que tu as répondu tout seul a la question, et pour ma part je suis d'accord avec ta reflexion!

Apres il faut voir comment est composé ton menu, peut etre que ce n'est pas utile... il faut voir
 
WRInaute impliqué
Je vais peut-etre dire une bétise, mais tu dois avoir un parametre qui passe pour savoir la rubrique que tu plies ou déplies, tu pourrais alors jouer avec robots.txt en mettant d'interdire les pages qui serait pas déplié par exemple.

A+
 
Nouveau WRInaute
Merci pour vos réponse.

J'ai aussi un autre moyen de provoquer du cloaking sans le "vouloir":

* Transformer les liens <a href= ></a> en autant de formulaire avec sumit en forme d'image que l'internaute enverrai en GET ou POST
* Mettre du javascript derriere le <a href></a> ce qui evite que les robots suivent le lien.

Du coup les robots ne pourraient voir que la page en version tout entendu.

Je me poste aussi la question:

* avoir 2^n pages au lieu d'une indexé, c'est aussi un moyen (artificiel) d'avoir un site avec beaucoup de pages. D'un autre coté, il y a 2^n-1 pages qui ne font que reprendre la page de base, en version plus pauvres.

Qu'en pensez vous?
 
WRInaute impliqué
clifden a dit:
* Mettre du javascript derriere le <a href></a> ce qui evite que les robots suivent le lien.

ça il te faut oublier c'est dommage c'est 10% d'internautes en moins ce sont les chiffres de juillet 2005.
 
Discussions similaires
Haut