Scan googlebot: une résolution par défaut?

Nouveau WRInaute
Bonjour,

Nous faisons un site flex/flash, secondé en arrière par une version naviguable html identique à chaque page du flash, pour permettre un référencement sans faire de cloaking.
Egalement, notre site est redimensionné automatiquement en fonction de la résolution de la fenetre du navigateur.
En fonction de la taille de cette fenetre, nous avons 3 versions du site, pour adapter le contenu à l'espace disponible.

J'ai cherché pas mal en anglais et en français, mais je n'ai pas trouvé d'information claire sur la résolution du crawler google.
Comment cela se passe-t-il quand il vient checker un site? s'adapte-t-il automatiquement à la résolution du site visité? Dans ce cas il vaut mieux définir la version la plus grande comme étant celle par défaut, pour lui montrer le plus de contenu possible.
ou bien il est possible de définir la résolution normale d'indexation dans un tag ou autre? ou bien encore le bot scanne chaque page dans différentes résolution et en tient compte dans les résultats des recherches en fonction de la résolution du browser de l'utilisateur? (je crois pas qu'ils en soient déjà là)

merci par avance pour vos réponses!
 
WRInaute accro
Comme tous les robots, il n'y a que le texte qui compte pour lui (enfin presque), donc la résolution c'est un concept qui lui échappe complètement, puisqu'il ne fait jamais de rendu. Et comme ta détection de résolution se fait probablement en JS, le code en question n'est jamais exécuté, donc j'espère pour toi qu'il y a une version par défaut au cas où le JS ne serait pas exécuté.

Jacques.
 
Discussions similaires
Haut