Hello!
J'ai un dilemne que je vous expose:
Imaginon un site en flash, avec un javascript de détection. Si le plugin flash n'est pas detecté (ce qui est le cas pour un robot), alors le scritp active la visibilité du DIV caché, ou se trouve le site en html.
Sur le même site, il existe également une balise noscript, contenant également une copie du site en html.
Résultat, on a sur la même page, le site en HTML 2 fois.
Les questions sont les suivantes :
1. le robot google est-il capable de passer au travers du détecteur javascript?
2. le robot google parcourt-il les divs cachés?
3. le robot google archive-t-il la version avec script ou la version noscript?
4. et finalement, est-ce pénalisant d'avoir la même contenu répeté 2 fois dans la source (une fois dans le div et une fois dans le noscript) ?
Merci infiniment de votre aide.
jOoL
J'ai un dilemne que je vous expose:
Imaginon un site en flash, avec un javascript de détection. Si le plugin flash n'est pas detecté (ce qui est le cas pour un robot), alors le scritp active la visibilité du DIV caché, ou se trouve le site en html.
Sur le même site, il existe également une balise noscript, contenant également une copie du site en html.
Résultat, on a sur la même page, le site en HTML 2 fois.
Les questions sont les suivantes :
1. le robot google est-il capable de passer au travers du détecteur javascript?
2. le robot google parcourt-il les divs cachés?
3. le robot google archive-t-il la version avec script ou la version noscript?
4. et finalement, est-ce pénalisant d'avoir la même contenu répeté 2 fois dans la source (une fois dans le div et une fois dans le noscript) ?
Merci infiniment de votre aide.
jOoL