Bonjour
Mon site :
1200 - 1400 vu / jour
2000 - 2300 visites / jour
Pour mon site ( voir profil ) :
Mes pages de stats, ont les données en Javascript/Ajax ( non visibles dans le code html ) pour les visiteurs, et dans le code html ( visibles ), pour les robots.
Ceci, pour que des visiteurs malintentionnés ne puissent "piquer" ma database ou mes pronostics.
Disons que, pour un Turfiste moyen, sniffer mes données serait possible, mais les éditeurs de sites de Turf, ne sont pas nécessairement des hackers.
Je détecte les robots en comparant leur reverse à une liste de tokens censés correspondre à des moteurs de recherche.
Le contenu est rigoureusement le même dans les deux cas ( robots ou pas ), ce que j'ai vérifié il y a quelques mois.
Mon site est en ipv4 uniquement pour l'instant.
Il pourra passer en ipv6 aussi sans problème, si les VPS 2016 SSD 3 de OVH, se mettent à accepter les ipv6.
A ce moment-là, il y aura problème pour savoir les reverses.
Question 1 : Est-ce du cloaking ?
Question 2 : Dois-je tout mettre en Javascript ?
Question 3 : Si je le fais, quel conséquence pour mon référencement ? ( court, moyen, long terme ).
J'ai actuellement : 30500 pages référencées.
Si je met mes stats en javascript, Google va avoir des soucis pour interpréter ?
Pour afficher les données, il faut :
- Garder la session,
- Que le chargement dure moins de 30 secondes ( environ ).
Si Google a des robots qui ne gardent pas les sessions lors d'un chargement de page, impossible pour lui de référencer mon site en javascript ?
L'Id de session me sert d'index unique pour retrouver les données enregistrées dans la database, lors de l'affichage des données en Javascript.
Il y a également une nécessité, que le header du chargement des urls en Ajax, soit détecté comme Agent classique d"un chargement en mode Ajax ( me souviens plus des détails ).
Que faire ?
Mon référencement souffre-il déjà de ce problème ?
Faut-il le résoudre ?
Merci beaucoup de vos réponses.
Respectueusement.
Mon site :
1200 - 1400 vu / jour
2000 - 2300 visites / jour
Pour mon site ( voir profil ) :
Mes pages de stats, ont les données en Javascript/Ajax ( non visibles dans le code html ) pour les visiteurs, et dans le code html ( visibles ), pour les robots.
Ceci, pour que des visiteurs malintentionnés ne puissent "piquer" ma database ou mes pronostics.
Disons que, pour un Turfiste moyen, sniffer mes données serait possible, mais les éditeurs de sites de Turf, ne sont pas nécessairement des hackers.
Je détecte les robots en comparant leur reverse à une liste de tokens censés correspondre à des moteurs de recherche.
Le contenu est rigoureusement le même dans les deux cas ( robots ou pas ), ce que j'ai vérifié il y a quelques mois.
Mon site est en ipv4 uniquement pour l'instant.
Il pourra passer en ipv6 aussi sans problème, si les VPS 2016 SSD 3 de OVH, se mettent à accepter les ipv6.
A ce moment-là, il y aura problème pour savoir les reverses.
Question 1 : Est-ce du cloaking ?
Question 2 : Dois-je tout mettre en Javascript ?
Question 3 : Si je le fais, quel conséquence pour mon référencement ? ( court, moyen, long terme ).
J'ai actuellement : 30500 pages référencées.
Si je met mes stats en javascript, Google va avoir des soucis pour interpréter ?
Pour afficher les données, il faut :
- Garder la session,
- Que le chargement dure moins de 30 secondes ( environ ).
Si Google a des robots qui ne gardent pas les sessions lors d'un chargement de page, impossible pour lui de référencer mon site en javascript ?
L'Id de session me sert d'index unique pour retrouver les données enregistrées dans la database, lors de l'affichage des données en Javascript.
Il y a également une nécessité, que le header du chargement des urls en Ajax, soit détecté comme Agent classique d"un chargement en mode Ajax ( me souviens plus des détails ).
Que faire ?
Mon référencement souffre-il déjà de ce problème ?
Faut-il le résoudre ?
Merci beaucoup de vos réponses.
Respectueusement.