Bonjour à tous,
J'ai une question SEO dans le cadre d'une refonte.
Les développeurs servent 2 versions du site (codes sources différents) en fonction de l'User Agent.
Version USER : Si c'est un internaute lambda, on lui sert le site (en JS "je crois") car c'est plus User friendly. Et visiblement plus simple pour les développeurs.
Version ROBOT : Si c'est un bot (ex: GoogleBot), on lui sert alors une version HTML classique avec du contenu, des balises Hn, des liens hypertexte, etc.
Dans la théorie il ne devrait pas y avoir de soucis (ou alors je n'en vois pas), puisque le GoogleBot verra une version HTML du code, semblable à ce que l'on trouve sur la plupart des sites ou sur notre version actuelle.
Mais dans la pratique qu'en est-il d'un point de vu SEO / Indexation ?
Je ne sais pas si mon explication est limpide, mais c'est la première fois que je me retrouve confronter à ce cas de figure et ça a tendance à me crisper
Quelqu'un a t-il un avis ?
J'ai une question SEO dans le cadre d'une refonte.
Les développeurs servent 2 versions du site (codes sources différents) en fonction de l'User Agent.
Version USER : Si c'est un internaute lambda, on lui sert le site (en JS "je crois") car c'est plus User friendly. Et visiblement plus simple pour les développeurs.
Version ROBOT : Si c'est un bot (ex: GoogleBot), on lui sert alors une version HTML classique avec du contenu, des balises Hn, des liens hypertexte, etc.
Dans la théorie il ne devrait pas y avoir de soucis (ou alors je n'en vois pas), puisque le GoogleBot verra une version HTML du code, semblable à ce que l'on trouve sur la plupart des sites ou sur notre version actuelle.
Mais dans la pratique qu'en est-il d'un point de vu SEO / Indexation ?
Je ne sais pas si mon explication est limpide, mais c'est la première fois que je me retrouve confronter à ce cas de figure et ça a tendance à me crisper
Quelqu'un a t-il un avis ?