2 versions du code source en fonction du User Agent [Indexation / SEO]

Nouveau WRInaute
Bonjour à tous,

J'ai une question SEO dans le cadre d'une refonte.

Les développeurs servent 2 versions du site (codes sources différents) en fonction de l'User Agent.

Version USER : Si c'est un internaute lambda, on lui sert le site (en JS "je crois") car c'est plus User friendly. Et visiblement plus simple pour les développeurs.

Version ROBOT : Si c'est un bot (ex: GoogleBot), on lui sert alors une version HTML classique avec du contenu, des balises Hn, des liens hypertexte, etc.

Dans la théorie il ne devrait pas y avoir de soucis (ou alors je n'en vois pas), puisque le GoogleBot verra une version HTML du code, semblable à ce que l'on trouve sur la plupart des sites ou sur notre version actuelle.

Mais dans la pratique qu'en est-il d'un point de vu SEO / Indexation ?

Je ne sais pas si mon explication est limpide, mais c'est la première fois que je me retrouve confronter à ce cas de figure et ça a tendance à me crisper
1f603.png
:D

Quelqu'un a t-il un avis ?

1561425004-code-html-seo.jpg
 
WRInaute passionné
on lui sert le site (en JS "je crois") car c'est plus User friendly. Et visiblement plus simple pour les développeurs.

48d.png


Mais surtout, est-ce que tout ce boulot vaut le risque de voir son site disparaître de Google s'il se rend compte de ce cloaking ? Car il s'agit de cloaking, et un concurrent peut par exemple faire un spam report. Pour moi, je ne cherche donc même pas à savoir s'il y aurait un avantage. Il faut développer un site qui soit à la fois user-friendly pour les utilisateurs et pour Google (qui comprend pas mal le JS de nos jours).
Je pense que vous parlez d'une PWA, il faut effectivement se renseigner pour qu'elle soit bien conçue pour que les Google bots puissent parcourir tout le contenu. Il y a des articles sur ça (au pif : https://www.keylimetoolbox.com/news/technical-seo-progressive-web-apps-pwa-javascript-ajax/ ).
 
Discussions similaires
Haut