Strikingly et Googlebot : Contenu invisible dans la Search

Nouveau WRInaute
Bonjour à toutes et à tous,

Je me permets de venir chercher un peu d'aide par ici concernant une question qui me taraude grandement.

J'ai monté un site de brocante en ligne en utilisante le CMS Strikingly pour les raisons assez classiques :
Rapidité, coût peu élevé, facilité d'utilisation etc etc...

Jusqu'ici tout va bien.

c'est au moment de m'intéresser au référencement que les choses se compliquent.

Après avoir réalisé l'ensemble des étapes classiques avec rattachement à mon nom de domaine, meta description remplie, sitemap etc etc...
Je vais faire un tour sur la search console.
Mes pages sont indexées, no souci.

Par contre, lorsque j'en viens à tester une exploration et afficher comme google, qu'elle ne fut pas ma surprise lorsque je découvris que les pages de mon site sont quasiment vides aux yeux de Google.
J'imagine donc que l'ensemble du contenu, du texte donc des mots clefs passent à l'as aux yeux de Google (javascript ?).
Bizarrement ce problème n'existe pas sur leur module de blog qui lui, affiche bien l'ensemble du texte quand je teste :

Voici des exemples plus parlant :

Page classique du site :



Et comment google me l'affiche dans la search console :




A l'inverse, le moteur de blog lui ne pose pas de souci et bizarrement je rank super bien sur les mots clefs de mes articles et ce sont uniquement les articles du blog qui remontent dans Google et non pas d'autres pages du site :

Affiche web classique :



Et dans la search :


Voila, je pense que le problème est assez parlant et en dehors du fait que je pense, Google bloque sur le javascript des pages la ou il n'y en a surement pas sur la partie blog, je ne vois pas.

Merci pour votre aide PRECIEUSE.

Bonne journée.
 
WRInaute impliqué
je dirai, regarder le site en désactivant javascript. Et la on obtient un site très étrange.
Dans la première pages 3 lignes de contenu et 200 lignes de conditions générales.
Sinon rien ne va, le javascript n'est pas bon, il y a des scrollbars a l'interieur des scrollbars,
les effets sont ratés. En gros c'est un amas d'effets trop rapides. Tout absolument tout va trop vite.
C'est repoussant tellement ca gicle de partout.
Bravo, un nouveau cas d'école à citer. Sur tout le site, pas un seul élément ou s'accrocher. C'est parfait pour les conversions
 
WRInaute accro
Commence par revoir la hiérarchisation de tes balises Hn et par la même occasion les virer pour tout ce qui concerne ton texte :) la fameuse H6 :)

Pensez aussi à vérifier qu'il n'y a rien qui bloque le crawl complet de la page => Partiel !
 
Nouveau WRInaute
Le problème c'est que sur ce CMS, on a pas accès aux balises etc...
En gros pas d'accès au backoffice en somme...
J'ai désactivé les effets de défilement et d'animation.
Ca changera peut être quelque chose...
 
WRInaute passionné
@elas
"regarder le site en désactivant javascript"

Personne ne fait cela, pas plus que les google bot, en dehors des développeur en mode parano... ou resté figé 20 ans en arrière. :)
 
WRInaute accro
@Koxin-L.fr : les bots n’exécutent pas la totalité du JS, loin de là (voir le cas des sites développés sous Angular & Co qui sont en mode client rendering - voire des solutions comme Wix, très similaire à celle pointée ici -). Elas est peut-être extrême dans sa manière de pointer le souci, mais le souci est réel. De très nombreux tests ont été effectués ces derniers mois concernant le crawl de sites full JS, et c'est loin d’être la panacée...
 
WRInaute impliqué
alors je dirai : désolé, vraiment désolé, comme on dit : on pensait qu'il avait touché le fond mais il s'est remis à creuser.
Désolé, il y a foot, je ne peux plus passer du temps sur cette m...
Mais comment peut-on penser un quart de millieme de seconde qu'on puisse penser que quand on conseille de désactiver le javascript, derrière cela signifierait que les visiteurs le font.

Sinon oui, désolé, mais rien a changé dans le web depuis bien plus de 20 ans déjà. Ou alors je ne sais pas, peut être que les serveurs que le http a aujourd'hui plus de 3 commandes qui se court après, à voir
 
WRInaute accro
@elas : les bots exécutent de plus en plus de JS. Le Bot est désormais capable de faire du rendering pour des sites full JS. Mais en terme de positionnement ce n'est pas la panacée, car le crawl est très lent... et il n'est pas encore capable de tout prendre en compte / crawler.
 
WRInaute impliqué
oui bien sur, bien sur... Donc si jamais : c'est qui le bot ? Sincèrement chaque fois que je lis le bot fait ceci ou cela, google fte fait ceci ou cela : j'aimerais bien savoir si la personne connait ce fameux google..
Allez osons un mot savant : cela s’appelle de l'anthropomorphisme (peu importe).
Mon avis qui n'engage que moi (et je ne suis pas un expert en javascript, bien que je le pratique depuis plus de 10 ans, et qu'il fait partie des derniers langages que j'ai sélectionné au fil du temps).

Ci-dessous des évidences que tout le monde connait

Le javascript (on va oublier node et les derniers bidules qui au passage reviennent vraiment à programmer des serveurs web comme on le faisait il y a très longtemps), je me trompe peut être, permet de modifier les 2 éléments de base d'une page web : le html et le css
Oublions aussi html5 para rapport à toutes ces nouvelles possibilités.

Donc : en gros dans une page on a du html (a la base de tout page web) et du CSS pour l'aspect.

Le javascript permet uniquement de modifier le html, le CSS = tout ce qu'on veut. Aussi bien créer du nouveau html, css, placer des évènement sur chaque élément, la page... tout faire.

Mais !!! il y a je crois une seule (peut être quelques autres, je ne connais pas tout) fonction de sortie dans le browser = alert

Et les bots ne sont pas des browsers, il ne font pas du rendering et donc non il n'ont aucun moyen d'exécuter du javascript ou quoi que ce soit. Ce sont juste des programmes qui ne sont pas des marsiens, et donc travaillent avec les mêmes protocoles web que vous et moi, sont développés avec les mêmes langages de développement dont tout développeur a accès...
Le programme (robot) envoie soit une commande get (auparavant a l'époque d'altavista et des premiers bot, une autre commende "perdue" du http = la commande : head)

Oui ils parsent les pages, parce qu'il faut bien aller chercher les liens pour avancer dans la recherches. Donc anciennement juste les balises A. Oui aujourd’hui, ce serait stérile de ne pas parser aussi les onclick du javascript dans les liens.

Mais dela à penser qu'un programme robot (on fait tous de anthropomorphisme, moi le premier) va s'emmerder à faire le rendering pourri d'un javascript alambiqué alors que son but est d'être exhaustif et de "surveiller" plus de 8 milliards de pages web (d'accord il n'y a pas qu'un seul robot, mais 8 milliards de secondes ça fait beaucoup de secondes et dans le seo il faut aussi savoir se faire "crawle")

Google aime bien que tu l'aides, et que tu lui donnes des pages faciles à comprendre pour ses robots. Il pense que c'est plus sympathique de faire une page qui va marcher à coup sur dans son algorittme. Du vieux ou même du plus récent html5, qui contient le contenu et on ne met pas tout le contenu dans la même page. Ensuite, pour faire joli du css. (c'était mon paragraphe SEO).

Et, et , et ... du javascript pour travailler et modifier tout cela "à la volée" (mais pas de la daube)



J'ai encore plus vieux que déconnecter le javascript si jamais (ou alors programmer des sockets mais restons utilisateurs)

Dans windows (ou linux, ou tout system) : ouvrir une fenetre de commande
Taper telnet "ici l'url du site web'

Ensuite probablement vous aurez un ecran noir, et pas d'echo sur la touche clavier

Mais tapez

GET /

et vous voila en mode robot

GET /

Vous voila avec votre page web.

Remontons dans le temps avec les robots... (après c'est juste le crawl, une fois la donnée dans la base, qui sait ? et surtout qui sait ce qui est sauvé dans la base ? Mais on est sur un pied d'égalité, c'est aussi grâce au javascript maintenant qu'on ne donne a google que ce qu'on veut bien lui donner)
 
Dernière édition:
WRInaute impliqué
rien de neuf. Beaucoup de blabla et au final toujours le même discours.
Google produit angular, google a racheté et développé chrome (qui effectivement a marqué un grande évolution des moteurs javascript). Bref rien de neuf. (je ne connais pas les SEO de POLAND, mais même ceux de référence aux UK, aussi les néerlandais et par ricochet les indiens, et c'est toujours le même principe qui régit le monde du SEO depuis toujours, blabl blabla et pourtant on a travaillé ensemble)
 
Dernière édition:
Discussions similaires
Haut