Trop de javascript entraine un malus?

WRInaute discret
Je sais que je peux mettre une partie de mon javascript dans une fichier annexe mais mes pages étant autogénérées c'est plus simple pour moi pour l'instant de garder tout mon code sur une même page.

Est ce qu'une quantité importante de javascript (un tier du poids de la page) peut entrainer un malus sur google ou autre?
Je veux dire est ce que quelqu'un en a vraiment la preuve?
 
WRInaute discret
place bien les <!-- --> autour de ton code, si jamais google voulait le lire il ne le fera, normalement, pas.

Néanmoins google ne télécharge plus rien au delà d'une certaine taille non ? Donc si 1/3 de ta page c'est qqch qui sert à rien et que t'as page est très grosse, ben google va s'arrêter de télécharger très tôt dans ta page, ce qui pénalise.

Enfin je crois.
 
WRInaute accro
Assure-toi que ton javascript est le plus bas possible dans ton code, juste avant que tu en aies besoin (tant que possible).

exemple:
s'il te le faut dans le <head>, mets-le après tes déclarations <title>, <description> etc... pour t'assurer qu'elles soient lues.

s'il te le faut pour afficher un marqueur de suivi, mets-le en toute fin de code

etc...
 
WRInaute occasionnel
En théorie ça n'a strictement aucune influence ! Je m'explique : Google commence par retirer javascrit, flash de la page et seulement aprés l'index, donc il ne verra que ce qu'il reste.
 
WRInaute accro
J'ai plein de javascript sur mes pages et aucun probleme moteur ni google ni autres.

Dans le meme genre de question, faut il espacer le code de la page avec des lignes vides le plus souvent possibles, et est ce que ça a une incidence sur la lecture des moteurs sur les pages
(pitié ne me ressortez pas les consignes w3c, seulement du vécu ;) )
 
WRInaute occasionnel
He bien justemetn je te parle de vécu, mais tu n'as pas du réellement lire ce que je disais... je dit pas que ton site ne sera pas indexé à cause du javascript, mais que le javascript est ignoré par google (j'ai fait les tests)
 
A
Albert1
Guest
Thierry Bugs a dit:
Dans le meme genre de question, faut il espacer le code de la page avec des lignes vides le plus souvent possibles, et est ce que ça a une incidence sur la lecture des moteurs sur les pages
(pitié ne me ressortez pas les consignes w3c, seulement du vécu ;) )
à ma connaissance le W3C ne s'est pas exprimé sur ce point !

à vérifier :wink:
 
WRInaute discret
Merci pour toutes vos réponses!

"Google commence par enlever les scripts"... Il enlève radicalement ou considère quand même les scripts comme des blocks séparateurs?
En plus clair : "S*per Mp*3 <script>......</script> Gr*tuit" sera compté comme une occurence de sup*r m*3 g*atuit ou pas?

On peut vite arriver à du spam sans faire gaffe du coup si c'est le cas... C'est mon inquiétude!

PS : Pareil pour les table, est ce qu'un <td> est séparateur ou non, les simulateurs de spidering sur le web semblent dire que non, j'ai du mal à croire que google est aussi "stupide"...
 
Nouveau WRInaute
Startide: Pour ce qui est de "télécharger", le spider lit toute la page, même très grosse. Il n'y a qu'a regarder les caches. Les javascripts sont d'ailleur inclus (et actif puisque le javascript est exécuté en local) dans ces caches.

Gwinch:
Pour ce qui est du référencement: Google se base sur le contenu informationnel d'une page. Donc les balises (du type <TD> par ex. puisque la question a été posée) sont généralement ignorées.
J'ai cru comprendre que tout de même certaines balises qui ont un sens en terme d'information (<H1></H1>, <LABEL></LABEL>, etc.) pourraient avoir un effet sur Googlebot et hierarchiser le contenu d'une page.

Enfin le contenu des balises <SCRIPT></NOSCRIPT> ne sont évidemment pas traitées pour indexer une url, et heureusement!

A priori http://www.spider-simulator.com/ te montre quel est le contenu vu par un robbot. A toi de mettre l'essentiel de l'info le plus tôt possible. Ce ne sera que meilleur pour les robbots (google n'est pas le seul à te rendre visite) et pour le lecteur qui par nature est faignant et n'hésitera pas à zapper ta page si son info ne saute pas aux yeux.

A ta question d'occurence, normalement tout bon robot qui se respecte verra " sup*r m*3 g*atuit ".
 
WRInaute impliqué
chourmo a dit:
Startide: Pour ce qui est de "télécharger", le spider lit toute la page, même très grosse. Il n'y a qu'a regarder les caches.

tiens ben d'ailleurs à ce sujet ;
il fut un temps (ya pas si longtemps) ou la limite indexable par GG était de 101 ko, or cette limite a sauté, à ce qu'il paraît - j'ai retrouvé un post ou Olivier parle d'une page de plus de 400 ko indexée.-

c'est bien beau tout ça, mais quelque chose me dit qu'il ne va tout de même pas indexer des documents de 10 Mo en entier, non plus ... quelqu'un sait quelle peut bien être la nouvelle limite ?
 
WRInaute accro
chourmo a dit:
Donc les balises (du type <TD> par ex. puisque la question a été posée) sont généralement ignorées.

Tu parles du <td> qui est dans
Code:
<table>
 <tr>
  <td>
  </td>
 </tr>
</table>
:?:

Je veux dire... Aucun site utilisant des tables ne serait indexé si on en crois ce que tu dis là...
 
WRInaute discret
Moi je parle bien de ça... Mais je pense que Chourmo voulait dire que des keywords dans des cellules différentes d'un tableau sont considérés à priori comme étant l'un à côté de l'autre et non pas séparés? C'est bien ça?

Je veux dire :
<table>
<tr>
<td>
Super lapinfou
</td>
<td>
vert
</td>
</tr>
</table>

Augmente la densité de "super lapinfou vert" si je comprend bien.
De quoi avoir des densités très élevées de combinaisons de keywords alors que le site ne semble pas surchargé visuellement :(
 
WRInaute discret
En même temps le javascript tu peut presque tout mettre dans un fichier .js (comme les .css), comme ca plus de problème ;)

Et c'est quand même nettement plus clean ;)
Et puis l'user le garde en cache, donc il le télécharge pas à chaque fois (comme pour les .css, les images, ...), donc c'est plus light :)
 
WRInaute occasionnel
He bien visiblement google, si tu regarde la version texte en cache, prend le texte brut (c'est pour cela qu'il retire jscript et image [sauf alt]) et donc les texte du tableau se retrouve à la queue le le...
 
WRInaute accro
Giviz c'est une excellente idée de passer le javascript des pages dans un fichier .js , je n'y avais jamais pensé :) ça doit etre interessant pour le temps de chargement des pages. Sais tu s'il y a des problemes parfois avec cette technique ?
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut