Megamenu et version en cache du site

WRInaute occasionnel
Bonjour!

Je me pose une question. Un de mes sites inclut un Megamenu qui comporte 100 entrées environ (100 liens donc). Or, si je regarde la version texte de mon site avec un spider simulator, il apparaît très clairement que ces 100 liens constituent les premiers mots que voient les bots. Mon contenu éditorial vient donc après...
Cela nuit-il au référencement que les 200-300 premiers mots de la version en cache de mon site soit constitués par ces liens sur toutes les pages de mon site ?

En gros, mon Megamenu, crée, quand on voit la version en texte seul de mon site 300 mots une sorte de "contenu dupliqué" de 300 mots identiques sur toutes les pages de mon site...
Cela nuit-il au référencement de mon site ? Comment faire pour remédier à ça ? Existe-t-il une technique qui ne soit pas du SPAM et qui permettrait que ces 100 liens et n'apparaissent pas sur toutes mes pages?

H.
 
WRInaute accro
cache ou pas ça change rien.

Sinon Dieu inventa Ajax, mais quid du liage du site ensuite (crawl naturel sans sitemap).
Après un peut de repos il inventa aussi CSS pour balancer le contenu pauvre en fin de code et mettre en avant le contenu riche ... Et encore après il y eu les indexs qui permettent de soulager les menus mais ajoutent des pages intermédiaires.

Bref un mix des 3 ça donne liens sur les indexs dans le menu plus complétion des liens "pages" via ajax (donc pas vues au chargement par les moteurs allégement du DC interne et de la structure répétitive du code) le tout en bas de code HTML avec des indexs qui reprennent la totalité des liens de rubrique pour un crawl naturel ....

Si t'ajoute un peu de contenu aux indexs ça fait même de très bonne pages a référencer

Il y a surement d'autre possibilités
 
WRInaute discret
... le CSS pour remettre en haut le menu alors qu'il est en bas dans le code.

Puis Google inventa la lecture du CSS afin de prendre en compte le positionnement et la taille des contenus pour y donner plus ou moins d'importance, et on se sera cassé la nénette pour rien parce que ça revient au même :)

Strekk
 
WRInaute occasionnel
Merci pour vos réponses.

Mais présenter un contenu différent au bot et aux internautes (ou organisé différemment) n'est-ce pas du SPAM ??

Je ne comprends pas ce que tu veux dire par là Strekk :
"Puis Google inventa la lecture du CSS afin de prendre en compte le positionnement et la taille des contenus pour y donner plus ou moins d'importance, et on se sera cassé la nénette pour rien parce que ça revient au même"
Que quoi qu'on fasse le megamenu restera toujours en haut pour Google ?

H.
 
WRInaute accro
Non il n'y a pas de spam la dedans le contenu est le même pour tous le monde. Et je pense que tu voulais parler de cloaking qui consiste a présenter un contenu optimisé moteur donc différent pour l'internaute mais ça concerne surtout le texte.

Dans le cas que je te décris ce qui change entre un bot et un visiteur est la fonctionnalité qui sera utilisé par l'humain mais pas par le moteur. Mais un vérificateur humain qui visiterait ton site depuis une IP google bot verait la même chose qu'un autre donc il n'y a pas de cloaking ....

Google inventa la lecture du CSS afin de prendre en compte le positionnement et la taille des contenus pour y donner plus ou moins d'importance
je pense qu'on en est très très loin, ou tout du moins que ce n'est pas ou ne sera pas un axe majeur. En effet CSS (en tant que code) pour dissimuler ou positionner voir calligraphier sera toujours présent dans des cas WH et BH de la même façon. Il sera, par exemple, quasi impossible d'affirmer que le positionnement négatif d'un élément (hors champ visible) est fait pour tromper le moteur ou pour une raison d'animation cinématique légitime sans avoir un coup d’œil humain.

Si on considère l'analyse image qui se généralise chez google, il est plus probable de penser que c'est cette technique qui risque d'influer plus qu'un bête analyse de la sémantique CSS du site.
 
Discussions similaires
Haut