Web 2.0 et le référencement .

WRInaute accro
l'arrivée en force du web 2.0 dans le paysage internet fait de plus en plus descendre certains traitements des serveurs vers les navigateurs ... et les pages de sites étiquetées web 2.0 sont de plus en plus truffées de javascript ...

les bots des moteurs étaient jusqu'à aujourd'hui essentiellement orientés web 1.0 : un lien, une url, une page (je schematise un peu) ... voila donc de nouveaux défis pour les moteurs (après les css :wink: ) ...

comment ceux qui ce sont lancés dans l'aventure web 2.0 (il y en a ?) sur leurs sites concilient ils cette approche avec les impératifs liés au référencement ?
 
WRInaute discret
Sur les pages qui ont du javascript j'ai remarqué que le PR à tendance à monter ...

Mais au niveau positionnement je me suis pas amusé à optimisé ses pages là ... mais je suppose que ca doit aider ...

Sinon petit souci avec google qui m'indexais du code javascript à la suite d'une requète ajax! (je sais pas ou il eu le liens ... dans le javascript ? Ailleur ? (erreur de ma part)) ?

bref j'ai mis dans mon robots.txt une interdiction sur mon répertoire ajax/

Le javascript semble apprécié de google, mais il ne faut sans doute pas trop en abuser ;)
 
WRInaute accro
ah mon avis ils font comme pour le flash, des pages sattelittes et un nombre fou de BLs, il n y a pas trop d'autres solutions en attendant l'évolution des moteurs...
 
WRInaute accro
Une solution existe quand même.
Deux versions du site, une Web 1.0 et une Web 2.0.
Les utilisateurs n'ayant pas javascript activé voient la version 1.0 et les utilisateurs ayant les logiciels requis voient la version 2.0.
 
WRInaute discret
Cela concerne surtout les sites en Ajax avec une forte utilisation des DOM, car la plupart des sites Web 2.0 n'ont pas ou peu d'ajax et sont très optimisés pour le référencement.

J'ai refondu un de mes sites tout en Ajax (celui de mon www), et ma foi cela me permet de ne plus du tout me préoccuper du référencement sur les moteurs de recherche. C'est un véritable bonheur, un retour aux sources !
Je mise tout sur la fidélisation des visiteurs, un utopique mini-buzz et ... une dizaine d'années :lol:

Donc la non-détection de mon contenu par les moteurs ne m'inquiéte pas du tout. Par contre il semble que certaines régies et certains outils de stats aient des difficultés à considérer les callbacks Ajax.

Je doute que les moteurs de recherche se plient aux exigences des sites Ajax, tout simplement parce que je ne pense pas qu'un site avec beaucoup de contenu ait un intérêt quelconque à cacher son contenu derrière du javascript. Ajax est une technologie pour faire des outils et des services, pas des sites web à contenu.
 
WRInaute accro
Takumi a dit:
Je doute que les moteurs de recherche se plient aux exigences des sites Ajax, tout simplement parce que je ne pense pas qu'un site avec beaucoup de contenu ait un intérêt quelconque à cacher son contenu derrière du javascript. Ajax est une technologie pour faire des outils et des services, pas des sites web à contenu.
pourtant, un moteur de recherche se doit d'être non intrusif ... et dans la mesure où les moteurs recommandent "chaudement" de ne pas développer son site pour les moteurs, c'est bien à lui de s'adapter à l'évolution du web, non ?
 
WRInaute passionné
Cendrillon a dit:
Takumi a dit:
Je doute que les moteurs de recherche se plient aux exigences des sites Ajax, tout simplement parce que je ne pense pas qu'un site avec beaucoup de contenu ait un intérêt quelconque à cacher son contenu derrière du javascript. Ajax est une technologie pour faire des outils et des services, pas des sites web à contenu.
pourtant, un moteur de recherche se doit d'être non intrusif ... et dans la mesure où les moteurs recommandent "chaudement" de ne pas développer son site pour les moteurs, c'est bien à lui de s'adapter à l'évolution du web, non ?

J'ai eu la confirmation vendredi matin que les bots sont capables de s'adapter à des scénarios complexes/
80 GET pour la même page, pour 80 scénario différents.
Mais ceci n'est pas vraiment d'actualité sur un des moteurs publics.
 
WRInaute passionné
Attention : Web 2.0 n'est pas une technique en particulier, plutôt un ensemble de fonctionnalités et d'usages. On ne peut donc pas dire que le web 2.0 est bon ou néfaste pour le référencement.

Tout ce qu'on peut dire c'est que du javascript (AJAX) non accessible a tendance à nuire au référencement, mais qu'il ne pose pas de problème quand accessible.

Certains usages typiquement web 2.0 comme le tagging eux sont positifs pour le référencement puisque ils densifient le maillage des liens.
 
WRInaute discret
Cendrillon a dit:
pourtant, un moteur de recherche se doit d'être non intrusif ... et dans la mesure où les moteurs recommandent "chaudement" de ne pas développer son site pour les moteurs, c'est bien à lui de s'adapter à l'évolution du web, non ?

Oui c'est exact :)
Mais plus la révolution du Web 2.0 démontre son bien-fondé et plus je suis sceptique sur l'avenir des sites "à contenu" tout-Ajax.
Un site tout-Ajax ne devrait pas avoir besoin de se référencer sur les moteurs de recherche.
 
WRInaute accro
Takumi a dit:
Un site tout-Ajax ne devrait pas avoir besoin de se référencer sur les moteurs de recherche.
je ne comprend pas ce que tu veux dire ... certes aujourd'hui un site tout-Ajax est un buzz à lui tout seul (cf netvibes) mais quand cette approche se sera généralisée, il faudra bien les trouver ces sites ... et les moteurs seront toujours là ...

French Dread a dit:
Attention : Web 2.0 n'est pas une technique en particulier, plutôt un ensemble de fonctionnalités et d'usages.
absolument et c'est pour cela que j'ai bien pris soin de ne pas parler de technologie web 2.0 (expression que l'on lit trop souvent) ... pour moi c'est plutôt une approche de développement ...

French Dread a dit:
On ne peut donc pas dire que le web 2.0 est bon ou néfaste pour le référencement.

Tout ce qu'on peut dire c'est que du javascript (AJAX) non accessible a tendance à nuire au référencement, mais qu'il ne pose pas de problème quand accessible.
néanmoins et dès lors que l'on cherche à ajouter de l'interactivité locale, il faut descendre le code au niveau du navigateur et donc ajouter du javascript (ou autres langage client) un peu partout dans la page ... et plus c'est interactif (sans recharger la page) et plus il y a de code, non ?

French Dread a dit:
Certains usages typiquement web 2.0 comme le tagging eux sont positifs pour le référencement puisque ils densifient le maillage des liens.
je ne crois pas que le tagging soit propre au web 2.0, pourquoi l'associes tu au web 2.0 ?
 
WRInaute discret
Pour illustrer ce que je voulais dire :

- un outil tel que Netvibes tout en Ajax n'est pas fait pour être référencé sur les moteurs de recherche.

- des sites web 2.0 à fort contenu ou de type "réseau social" tels que Wikipedia, MySpace, YouTube, etc n'ont pas d'intérêt à passer en Ajax (en dehors des formulaires et autres pages à faible plus-value d'indexation)
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut