Référencement des sites web en ajax

S
suppr36306
Guest
Bonjour,

Je prépare un site en ajax http://v2.lookdir.net et je viens de mettre un fichier site map pour aider google au référencement, mais apparemment il ne suit que les liens en durs dans la page et ne sais pas comment faire pour les liens qui apparaissent au fur et à mesure de l'utilisation des fonctions ajax qui font le coeur du site.

Je me demandais comment faire pour retrouver un peu pres les memes indexations qu'avec l'ancienne version. J'ai entendu des trucs comme degradable ajax ou faire une page spéciale pour les crawlers avec les mots clés et les liens que l'on veut faire indexer par google.

Quel est votre avis ? et avez vous des conseils ?

Merci
 
WRInaute discret
Salut,

Comme dit Leonick, tu peux faire une page hallway (un plan de site) avec des liens en dur :

<a href="http://v2.lookdir.net/tags/blog+video/1">Blog Vidéo</a>
Pour rechercher les blogs qui traitent du traitement de l'image.
...

et/ou insérer tes liens entre les balises <noscript> (je ne connais rien en ajax mais je pense que ça fonctionne aussi ...)

@ +
 
S
suppr36306
Guest
Lebleu a dit:
Salut,

Comme dit Leonick, tu peux faire une page hallway (un plan de site) avec des liens en dur :

<a href="http://v2.lookdir.net/tags/blog+video/1">Blog Vidéo</a>
Pour rechercher les blogs qui traitent du traitement de l'image.
...

et/ou insérer tes liens entre les balises <noscript> (je ne connais rien en ajax mais je pense que ça fonctionne aussi ...)

@ +

ouais je pense que le plan de site sera m'a solution. Mais avec un contenu dynamique c'est pas évident. C'est plutot le textuel qui me pose un probleme. Puis-ce que c'est la seule chose que google référence avec les métatags.

Mais cest le contenu qui me gène parce que dans ma page principale il n'y a pas de contenu. Cela apparait avec les requetes DOM qui sont faites en arriere plan...

bref cest comme le flash cest pas évident. 8O
 
WRInaute accro
il faut se poser la question : Ajax apporte-t-il un réel plus aux visiteurs ou c'est juste pour entrer dans la vague web 2.0 ?
 
WRInaute accro
non !
d'où l'intérêt de se poser la question de ce qu'apporte réellement ajax au visiteur.
Parce que, si ajax renvoie une réponse à une requête tapée, genre un nom de ville, comme le robot va savoir ce qu'il faut savoir ?
les robots spammeurs auront plus vite fait d'apprendre à s'en servir, mais pas les bots :?
 
S
suppr36306
Guest
bref faut pas s'éloigner....mais je pense qu'on peut se focaliser sur du contenu textuel sur des pages réservé au bot en fonction de leur signature de leur useragent...
 
WRInaute accro
copyme a dit:
bref faut pas s'éloigner....mais je pense qu'on peut se focaliser sur du contenu textuel sur des pages réservé au bot en fonction de leur signature de leur useragent...
ca s'appelle comment ça déjà ?
ah oui, des pages satellites et je crois que les robots, surtout google apprécient :twisted:
 
WRInaute accro
Le mieux c'est encore d'utiliser Ajax uniquement lorsque c'est utile...
D'autant plus que ça n'est absolument pas accessible...
C'est mode du tout 2.0 va tuer Internet...
 
S
suppr36306
Guest
Audiofeeline a dit:
Le mieux c'est encore d'utiliser Ajax uniquement lorsque c'est utile...
D'autant plus que ça n'est absolument pas accessible...
C'est mode du tout 2.0 va tuer Internet...

Justement ca permet l'accessibilité. Son but est plus de rendre des outils web plus souples et plus réactifs et éviter les chargements de pages intempestifs.

D'après le Journal du Net http://solutions.journaldunet.com/0604/060414-referencement-web-2-ajax.shtml, 90% du JavaScript reste ignoré par les robots de Google. Mais c'est la meme chose pour le flash et le xml ou les sites en ajax...

Et attention il ne faut pas confondre web2.0 et ajax ce n'est pas du tout la meme chose.

C'est plutot l'application à mon avis qu'il faut référencer et non le contenu puis-ce que google ne peut y arriver. Il faut donc se concentrer sur l'application qui est destiné à l'utilisateur.

Et le buzz ajax et web2.0 peut aussi aider à faire connaitre un site et à avoir des liens de qualité.

Si des personnes ont le meme probleme que moi, n'hésitez pas à me contacter en privée
 
WRInaute impliqué
D'après ce que j'ai compris, aussi bien pour les moteurs que pour ceux qui ne supportent pas je JS, il faut doubler tous ses appels ajax avec des liens classiques (en oubliant pas de finir ses JS par return false pour que ca ne soit pas executé 2 fois)
 
S
suppr36306
Guest
ludoanimation a dit:
D'après ce que j'ai compris, aussi bien pour les moteurs que pour ceux qui ne supportent pas je JS, il faut doubler tous ses appels ajax avec des liens classiques (en oubliant pas de finir ses JS par return false pour que ca ne soit pas executé 2 fois)

Exact, jai trouvé une classe ajax très bien faites http://particletree.com/features/the-hows-and-whys-of-degradable-ajax/ pour ce genre de truc.

Mais ca va pas etre évident de mettre ca en place le degradable ajax et ca fait beaucoup de travail... :roll:
 
S
suppr36306
Guest
Leonick a dit:
ca s'appelle comment ça déjà ?
ah oui, des pages satellites et je crois que les robots, surtout google apprécient :twisted:

Nan cest pas des pages satellites faut pas confondre...on pourrait apeller ca des fonction l'accesibilité. C'est une page que seul les robots voient...s'ils voients que ca ils peuvent pas savoir s'il y a autre chose :lol:

Les pages satellites se sont des pages quasiments identiques à l'original mais qui doublonnent souvent la premiere.
 
WRInaute accro
copyme a dit:
Justement ca permet l'accessibilité. Son but est plus de rendre des outils web plus souples et plus réactifs et éviter les chargements de pages intempestifs.
On n'a pas la même notion de ce qu'est l'accessibilité alors ?
voilà un outil qui "valide" l'accessibilité d'une page. http://www.contentquality.com/mynewtest ... dir.net%2F

voir aussi http://www.accessiweb.org

copyme a dit:
Les pages satellites se sont des pages quasiments identiques à l'original mais qui doublonnent souvent la premiere.
https://www.google.fr/support/webmasters/bin/answer.py?answer=35769
 
Nouveau WRInaute
Pour départager ... vous avez tout les 2 tort :lol:

Pages satellites :

" Évitez les pages satellites ("doorway") créées exclusivement pour les moteurs de recherche ou d'autres solutions telles que les programmes d'affiliation sans véritable contenu informatif. "

C'est donc une page standard au niveau du code mais destinée uniquement à en positionner une autre. Ce qu'a fait un moment allposters en créant une assez grosse constellation de sites sur le poster qui linkaient tous vers leur site. Et ils se sont légèrement fait taper sur les doigts.

Et ce que veut faire copyme c'est du cloaking et c'est aussi plutôt beaucoup déconseillé :

" Concevez vos pages pour les utilisateurs, et non pour les moteurs de recherche. Ne trompez pas les utilisateurs en affichant un contenu pour les moteurs de recherche différent de celui qui leur est présenté (technique appelée "cloaking" ou masquage). "

D'ailleurs bizarre la tournure de google. Ca devrait plutôt etre "Ne trompez pas les moteurs en affichant un contenu pour les utilisateurs différent de celui qui leur est présenté".

M'enfin.
 
S
suppr36306
Guest
dans certains cas ce sera obligatoire sinon le moteur n'aura aucun contenu à aspirer...je suis obligé de faire du cloaking sinon il ne verra rien, tout mon site est en ajax http://v2.lookdir.net
 
Discussions similaires
Haut