Deux sitemaps indiqués dans un même robots.txt

Nouveau WRInaute
Bonjour,

Petites questions qui peuvent paraîttrent bêtes :

- Dans mon robots.txt, j'ai lu qu'on pouver indiquer l'url du sitemap, cependant j'ai 2 sitemaps, un pour le site et un pour le forum, sur ce point mon robots.txt est-il correct ?
- Sachant que j'ai un url rewriting total sur le site (le 1er disallow) comme sur le forum (les 3 derniers disallow), est-ce que les interdictions sont-elles correctes ?

Code:
Sitemap: http://www.monsite.fr/sitemap.xml
Sitemap: http://www.monsite.fr/forums/sitemap.xml
User-agent: *
Disallow: /*.php$
Disallow: /forums/viewforum.php?
Disallow: /forums/viewtopic.php?
Disallow: /forums/index.php

Merci !
 
WRInaute accro
On peut désigner plusieurs sitemaps dans robots.txt. Je ne vois pas d'erreur dans ton fichier. Tu emploies une syntaxe qui n'est pas comprise par tous les robots, mais elle convient pour les robots de Google, Yahoo et Microsoft.

Jean-Luc
 
WRInaute passionné
Sinon il y a possibilité de faire un sitemap plan de sitemap.
Regardes sur google sitemap tu trouveras l'explication des sitemap plan.
 
Nouveau WRInaute
Bonsoir,

Si je peux me permettre de m'immiscer dans la discussion... à quoi cela sert, concrètement, de mettre l'adresse des sitemaps dans le fichier robot.txt ? Et pourquoi la syntaxe est-elle mauvaise dans le cas exposé ?
 
WRInaute accro
*Brian* a dit:
à quoi cela sert, concrètement, de mettre l'adresse des sitemaps dans le fichier robot.txt ?
A permettre aux moteurs de recherche de savoir où se trouvent les sitemaps.

*Brian* a dit:
Et pourquoi la syntaxe est-elle mauvaise dans le cas exposé ?
C'est la ligne
Code:
Disallow: /*.php$
qui n'est pas standard. L'emploi de * et $ comme caractères spéciaux n'est pas autorisé par le standard. Pas standard, mais valable pour Googlebot, Yahoo Slurp et MSNBot (qui sont évidemment très importants) et non valable pour la plupart des autres robots.

Jean-Luc
 
Discussions similaires
Haut