Soumissions croisées de sitemaps via le fichier robots.txt

Manga59

WRInaute discret
Je ne sais pas si c'est une révolution et si ça simplifie la vie. D'expérience personnelles, c'est vrai que j'ai plus de 300 sites en stock dans mes comptes webmaster tools, mais en fait quand je cherche des stats de requêtes ou de sitemap indexés, je procède au cas par cas, par "fiche" correspondant à un site.

Enfin moi aussi j'ai du mal à me faire comprendre lol, je veux dire, je préfère avoir toutes les infos relatives à un site (sitemap mais également requêtes les plus fréquentes...) sur une fiche webmaster tool.

Merci pour l'info ceci dit.
Je pratiquais déjà le:
Sitemap: http://www.example.com/sitemap.xml dans le robots.txt suite à tes conseils.
 

nza2k

WRInaute impliqué
Merci Olivier pour l'article.

Est-ce que ça veut bien dire que n'importe quel site peut créer un sitemap pour d'autres sites ?

Si c'est bien ça, ça me paraît dangereux...
 

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
nza2k a dit:
Merci Olivier pour l'article.

Est-ce que ça veut bien dire que n'importe quel site peut créer un sitemap pour d'autres sites ?

Si c'est bien ça, ça me paraît dangereux...
non car il faut avoir accès (en écriture) au fichier robots.txt des sites concernés
 

carole heinz

WRInaute passionné
un instant j'ai cru que cela allait faciliter la vie de tous les bloggeurs, en leur permettant d'héberger ailleurs un sitemap, mais non, puisqu'il faut avoir accès aux robots.txt de tous les sites apparemment?

je m'explique: de nombreux bloggeurs utilisent des plateformes sur lesquelles ils ne peuvent uploader ni les fichiers .txt, et encore moins les .xml.

or, au fur et à mesure de leur "apprentissage du web", ils découvrent qu'un plan sitemap, c'est vachement bien. comme ils ne peuvent pas héberger de fichiers aux formats "spéciaux" sur leur blog, et qu'ils hébergent déjà ailleurs leurs .ico et autres .mp3, ils auraient pu espérer beaucoup de cette mesure, mais c'est raté!
 

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
carole heinz a dit:
un instant j'ai cru que cela allait faciliter la vie de tous les bloggeurs, en leur permettant d'héberger ailleurs un sitemap, mais non, puisqu'il faut avoir accès aux robots.txt de tous les sites apparemment?

je m'explique: de nombreux bloggeurs utilisent des plateformes sur lesquelles ils ne peuvent uploader ni les fichiers .txt, et encore moins les .xml.

or, au fur et à mesure de leur "apprentissage du web", ils découvrent qu'un plan sitemap, c'est vachement bien. comme ils ne peuvent pas héberger de fichiers aux formats "spéciaux" sur leur blog, et qu'ils hébergent déjà ailleurs leurs .ico et autres .mp3, ils auraient pu espérer beaucoup de cette mesure, mais c'est raté!
en effet
mais ces gens-là comprendront que c'est une bêtise d'héberger son blog ailleurs que sur le (nom de) domaine de son site, même si ça présente certains avantages (simplicité)...
 

Jeviensderio

WRInaute passionné
L'article laisse entendre (au début) que l'on peut mettre les sitemaps de plusieurs sites sur un seul. C'est seulement l'URL des sitemaps que l'on peut mettre dans le robots.txt d'un seul site.
 

playentry

WRInaute discret
En mettant l'adresse du sitemap dans le robot.txt, est-ce qu'il y a un moyen ensuite d'accèder aux stats (Dernier téléchargement par Google, nbr de pages indexées) par le biais de Google Webmaster Tools pour le sitemap en question?
 

mackloug

WRInaute occasionnel
Je fais rebondir cette vieille discussion car il semble bien que la technique proposée soit un peu… dépassé.

En effet, en cherchant une réponse à une épineuse question, je suis tombé sur une réponse de Google
https://www.google.com/support/webmasters/bin/answer.py?hl=fr&answer=75712

Si je comprends bien, place à au sitemap de sitemap… et là, on peut mettre plusieurs noms de domaine et de sous-domaine.

La mise à jour de la fiche date de juin 2010, c'est donc assez récent.

Est-ce quelqu'un a déjà tenté l'expérience ?
 

Discussions similaires

Haut