Google, problème avec le Sitemap

Nouveau WRInaute
Bonsoir

J'ai récemment mis en place un site, http://www.animatek.fr

Comme je souhaite faire les choses correctement, j'ai crée un sitemap. (La verification du code s'est bien déroulée)

Donc ma première tentative fût avec le logiciel Yooda. Google a accepté le site map, mais pourtant dans les URL indexé, il n'indiquait rien, juste " --"
Et quand je cliquait sur mon site, j'avais le rapport du site map, et il était marqué " 13 Fév - Erreur "

Donc j'ai tenté de faire un autre sitemap avec le plugin wordpress XML Google Sitemap.

La c'est encore pire, j'ai toujours une erreur, et en bas, dans lla zone Etat j'ai ce message :

Nous avons rencontré une erreur en essayant d'accéder à votre sitemap. Assurez-vous que votre sitemap est conforme aux consignes et qu'il est accessible à l'emplacement que vous avez spécifié. Ensuite, essayez de nouveau.

Pourtant j'ai bel et bien placé le sitemap sur mon ftp ( je l'ai meme mis dans plusieurs dossiers, juste histoire de pas me tromper ) et quand j'ouvre le fichier XML, tout semble correct.

D'où pourrait venir le problême ?

merci, et bonne soirée
 
Nouveau WRInaute
heu je dois avouer ne pas comprendre ??!

Avec Yooda j'ai généré un fichier qui s'appelle bien sitemap.xml

De même qu'avec le plugin XML Google Sitemap, j'ai coché : faire un fichier XML et j'ai décoché : faire un fichier gzip

Donc a priori, je lui ai bien donné 2 fichiers XML différents, et ils les a refusé tous les deux

me trompe-je ?

encore merci d'avoir pris le temps de me répondre

Saki
 
WRInaute occasionnel
Ben montre nous où il est ton .xml alors.

Moi je n'ai trouvé qu'un gzippé, et c'est celui qui est renseigné dans le robots.txt.
 
Nouveau WRInaute
voila le fichier que j'ai indiqué dans google webmaster tool :
Code:
<?xml version="1.0" encoding="UTF-8" ?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://www.sitemaps.org/schemas/sitemap/0.9 http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd">
	<url>
		<loc>http://www.animatek.fr/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/a-propos-2/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/lexique-des-animes/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/liens/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/simulcast/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/telecharger-animes/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/dossier-les-animes-2010/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/253/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/higashi-no-eden-eden-of-the-east/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/tag/anime/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/kashimashi-girl-meets-girl/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/tag/girl-meet-girl/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/nana/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/tag/kashimashi/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/tag/critique/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/51/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/tag/higashi-no-eden/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/death-note/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/one-outs/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
	<url>
		<loc>http://www.animatek.fr/page/2/</loc>
		<lastmod>2010-02-14</lastmod>
		<changefreq>daily</changefreq>
		<priority>0.5</priority>
	</url>
</urlset>

d'ou pourrait venir mon erreur ?

merci
 
WRInaute accro
Ton robots.txt n'est pas valide.
Remplace l'existant par celui-ci (sans saut de ligne)
Code:
User-agent: *
Sitemap: http://www.animatek.fr/sitemap.xml.gz
 
Nouveau WRInaute
merci Salva !

j'ai donc remplacé mon code par ton code.

j'ai cliqué sur Test et voila le résultat :

Autorisé
Identifié comme répertoire ; certains fichiers peuvent être soumis à des restrictions différentes.

Donc ca marche a priori, mais une derniere question me taraude :

comment valider definitivement ? car la j'ai juste cliqué sur Test. Dois re-soumettre mon sitempa ?

merci
 
WRInaute accro
Si ton robots est marqué comme autorisé, c'est ok.
Si ton sitemap (sous l'onglet "configuration du site" > "Sitemap") est en erreur, tu peux le soumettre une nouvelle fois et par la ensuite à chaque fois que ton sitemap est modifié.
 
Nouveau WRInaute
Bonsoir

Bon, veuillez m'excuser, mais j'ai vraiment du mal. Malgrès vos nombreux conseils, je n'y arrive toujours pas.

Voila ca en est :

Il y a du progrès : je n'ai rien changé, mais il détecte enfin 22 URLs. Le problème c'est qu'il n'en a indexé qu'une seule.

Pourquoi ? Egalement, il me dit qu'il y a 4 erreurs d'explorations :

Code:
http://www.animatek.fr/Banner-1%20url  	404 (Introuvable) 	1 pages 	10 févr. 2010
Accéder à l'URLhttp://www.animatek.fr/Banner-2%20url 	404 (Introuvable) 	1 pages 	10 févr. 2010
Accéder à l'URLhttp://www.animatek.fr/Banner-3%20url 	404 (Introuvable) 	1 pages 	10 févr. 2010
Accéder à l'URLhttp://www.animatek.fr/Banner-4%20url 	404 (Introuvable)

D'ou vient ce problème ?

Enfin, j'aimerais bien mettre le code de Salva, mais je n'y arrive pas. Je ne sais pas ou modifier le Robots.txt

j'ai essayé de créer un fichiers robots.txt avec le code de Salva, a la racine de mon FTP, mais cela ne semble rien changer

pourriez vous m'aider encore un peu s'il vous plait ?
merci !
 
WRInaute accro
saki_animatek a dit:
Enfin, j'aimerais bien mettre le code de Salva, mais je n'y arrive pas. Je ne sais pas ou modifier le Robots.txt

j'ai essayé de créer un fichiers robots.txt avec le code de Salva, a la racine de mon FTP, mais cela ne semble rien changer
La phrase en bleue est la bonne action à entreprendre et le fait que Google detecte 22 urls indique que c'est bon. Ton problème de 404 est un autre problème.

saki_animatek a dit:
il y a du progrès : je n'ai rien changé, mais il détecte enfin 22 URLs. Le problème c'est qu'il n'en a indexé qu'une seule.
Ce qui signifie que Google prend bien en compte le sitemap. Par contre, ça ne signifie pas qu'il indexera toutes les urls si elles ne sont pas pertinentes, ou en duplicate,...

saki_animatek a dit:
Pourquoi ? Egalement, il me dit qu'il y a 4 erreurs d'explorations :

Code:
http://www.animatek.fr/Banner-1%20url  	404 (Introuvable) 	1 pages 	10 févr. 2010
Accéder à l'URLhttp://www.animatek.fr/Banner-2%20url 	404 (Introuvable) 	1 pages 	10 févr. 2010
Accéder à l'URLhttp://www.animatek.fr/Banner-3%20url 	404 (Introuvable) 	1 pages 	10 févr. 2010
Accéder à l'URLhttp://www.animatek.fr/Banner-4%20url 	404 (Introuvable)

D'ou vient ce problème ?
Si ces urls n'existent pas, place les dans le robots.txt en disallow.
 
Nouveau WRInaute
Merci Salva !

Donc si je résume, 22 URL, 1 indexé c'est bon ?

il ne me reste plus qu'a attendre ?

Cela dit, dans mon fichier robots.txt ( enfin pas celui a la racine du FTP, mais ce que m'indique google webmaster tool ) contient toujours ce sitemap.xml.gz

est ce gênant d'avoir ce .gz ?

encore merci d'avoir pris le temps de me répondre
 
WRInaute accro
saki_animatek a dit:
Cela dit, dans mon fichier robots.txt ( enfin pas celui a la racine du FTP, mais ce que m'indique google webmaster tool ) contient toujours ce sitemap.xml.gz
C'est censé être le même.
Le contenu de sitemap.xml et de sitemap.xml.gz est le même mais sitemap.xml.gz est la forme compressée de sitemap.xml. Si ton sitemap est amené à grossir autant opter pour la forme compressée.

Pour les pages en 404, si elles n'existent pas il serait souhaitable de les mettre dans le robots.txt
Code:
User-agent: *
Disallow: /Banner-2%20url
Disallow: /Banner-3%20url
Disallow: /Banner-4%20url
Sitemap: http://www.animatek.fr/sitemap.xml.gz
 
Discussions similaires
Haut