Prob de sitemap alors qu'aucun changement.

WRInaute discret
Bonjour,

depuis environ 2 semaines mon site a chuté de la 2e page en 7e sous google sur un terme défini (avec, une perte de pages indexées selon G webmaster)

Juste avant, j'avais touché un peu à des balises title, MAIS j'avais aussi mis à jour le "PLUG-IN SITEMAP".
Je n'ai pas touché au fichier robots.txt.
Or, je n'avais aucun probleme avec le sitemap, et de nombreuses pages ont été désindexées (cela peut venir du fait que j'ai touché aux titles ok), mais surtout,

Google Web les sitemaps ne sont plus acceptées par Google webmaster : car ne peut a priori pas accéder à ceux-ci.

Voici le contenu du robots.txt :

User-agent: *
Allow : /sitemap.xml
Allow : /sitemapguppy.xml
Allow : /data/artfr.xml
Allow : /data/newsfr.xml
Disallow: /admin/
Disallow: /data/
Disallow: /file/
Disallow: /inc/
Disallow: /install/
Disallow: /photo/
Disallow: /plugins/
Disallow: /protect/
Disallow: /sessions/
Sitemap: http://club.stephenkingPOINTfree.fr/sitemap.xml
Sitemap: http://club.stephenkingPOINTfree.fr/sitemapguppy.xml


est que ça vous semble faux? Sachant que Google Webmaster acceptait ces sitemap (sauf le data/artfr.xml qui n'a jamais marché) il y a 2 jours et que plus maintenant....
 
WRInaute impliqué
herbertwest a dit:
selon google webmaster, chaque jour, environ 10 pages ne sont plus indexées...

C'est normal, il y a une erreur dns quand on clique sur -http://club.stephenkingPOINTfree.fr/sitemap.xml

du coup GG ne voit pas ton sitemap
 
WRInaute impliqué
Voici le contenu du robots.txt :

User-agent: *
Allow : /sitemap.xml
Allow : /sitemapguppy.xml
Allow : /data/artfr.xml
Allow : /data/newsfr.xml
Disallow: /admin/
Disallow: /data/
Disallow: /file/
Disallow: /inc/
Disallow: /install/
Disallow: /photo/
Disallow: /plugins/
Disallow: /protect/
Disallow: /sessions/
Sitemap: http://club.stephenkingPOINTfree.fr/sitemap.xml
Sitemap: http://club.stephenkingPOINTfree.fr/sitemapguppy.xml

Après relecture -- lol

Une question: pourquoi mettre dans un robots.txt, les allow ? ça sert à quoi ??

Ensuite au niveau des sitemap
si je comprends ton arbo
tu dis au bot vas voir Sitemap: http://club.stephenkingPOINTfree.fr/sitemap.xml
et dans celui ci tu lui dis vas voir Sitemap: http://club.stephenkingPOINTfree.fr/sitemapguppy.xml

Si j'ai bien lu, ton problème peut venir de là
tu essaies de créer un sitemap index par le premier
mais dans ce cas, ton deuxieme sitemap doit être à un autre niveau pour que GG l'interprete correctement.

Bref tu dois embrouiller le bot avec deux sitemap au même niveau
retire le premier il ne sert à rien dans ton cas et renomme ton sitemapguppy.xml en sitemap.xml (ce dernier n'est pas obligatoire)
 
WRInaute discret
les allow permettent d'autoriser certaines pages alors que le dossier est interdit (et ça marche!)

c'est Guppy qui gère les sitemap comme ça, et le plugin permet de les mettre à jour très facilemet. Pas moyen de générer automatiquement un sitemap.xml qui ne soit pas un index (ok je suppose que je pourrai le faire par ftp)
Mais meme avec un index de sitemap, le sitemap est repété sans problème.

je ne comprends pas que google webmaster diminue alors que la commande : site:xxxxx ne semble pas elle diminuer

sinon je me demandais combien (maximum) il est recommandé d'avoir de caractères dans un "title" ?
 
WRInaute impliqué
les allow permettent d'autoriser certaines pages alors que le dossier est interdit (et ça marche!)

Allow : /sitemap.xml
Allow : /sitemapguppy.xml

c'est deux là ne servent à rien !!

ensuite encore une fois mettre deux sitemap au même rang perturbe le bot

enlève le premier (sitemap.xml) à la rigueur il ne sert à rien
 
WRInaute discret
merci pour ces idées
j'ai enlever le sitemap.xml (index) mais je doute que ça va changer quoi que ce soit vu que j'avais les 2 avant


Je les autorise (via allow) car récemment j'avais eut des problemes et ces 2 sitemap apparaissaient en croix rouge, et depuis le allow ils sont bien reconnus (verts)... donc je les laisse comme ça :s

malgré l'autorisation,
data/artfr.xml
ne passe pas lui...
 
WRInaute impliqué
Gilles FABRE a dit:

7 ? oua pythagore ne rigole pas :wink:

pour information le nombre d'URL par sitemap est limité à 50 000

Et pour répondre à votre question,
je dis (ça n'engage que moi) qu'il est préférable de mettre qu'un seul sitemap à la racine.

dans le cas ou il faut mettre plusieurs sitemap, je préfère au niveau de l'arborescence
créer des repertoires pour identifier chaque sitemap et de mettre un sitemap index à la racine.

voilà


Il faut vérifier dans votre conosle GWT si votre sitemap ne rencontre pas de problèmes (erreurs détectées par le bot)
 
Nouveau WRInaute
Oui, mon site faisant 160 000 pages, je suis obligé de faire plusieurs sitemaps. GWT ne me détecte pas d'erreur particulière (sauf des petites erreurs anodines). J'ai juste un gros problème d'erreurs multiples détectées par GWT, erreurs qui figuraient dans un ancien sitemap remplacé depuis une semaine, mais GWT m'en trouve encore de nouvelles tous les jours.... Mais comme j'en ai parlé dans le post https://www.webrankinfo.com/forum/t/un-mois-de-galere.119438/ , je ne vais pas m'appesantir ici et polluer ce post ^^
 
Discussions similaires
Haut