Google ne prend pas en compte le contenu du sitemap.xml

Nouveau WRInaute
bonjour,
Je viens de créer un site en wordpress, il s'agit de détailler les activités d'une société dans différentes villes de la france. J'ai donc créé une centaines de villes ainsi que leur contenus respectifs. J'ai installé un plugin qui a généré un sitemap.xml et l'a envoyé à google, le problème c'est qu'il avait inséré dans son sitemap des url du genre site.com/?ville=paris1 or cette page est accessible depuis site.com/paris1/ ! J'ai donc créé le sitemap.xml manuellement en mettant les bonnes URL et je l'ai envoyé manuellement depuis mon compte google.

Maintenant quand je fais une recherche sur google site:monsite.com je trouve qu'il a indexé les pages du genre site.com/?ville=paris1 mais sans contenu (pour le contenu google dit que c'est bloqué, normal car j'ai indiqué ça dans robots.txt)

J'ai alors créé une redirection 301 de site.com/?ville=X vers site.com/X/, après quelques jours google n'a pas chnagé ses indexes et pointes toujours vers site.com/?ville=X !!

Pour résumer :
  1. Pourquoi google a indexé site.com/?ville=X alors que j'avais interdit ça dans robots.txt ?
  • Pourquoi il n'a pas changé les URL indexées malgré la redirection 301 ?
  • Comment faire pour corriger tout ça ?
Merci d'avance :)
 
Olivier Duffez (admin)
Membre du personnel
sami_c a dit:
Pourquoi google a indexé site.com/?ville=X alors que j'avais interdit ça dans robots.txt ?
sans voir le site, difficile de te répondre, à part lire le dossier qui explique ce cas particulier : pages indexées malgré l'interdiction du robots.txt

sami_c a dit:
Pourquoi il n'a pas changé les URL indexées malgré la redirection 301 ?
car tu l'interdis de venir consulter les URL qui se font rediriger. il faut retirer l'interdiction de craw

sami_c a dit:
Comment faire pour corriger tout ça ?
tiens-nous au courant !
 
Nouveau WRInaute
merci pour la réponse
J'ai supprimé l'interdiction des url de type ?ville= depuis le fichier robots.txt : ça n'a rien donné ! J'ai toujours le même résultat !
 
WRInaute accro
Tu l'as retiré il y a combien de temps ? Tu as vérifié au niveau des outils pour webmaster si la modification dans le robots.txt avait été prise en compte ?
 
Nouveau WRInaute
J'ai modifié le fichier vendredi dernier (24/04)
Comment je peux voir comment google a "compris" et traité ce fichier? Les seules données que j'ai trouvé sont ceci :

Nombre total de pages indexées : 528
Pages bloquées par le fichier robots.txt : 681
 
Nouveau WRInaute
Voici le site en question : plombier-depannage-fuite.com
Hier quand je lance la requête "site:plombier-depannage-fuite.com" sur google j'ai environ 1010 URL indexées, aujourd'hui je n'en ai que 425 ! En plus si vous allez à la page 9 et cliquez sur le lien "relancer la recherche..." on trouve les URL de type ?ville=TOTO !!
Voici le sitemap : plombier-depannage-fuite.com/sitemap.xml
Voici robots;txt : plombier-depannage-fuite.com/robots.txt
 
Nouveau WRInaute
je viens de refaire site:plombier-depannage-fuite.com ... j'ai 2240 résultats !!! pourquoi ce nombre change-t-il chaque X minutes ?
En plus à partir de la page 7 j'ai les URL de type ?ville= !! Pourtant j'ai bien fais une redirection de ce type d'URL !
 
Nouveau WRInaute
ça revient au même non ? si une page est indexée dont elle devrait apparaitre dans la recherche ?
Donc une page peut être indexée mais ne pas apparaitre dans la recherche ? C'est quoi alors l'intêret de l'indexation ?
 
Olivier Duffez (admin)
Membre du personnel
tu utilises un outil pour faire autre chose que ce pour quoi il a été conçu : pas étonnant d'avoir des résultats étranges
par ailleurs, site: n'est pas si fiable que ça
essaie en ajoutant un mot présent sur toutes tes pages, ça pourrait améliorer la fiabilité

enfin, pour une recherche Google de ce type, si tu t'intéresses au nombre de résultats, c'est toujours plus fiable d'aller en page 2 de résultats
 
WRInaute accro
sami_c a dit:
Donc une page peut être indexée mais ne pas apparaitre dans la recherche ? C'est quoi alors l'intêret de l'indexation ?
L'indexation c'est la prise en compte d'une page à l'aide d'un crawl, cela ne sous entend pas qu'elle va apparaître dans les recherches. Dasn ton cas quand on regarde tes pages viles on se rend compte que tu as fait des efforts pour différencier le contenu mais ça reste très similaire sur le global donc a mon avis tu as des pages qui vont sauter après indexation donc qui ne seront pas présentes en cas de recherche.
 
WRInaute accro
Et si tu veux suivre la désindexation des anciennes url par les nouvelles, tu peux soumettre un sitemap.xml contenant les versions non réécrites. via GWT
 
Nouveau WRInaute
merci pour vos réponses :)
autre question : les prestations proposées par le site couvrent plusieurs centaines de villes groupées par département. Pour le moment dans une page département j'affiche uniquement 20 ou 30 villes (exp : http://plombier-depannage-fuite.com/plombier/essonne-91), concrètement il y en a plus de 100 (exp : http://plombier-depannage-fuite.com/plombier/yvelines-78)
1 - Est-ce que le fait d'afficher toutes les villes (liens) dans une même page peut nuire au référencement ?
2 - Si oui est-ce que le fait de faire une pagination peut résoudre le problème ?
 
WRInaute accro
sami_c a dit:
1 - Est-ce que le fait d'afficher toutes les villes (liens) dans une même page peut nuire au référencement ?
2 - Si oui est-ce que le fait de faire une pagination peut résoudre le problème ?
1/ pas forcement
2/ la pagination c'est un plus pour l'internaute pas directement pour le SEO
concrètement il y en a plus de 100
Ils sont totalement abusifs tes liens :roll: le souci c'est pas leur nombre c'est leur structure.
Ton site c'est un exercice de style très connu, ton souci n'est pas trop dans le linking interne il est dans le contenu autour.
 
Discussions similaires
Haut