Referencement naturel : balise meta robots index follow utile ?

Nouveau WRInaute
Bonjour,

je voudrais savoir si pour être mieux indexé par les moteurs de recherche, serait il possible de rajouter la balise <meta name="robots" content="index, follow">?

Merci!
 
Nouveau WRInaute
Re: Referencement natuel

Merci pour ta réponse,

Alors de quel solution je dispose pour augmenter la fréquence d'indexation de mon site?
 
WRInaute discret
Re: Referencement natuel

... et avoir un sitemap.xml à la racine de ton site pour l'aider à trouver tes pages. Et ne pas zapper la balise <lastmod>.
 
Olivier Duffez (admin)
Membre du personnel
c'est bien plus efficace d'obtenir des liens que d'ajouter un sitemap, surtout que les liens ne servent pas qu'à l'indexation...
enfin bon, certains trouvent utile de passer du temps à créer des sitemaps et surtout à configurer toutes les options, genre lastmod. Moi je trouve qu'il vaut mieux passer du temps sur d'autres choses (créer du bon contenu par exemple)
 
Nouveau WRInaute
WebRankInfo a dit:
c'est bien plus efficace d'obtenir des liens que d'ajouter un sitemap, surtout que les liens ne servent pas qu'à l'indexation...
enfin bon, certains trouvent utile de passer du temps à créer des sitemaps et surtout à configurer toutes les options, genre lastmod. Moi je trouve qu'il vaut mieux passer du temps sur d'autres choses (créer du bon contenu par exemple)

oui mais ça ne répond pas à ma question :roll:
 
Olivier Duffez (admin)
Membre du personnel
je te conseille simplement d'ignorer ça... mais bon. "last mod" = last modification = date de dernière modification
 
WRInaute discret
WebRankInfo a dit:
c'est bien plus efficace d'obtenir des liens que d'ajouter un sitemap, surtout que les liens ne servent pas qu'à l'indexation...
enfin bon, certains trouvent utile de passer du temps à créer des sitemaps et surtout à configurer toutes les options, genre lastmod. Moi je trouve qu'il vaut mieux passer du temps sur d'autres choses (créer du bon contenu par exemple)
Je suis entièrement d'accord avec ça.
 
WRInaute discret
WebRankInfo a dit:
c'est bien plus efficace d'obtenir des liens que d'ajouter un sitemap, surtout que les liens ne servent pas qu'à l'indexation...
enfin bon, certains trouvent utile de passer du temps à créer des sitemaps et surtout à configurer toutes les options, genre lastmod. Moi je trouve qu'il vaut mieux passer du temps sur d'autres choses (créer du bon contenu par exemple)

  • Hmmm, Google explique dans sa doc qu'un sitemap aide ses robots, et que cela ne peut pas pénaliser un site, donc je fais un sitemap.
  • Dans mes logs, je constate que les robots de Google et de Bing récupèrent le sitemap à chacune de leur visite. Ils doivent donc bien s'en servir.
  • En théorie, si le site a une architecture convenable avec un bon maillage de liens et rien qui puissent géner les robots, alors en suivant tous les liens il n'est pas possible de manquer une page. En pratique tous les sites ne sont pas bien conçus et dans ce cas le sitemap peu devenir indispensable. De plus, les robots ne parcourent pas l'intégralité des sites à chaque visite, donc les pages profondes prennent plus de temps à découvrir. Et le bon sens me dit que c'est quand même plus facile avec un sitemap comme il est plus facile d'explorer une ville avec un plan.
  • J'ai aussi constaté à deux ou trois reprises, que lorsque je mets à jour une page, la prise en compte par Google est plus rapide si la balise <lastmod> est correctement renseignée. Le hasard ? Peut-être. Mais cela prouve qu'il n'est pas idiot de postuler que l'usage du sitemap et de la balise <lastmod> pour mon site accélèrent l'indexation de son contenu.
  • Je ne fais évidemment pas mon sitemap à la main. Mon CMS s'en occupe tout seul.

Conclusion: des avantages supposés, aucun inconvénient. Alors pourquoi s'en priver ?
 
WRInaute discret
SaintAmand a dit:
WebRankInfo a dit:
c'est bien plus efficace d'obtenir des liens que d'ajouter un sitemap, surtout que les liens ne servent pas qu'à l'indexation...
enfin bon, certains trouvent utile de passer du temps à créer des sitemaps et surtout à configurer toutes les options, genre lastmod. Moi je trouve qu'il vaut mieux passer du temps sur d'autres choses (créer du bon contenu par exemple)

  • Hmmm, Google explique dans sa doc qu'un sitemap aide ses robots, et que cela ne peut pas pénaliser un site, donc je fais un sitemap.
  • Dans mes logs, je constate que les robots de Google et de Bing récupèrent le sitemap à chacune de leur visite. Ils doivent donc bien s'en servir.
  • En théorie, si le site a une architecture convenable avec un bon maillage de liens et rien qui puissent géner les robots, alors en suivant tous les liens il n'est pas possible de manquer une page. En pratique tous les sites ne sont pas bien conçus et dans ce cas le sitemap peu devenir indispensable. De plus, les robots ne parcourent pas l'intégralité des sites à chaque visite, donc les pages profondes prennent plus de temps à découvrir. Et le bon sens me dit que c'est quand même plus facile avec un sitemap comme il est plus facile d'explorer une ville avec un plan.
  • J'ai aussi constaté à deux ou trois reprises, que lorsque je mets à jour une page, la prise en compte par Google est plus rapide si la balise <lastmod> est correctement renseignée. Le hasard ? Peut-être. Mais cela prouve qu'il n'est pas idiot de postuler que l'usage du sitemap et de la balise <lastmod> pour mon site accélèrent l'indexation de son contenu.
  • Je ne fais évidemment pas mon sitemap à la main. Mon CMS s'en occupe tout seul.

Conclusion: des avantages supposés, aucun inconvénient. Alors pourquoi s'en priver ?
Pour répondre à ta question : parce que parfois, cela ne sert pas forcément.

Je pense que cela dépend du type de site et de ta stratégie référencement.

Si tu as un site vitrine ou un blog (WordPress ou autre), le sitemap.xml ne va pas te servir à grand chose si tu as prévu de référencer ton site. Pour ce type de site, je pense qu'il est plus intéressant de référencer tes pages ou tes articles que de penser à l'indexation et donc au sitemap.xml. Cela indexe ton site et en plus, ça te permet d'acquérir du link juice :wink: .

Maintenant, si tu as un très gros site et que ta stratégie référencement est réduite, là je comprends que le sitemap.xml soit important.

Maintenant, ce n'est qu'un point de vue :wink:
 
Olivier Duffez (admin)
Membre du personnel
"Google dit qu'il faut le faire donc je le fais". Oui sur le principe, mais avec l'habitude on apprend à lire entre les lignes des recos Google ;-)
"les robots consultent le fichier" : heureusement non ?
"tous les sites ne sont pas bien conçus et dans ce cas le sitemap peu devenir indispensable" : c'est là où tu fais une erreur (à mon humble avis) : tes pages seront indexées grâce au sitemap mais elles n'auront aucun backlink, résultat elle n'auront quasiment aucune chance de sortir en bonne position dans les SERP
"les pages profondes prennent plus de temps à découvrir" : on est d'accord, mais les sites bien conçus font des liens vers les nouvelles pages (profondes) depuis des pages populaires (par ex la page d'accueil)

tout ça n'empêche pas d'utiliser des sitemaps, on est bien d'accord. A condition d'y passer 0 minute par mois.
 
WRInaute accro
Re: Referencement natuel

SaintAmand a dit:
... et avoir un sitemap.xml à la racine de ton site pour l'aider à trouver tes pages. Et ne pas zapper la balise <lastmod>.
pour moi, le seul intérêt du sitemap.xml est d'obtenir le nombre de pages indexées dans le GWT
sinon, comme l'a rappelé olivier, indexer une page si c'est pour qu'elle reste invisible dans les serp n'a aucun intérêt, sauf à utiliser google comme moteur de recherches interne.
 
Discussions similaires
Haut