Augmenter la fréquence de Google Bot

Nouveau WRInaute
Bonjour à tous,

Je viens chercher de l'aide car je ne sais que faire pour augmenter la fréquence de passage du robot de Google.

Ce dernier passe tous les 15 jours sur mon site alors que sur des sites concurrents, il passe tous les jours !!
Sachant qu'il y a CHAQUE JOUR des nouvelles publications sur ma landing page, que mes pages sont bien indexées quand le robot de Google crawl mon site...

Je voudrais savoir ce qu'il faut faire pour augmenter la fréquence de Google Bot ?
Y a t-il des optimisations techniques au niveau du site à faire et que je n'aurai pas faites ?
Les backlinks sont-ils importants pour augmenter la fréquence de passage ?

Pourquoi Google Bot crawl un site plus qu'un autre ?

MERCI A TOUS POUR VOS REPONSES QUE J'ATTENDS AVEC IMPATIENCE....
 
WRInaute passionné
mp381 a dit:
Je voudrais savoir ce qu'il faut faire pour augmenter la fréquence de Google Bot ?

Google Bot passe de pages en pages en suivant les liens qu'il trouve sur chacune d'entre elles. Par conséquent, plus il croisera de pages contenant un lien vers votre site, plus il passera sur votre site. La solution pour augmenter la fréquence de passage de Google Bot sur votre site est de travailler vos backlinks.


mp381 a dit:
Y a t-il des optimisations techniques au niveau du site à faire et que je n'aurai pas faites ?

Sans connaître l'adresse du site, difficile de se prononcer...

mp381 a dit:
Les backlinks sont-ils importants pour augmenter la fréquence de passage ?
mp381 a dit:
Pourquoi Google Bot crawl un site plus qu'un autre ?

En lisant ma première réponse, vous aurez les réponses à ces deux questions...
 
Nouveau WRInaute
Merci beaucoup pour vos réponses.
Je vais donc travailler mes backlinks...

Par contre, le fait de renouveler fréquemment le contenu d'une page ne suffit pas pour que Google Bot passe plus souvent ? Ou cela est tout de même un critère important que le robot de Google prend en compte ?

En plus des backlinks, dois-je faire autre chose en parallèle pour optimiser la fréquence de passage de Google Bot ?

Merci pour votre aide et vos conseils...
 
WRInaute accro
des Backlinks, des Backlinks, des Backlinks !!! c'est la garantie de faire venir Google de plus en plus souvent :)
 
WRInaute discret
J'entends par bonne configuration du fichier site map, d'indiquer les priorités de chaque page (Ou tout du moins de catégorie).
J'ai déjà vu à plusieurs reprises des site map avec la même valeur pour toutes les pages (0.5 ou 1.0).
 
WRInaute accro
j'ai quand même l'impression que ces valeurs ne sont là que pour faire joli : tu peux mettre les coeff que tu veux, si ta page n'est liée nulle part dans des pages incluses dans l'index de gg, au mieux elles seront crawlées, mais n'apparaitront pas dans l'index
 
WRInaute discret
L'un ne va pas sans l'autre ;-)

C'est comme tous avec Google il faut être carré partout pour avoir de bon résulta.
 
WRInaute discret
JPBPDS a dit:
J'entends par bonne configuration du fichier site map, d'indiquer les priorités de chaque page (Ou tout du moins de catégorie).
J'ai déjà vu à plusieurs reprises des site map avec la même valeur pour toutes les pages (0.5 ou 1.0).

Aucune influence de changer ces valeurs, ce serait trop simple si c'etait le cas
 
WRInaute discret
Aucune influence de changer ces valeurs, ce serait trop simple si c'etait le cas

Je suis pas d’accord, sur le "Aucune influence", après je me répète ça reste un des paramètres.
Un bon positionnement, repose sur plusieurs règles.
 
WRInaute discret
oui , j'ai des exemples mais pas le temps de les mettre en forme sur le forum.
Car au moment ou j'ai vu ces effets j'ai pas fais de capture d’écrans ou de prendre les stats.

Mais pour la 3 eme fois si tu a un sitemap Tip Top et que dernière le site est a la ramasse ça sert à rien nous somme d'accord.
 
Nouveau WRInaute
Deux ingrédients pour un passage régulier des moteurs de recherche et le Google Bot en particulier : mise à jour fréquente du contenu et backlinks.
 
WRInaute discret
Bonsoir,
Tu peux voir ça dans une des rubriques de Google webmaster tools.
Si tu veux ensuite analyser ça en profondeur, il te faut un analyseur de logs
 
WRInaute accro
Attention, par backlinks ça ne veut pas forcément dire "liens externes entrants", il faut déjà regarder au niveau du maillage interne. Un lien ça reste un lien et google bot suit les liens, qu'il viennent d'un autre site ou qu'il vienne d'une page interne du site.

Exemple : pour un site de 50 pages il faudrait avoir 50 liens internes qui mènent vers la page d'accueil et toutes les pages profondes du site devraient avoir environ 35 liens qui mènent vers elles pour que ce soit optimum (10 au minimum). Les quelques pages principales devraient en avoir plus de 40.

Et le sitemap doit être paramétré en rapport. Les pages principales ont un coef plus important que les pages très profondes. Les pages mention légales, copyright, conditions, etc... devraient avoir un coef très faible car ce sont des pages qui changent jamais
 
WRInaute discret
indigene a dit:
Les pages principales ont un coef plus important que les pages très profondes. Les pages mention légales, copyright, conditions, etc... devraient avoir un coef très faible car ce sont des pages qui changent jamais
Hello, le coef n'a pas aucune utilité (un peu comme le sitemap d'ailleurs, si ton maillage interne est bien construit, comme tu le dis)
 
WRInaute accro
le coef n'a pas d'utilité pour le référencement.

Mais un coef qui correspond au maillage c'est un plus pour que googlebot comprenne bien où il doit aller en priorité au lieu de chercher au hasard
 
WRInaute accro
un automobiliste n'a pas besoin de carte, de panneaux de direction et de GPS
Mais quand il a tout ça c'est mieux
 
WRInaute accro
La fréquence de crawl du sitemap n'a aucune importance. Ce n'est pas le sitemap qu'on cherche à référencer.
Ce qui importe c'est que les indications qu'on lui donne dans le sitemap soient utilisées à bon escient. Si j'ai indiqué dans mon sitemap qu'une page était mise à jour annuellement c'est que je n'ai pas envie qu'il vienne me la crawler tous les jours et je l'encourage à aller voir d'autres pages car je pense qu'il a mieux à faire que d'aller chaque jour sur une page sans intérêt.

Si je met à jour dans le sitemap les dates de mise à jour des pages c'est également pour l'inciter à aller les revisiter en priorité car elles ont changé.

Ensuite google fait ce qu'il veut mais perso j'ai fait mon boulot en lui indiquant qu'une page a changé de contenu ou qu'une autre est sans intérêt.

Mais c'est le même principe que celui de déplacer des pages sans mettre de redirection 301 ou d'en mettre. On peut dire que ça sert à rien car il finira bien par trouver les nouvelles pages et supprimer les anciennes de son index. Mais si on lui indique du départ que la page à changé d'emplacement c'est un plus non négligeable, même s'il met 2 mois à prendre toutes les redirections en compte.
 
WRInaute discret
Hello,
Tes 2 premières phrases sont contraditoires avec ton raisonnement precedent...
Si tu analyses le comportement des bots, tu vois bien que le sitemap ne sert à rien si ton site est bien maillé. Supprimes le de tes sites sur lesquels tu as travaillé le maillage interne et tu verras que tu n'auras aucun changement (à part te faire gagner du temps). Google adapte sa fréquence de passage sur tes pages tout seul, selon ses critères.
Je ne sais pas qui t'a dit que la 301 ne servait à rien pour un changement d'URL, c'est le minimum syndical à mettre en place.
Bonne fin de journée
 
Discussions similaires
Haut