Suite à l'excellent article paru dans le blog de Google, j'ai rédigé un dossier que j'estime assez complet sur la notion de budget de crawl. Jusqu'à présent on entendait surtout Google dire que ça n'existe pas, mais ce n'est pas ce qui est (bien) expliqué dans leur article. Au contraire, en tout cas pour les gros sites, c'est un sujet très important d'optimisation du référencement naturel.
En gros, selon moi, la meilleure façon d'optimiser le crawl (à part d'accélérer son site) est de réduire la "masse noire" (lisez mon article en entier pour les explications). En plus ça "nettoie" souvent le site de pages de mauvaise qualité, ce qui est bénéfique pour l'ensemble du référencement (cf. algos Panda, Phantom et autres liés à la qualité).
Avez-vous des compléments à suggérer / retours d'expérience / questions ?
En gros, selon moi, la meilleure façon d'optimiser le crawl (à part d'accélérer son site) est de réduire la "masse noire" (lisez mon article en entier pour les explications). En plus ça "nettoie" souvent le site de pages de mauvaise qualité, ce qui est bénéfique pour l'ensemble du référencement (cf. algos Panda, Phantom et autres liés à la qualité).
Avez-vous des compléments à suggérer / retours d'expérience / questions ?