Indexation Google

Cette rubrique regroupe des articles d’actualité, des conseils et des tutoriels pour aider à faire indexer un site et donc optimiser son référencement naturel (SEO). On y parle donc de crawl (exploration), d’indexation de site, de fichiers sitemaps, de comment supprimer une page de Google…

Me suivre :

Le fichier robots.txt

SEO : 20 conseils sur le fichier robots.txt à ne pas rater

Le fichier robots.txt, qui permet de bloquer le crawl des moteurs de recherche pour certaines URL ou parties d’un site, a plus de 20 ans : il fut créé le 30 juin 1994 par Martijn Koster. Voici plein de conseils que vous ne connaissiez peut-être pas…

Le

Tuto : comment supprimer des pages de Google

Comment désindexer des pages de Google ? Le tuto ultra complet !

Il est bien plus courant qu’on ne l’imagine d’avoir besoin de désindexer des pages de Google, c’est-à-dire de les supprimer de l’index. Ceci permet de nettoyer le site et parfois de sortir d’une pénalité. Voici comment faire…

Le

X-Robots-Tag

Interdire l’indexation avec l’entête HTTP X-Robots-Tag

Pour bloquer l’indexation de certaines pages spécifiques d’un site, il suffit d’utiliser la balise meta robots noindex. Mais comment faire avec des documents qui ne sont pas au format HTML (documents PDF, audio, Word, Excel, Powerpoint, … et pourquoi pas non plus des flux RSS/Atom) ? Google et Yahoo gèrent la directive X-Robots-Tag qui se déclare directement dans l’entête HTTP, ce qui le rend utilisable avec n’importe quel format de document. Voici quelques précisions sur cette fonctionnalité…

Le

Indexation applications dans Google

Tuto : faire indexer son application mobile dans Google

Il est désormais possible de faire indexer votre application mobile dans Google, afin qu’elle apparaisse directement dans les résultats de recherche sous forme d’un bouton, quand une des pages de votre site sort dans les SERP (recherche « In App »).

Le

Googlebot

Google : crawl et indexation malgré interdiction via fichier robots.txt ?

Depuis 2012 environ, il est parfois difficile de comprendre si Google respecte vraiment bien les directives du fichier robots.txt (qui interdit l’accès aux URL, c’est-à-dire leur crawl, et donc leur indexation). Certaines pages peuvent désormais être trouvables dans Google sans que Google les ait crawlées : elles sont ni indexées ni inconnues… Ce dossier fait le point sur ce sujet.

Le

Googlebot, le crawler de Google

Google lit les CSS et JS, mais pour quoi faire exactement ?

Matt Cutts a indiqué dans une vidéo qu’il ne fallait pas bloquer l’accès à Googlebot aux fichiers CSS et Javascript (via le fichier robots.txt). Pourquoi donc ? Est-ce vraiment une bonne idée de suivre cette recommandation ? Voici quelques éléments de réflexion.

Le

Crawl et indexation Google du Javascript

Google indexe mieux le Javascript (+AJAX) et les formulaires en POST

Si vous pensiez être tranquille avec vos pages en AJAX et vos formulaires de type POST (au lieu de GET), sachez que c’est fini ! Googlebot, le robot de Google, sait désormais bien interpréter le Javascript (ainsi qu’AJAX) et les pages résultant d’un envoi de données via la méthode POST d’un formulaire. Pour ceux qui avaient développé un site tout en Javascript ou AJAX, ça peut par contre être une bonne nouvelle. Explications…

Le

Facebook Comments

Les commentaires Facebook désormais indexables par Google

Certains sites utilisent le module de commentaires de Facebook, permettant aux internautes de laisser des commentaires sur un site web en étant connecté à leur compte Facebook. Jusqu’alors invisibles de Googlebot, ces commentaires peuvent désormais être indexés.

Le

schema.org : standard de données structurées (microdata)

Pour mieux comprendre la sémantique des données présentes dans les pages web, les moteurs ont besoin que les données structurées soient formatées avec un standard connu. Jusqu’à présent, plusieurs standards cohabitaient (microformats, RDFa, microdata, etc.). Les 3 moteurs de recherche Google, Bing et Yahoo ont décidé de se regrouper pour créer un nouveau standard commun intitulé schema.org, à la manière du standard sitemaps.org. Explications…

Le

Google officialise son infrastructure Caffeine

Connue sous le nom de code Caffeine, la nouvelle infrastructure technique de Google est officiellement en place. Comme je l’ai déjà répété à plusieurs reprises, il s’agit surtout de changements internes chez Google qui concernent majoritairement le crawl et l’indexation (la fraîcheur de l’index serait améliorée de 50%). C’est donc seulement de façon indirecte que nous sommes concernés, pas en tant que changement d’algorithme (comme récemment avec May Day).

Le

Pubsubhubbub : aide à l’indexation temps réel

Pubsubhubbub est un protocole  open source destiné à faciliter les abonnements aux flux RSS/Atom, permettant aux abonnés d’être notifiés en quasi temps réel de l’arrivée de nouveaux éléments, tout en réduisant la charge des éditeurs hébergeant ces flux. Développé par Brad Fitzpatrick, Brett Slatkin et Mihai Parparita, 3 ingénieurs de Google, Pubsubhubbub est déployé progressivement sur un grand nombre de produits Google. Wordpress le propose via un plugin, et vous, allez-vous l’adopter ? Cet article vous explique tout !

Le

2 millions de serveurs dans les data centers Google ?

L’infrastructure technique impressionnante de Google est certainement un des éléments clés de sa réussite d’une part, et des difficultés des concurrents pour le rattraper. The Economist estime aujourd’hui à 2 millions le nombre de serveurs utilisés par Google dans ses différents data centers.

Le

Sites blacklistés par Google

Cet article présente la notion de blacklistage (blacklisting) de Google et indique ce qu’il faut faire si votre site est ainsi banni de l’index Google.

Le

Googlebot, le crawler de Google

Description du cache de Google

Pour indexer des millions de pages tous les jours, Google utilise une « armée » de robots d’indexation, appelés GoogleBot (lire l’étude sur GoogleBot pour en savoir plus). A chaque fois qu’un de ces robots visite une page, il la récupère et la stocke sur un des serveurs de Google. Cette version du document est appelée la version cache. On comprend vite qu’avec des milliards de documents Google ait besoin de plus de 10 000 serveurs (et beaucoup de disques durs…).

Le

Google Data Centers

Les milliers de serveurs de Google sont répartis sur des centres de données, appelés Data Centers. Voici la liste des premiers data centers de Google…

Le

Les mécanismes du crawl de Google

Depuis l’été 2007, Google a considérablement amélioré son système de crawl : non seulement le moteur semble arriver à indexer les très nombreuses pages créées chaque jour sur le web, mais il n’est plus rare de voir des pages indexées en quelques minutes à peine ! Voici quelques explications issues d’un brevet de Google qui décrit les différents types de crawlers et leurs rôles respectifs.

Le

Google a répertorié 1000 milliards de pages sur le web !

1 trillion, c’est-à-dire mille milliards (1.000.000.000.000) : voilà le nombre de pages web distinctes que Google a répertorié ! Jesse Alpert et Nissan Hajaj (2 ingénieurs de Google de l’équipe en charge de l’infrastructure de la recherche) donnent quelques chiffres qui donnent le tournis…

Le

Googlebot remplit les formulaires !

Alors que jusqu’à présent les pages accessibles uniquement via un formulaire font partie de ce qu’on appelle le web invisible (des moteurs de recherche), Google a commencé à expérimenter le crawl des formulaires. C’est à la fois une bonne et une mauvaise nouvelle… explications.

Le

Google crawle les fichiers CSS

Jusqu’à présent, Google ignorait totalement les feuilles de styles (CSS), mais on voit désormais des robots de Google venir les crawler. Quels sont les objectifs de Google ?

Le

Googlebot analyse certains codes JavaScript

Apparemment Googlebot arrive a analyser les codes Javascript contrairement à tout ce qu’on a pu entendre pour le moment, et il arrive meme à déceler les URL à l’intérieur de ces Javascript (il cherche à trouver les URL présentes dans le code et à les suivre)…

Le

Google veut référencer les livres

Alors que la relation entre Google et Amazon oscille entre partenariat et concurrence, avec notamment la nouvelle possibilité sur le site d’Amazon de faire des recherches en texte intégral, Google s’apprête à copier Amazon en se lançant dans le référencement de livres en texte intégral.

Le

Googlebot expliqué en détails

GoogleBot est le nom du robot d’indexation de Google. Ce robot est programmé pour fonctionner sur des centaines de machines à la fois, avec des adresses IP différentes. Il faut dire qu’il a 3 milliards de documents à mettre à jour régulièrement, et des millions de nouveaux à découvrir…

Le

La vie d’une page sur le web : Fresh Crawl, Deep Crawl, Google Dance…

Mise à jour : cet article date de plusieurs années, attention à le lire pour votre culture web personnelle ! En effet bien des choses ont changé : Google est mis à jour en permanence (crawl, indexation, algorithme, etc.) et les techniques décrites ici ne sont plus forcément applicables à 100% (par exemple il n’existe plus vraiment de Deep Crawl, Fresh Crawl et autres Full Crawl ou Google Dance)…

La vie d’une page sur le web est ponctuée en général de nombreuses visites, que ce soit de visiteurs (humains), de robots de moteurs de recherche voire de logiciel (aspirateurs de sites). Si la dernière catégorie n’intéresse pas vraiment le webmaster, il souhaite en général augmenter la fréquence des deux autres… Intéressons-nous aux visites des robots, par exemple celles de GoogleBot, le robot de Google.

Le

Google passe le cap des 3 milliards de pages

Comme on peut le voir sur sa page d’accueil, Google indexe maintenant plus de 3 milliards de documents : « Nombre de pages Web recensées par Google : 3,083,324,652 ».

Le