Bonjour à tous, J'ai mis en place un robot.txt, qui empêche l'indexation de certaines pages de mon site ecommerce (page de recherches et de filtres). Ces pages étaient déjà indexées sur Google, et je me retrouve aujourd'hui avec les messages suivants dans google webmaster : Google detected a significant increase in the number of URLs we could not access. It is likely that your server had an internal error or was busy when attempting to process these requests. Augmentation des pages "404" Ma question est simple, dois-je m'en inquiéter ? en sachant que les pages dont Google n'a plus accès sont des pages qui n'auraient jamais du être indexées. Merci d'avance, Bien à vous,