WRInaute discret
Bonjour,
Suite à une erreur de mise à jour, j'ai mis en prod un fichier robots.txt qui était destiné à un serveur de test. Résultat, la prod s'est retrouvé avec comme robots.txt:
User-Agent: *
Disallow: /
C'était il y a 10 jours et j'ai maintenant plus 7000 URLS bloquées Error (Submitted URL blocked by robots.txt) ou en Warning (Indexed through blocked byt robots.txt).
Hier, j'ai bien sur corrigé le fichier robots.txt.
Qu'est ce que je peux faire pour accélérer la correction ?
Merci,
Vincent.
Suite à une erreur de mise à jour, j'ai mis en prod un fichier robots.txt qui était destiné à un serveur de test. Résultat, la prod s'est retrouvé avec comme robots.txt:
User-Agent: *
Disallow: /
C'était il y a 10 jours et j'ai maintenant plus 7000 URLS bloquées Error (Submitted URL blocked by robots.txt) ou en Warning (Indexed through blocked byt robots.txt).
Hier, j'ai bien sur corrigé le fichier robots.txt.
Qu'est ce que je peux faire pour accélérer la correction ?
Merci,
Vincent.