Erreur Fichier Robots.txt > désindexation de site

WRInaute occasionnel
Bonjour,

Suite à une erreur de déploiement de notre service informatique, l'un de nos sites s'est vu désindexé de Google début juillet.
Nous venons de nous apercevoir du problème; celui-ci est lié à la mise en ligne d'un fichier robots.txt empêchant l'indexation du site (à l'origine celui-ci doit rester uniquement sur l'environnement de préproduction). Nous venons de supprimer ce fichier.

Cependant cela fait 24h et le site ne semble toujours pas être re-crawlé par Google.

Comment pourrions-nous accélérer ce process ?

Merci d'avance.

Bonne journée,
 
WRInaute passionné
Bonjour,

- Re-soumettre le sitemap dans les GWT.
- Créer de nouveau BL.
- Croiser les doigts pour qu'il se grouille...

J'ai eu le cas sur un forum coché sans le savoir "interdit aux moteurs". Ca a pris 10 jours pour qu'il recommence à indexer et 4 mois pour que toutes les pages soient ré-indexées.

Rod
 
WRInaute occasionnel
Bonjour Rod,

Merci pour ton retour. C'est effectivement ce que j'ai fait (sitemap et nouveau BL).

Croiser les doigts c'est plus complexe car je suis greffé à mon clavier. :)

Bon après-midi.
 
WRInaute occasionnel
Bonjour,

Pour information, le site a été crawlé 24h après notre échange sur ce forum.
Je pense que le sitemap et les nouveaux backlinks ont bien aidé.

Merci.
 
Discussions similaires
Haut