Pb de robots.txt avec Sites.google.com

Nouveau WRInaute
Bonjour,

Quand je regarde avec les outils pour webmasters de Google le robots.txt de mon site créé sur https://Sites.google.com je m'aperçois qu'il y a une consigne Disallow dedans.

Le petit souci c'est, comment modifier cette consigne puisqu'avec sites.google.com on n'a pas accès au répertoire du site donc pas accès au robots.txt avec un ftp.

Si quelqu'un a une petite idée, je suis preneur parce que le forum de google ne semble pas très efficace.

Merci d'avance
 
WRInaute passionné
Ouaiii, je veux bien des lunettes sur ce coup la ^^.... j'avais prit l'adresse -https://Sites.google.com comme étant une url quelconque genre mon-site.com ...

Autant pour moi :).
 
Nouveau WRInaute
Oui, je parle bien de celui là

Je pensais que ça bloquait l'indexation de mon site, si ce n'est pas le cas tant mieux. Je débute dans le domaine, ça se voit tant que ça ? .. non ? si ? ...

Merci pour ta réponse

Ceci étant dit, je ne sais toujours pas pourquoi les outils google pour webmasters me disent après avoir fourni un sitemap URL fournies 19, URL indexées 0 ni comment modifier éventuellement ce fichier
 
WRInaute accro
L'indexation des urls fournies n'est pas immédiate et le sitemap ne garantit pas la prise en compte de la totalité des urls.
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut