Le robots.txt fonctionne bien pour enlever ses pages !

WRInaute passionné
Salut a tous

donc juste pour vous confirmez que toutes mes pages ecritent dans mon fichier robots.txt que google avait scanner on était désindexés ce soir, la premiere etape était qu'elles n'avaient plus de snipets, ni de caches, et la elles existent plus.

J'ai attendu 1 mois.

Donc voila si vous avez une page a desindexé, c'est officiel : utilisez le robots.txt, je suis catégorique la dessus, ce qui était pour beaucoup une suspition devien reel :)
 
WRInaute passionné
exact, mais rien ne vaut un ecrit noir sur bleu turquoise tu pense pas ?

:lol:

donc voila, des réactions ? :d
 
WRInaute passionné
Je le savais, c'est effectivement noté partout; mais c'est toujours appréciable d'avoir une confirmation humaine d'un confrère sympathique :)
 
WRInaute passionné
Cool !
Tu peux me confirmer stp :
est-ce que Momo lave plus blanc ?
Est-ce que chez conforama, la vie est moins chère ?

:lol: tu m'ôteras d'un doute :P
 
WRInaute passionné
MDr dj_apx, bel humour, et merci cedfr ;)

Maitenant mettez cet url en favoris et donnez la au futur Wdrinautes debutants qui aurons a se poser ce genre de question ( moi perso jusqu'a avant hier j'avais un gros doute, mais la c'est bon, faut dire que 8 milliards de pages pour mr googlebot a re-visiter, ca prend le temps a se mettre en place lol :) )
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut