Robots.txt Le fichier bloque l'accès à mon site

WRInaute discret
Bonjour à tous ,

Une question qui me fait flipper. j'ai mis un robots.txt à la reacine de mon site :

Code:
User-agent: *

User-agent: Alexibot
User-agent: asterias
User-agent: BackDoorBot/1.0
User-agent: Black Hole
User-agent: BlowFish/1.0
User-agent: BotALot
User-agent: BuiltBotTough
User-agent: Bullseye/1.0
User-agent: BunnySlippers
User-agent: Cegbfeieh
User-agent: CheeseBot
User-agent: CherryPicker
User-agent: CherryPickerElite/1.0
User-agent: CherryPickerSE/1.0
User-agent: CopyRightCheck
User-agent: cosmos
User-agent: Crescent
User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
User-agent: DISCo Pump 3.1
User-agent: DittoSpyder
User-agent: EmailCollector
User-agent: EmailSiphon
User-agent: EmailWolf
User-agent: EroCrawler
User-agent: ExtractorPro
User-agent: Foobot
User-agent: Harvest/1.5
User-agent: hloader
User-agent: httplib
User-agent: humanlinks
User-agent: InfoNaviRobot
User-agent: JennyBot
User-agent: Kenjin Spider
User-agent: LexiBot
User-agent: libWeb/clsHTTP
User-agent: LinkextractorPro
User-agent: LinkScan/8.1a Unix
User-agent: LinkWalker
User-agent: lwp-trivial
User-agent: lwp-trivial/1.34
User-agent: Mata Hari
User-agent: Microsoft URL Control - 5.01.4511
User-agent: Microsoft URL Control - 6.00.8169
User-agent: MIIxpc
User-agent: MIIxpc/4.2
User-agent: Mister PiX
User-agent: moget
User-agent: moget/2.1
User-agent: NetAnts
User-agent: NetAttache
User-agent: NetAttache Light 1.1
User-agent: NetMechanic
User-agent: NICErsPRO
User-agent: Offline Explorer
User-agent: Openfind
User-agent: Openfind data gathere
User-agent: ProPowerBot/2.14
User-agent: ProWebWalker
User-agent: psbot
User-agent: QueryN Metasearch
User-agent: RepoMonkey
User-agent: RepoMonkey Bait & Tackle/v1.01
User-agent: RMA
User-agent: SiteSnagger
User-agent: SpankBot
User-agent: spanner
User-agent: SuperBot
User-agent: SuperBot/2.6
User-agent: suzuran
User-agent: Szukacz/1.4
User-agent: Teleport
User-agent: Telesoft
User-agent: The Intraformant
User-agent: TheNomad
User-agent: TightTwatBot
User-agent: Titan
User-agent: toCrawl/UrlDispatcher
User-agent: True_Robot
User-agent: True_Robot/1.0
User-agent: turingos
User-agent: URLy Warning
User-agent: VCI
User-agent: VCI WebViewer VCI WebViewer Win32
User-agent: Web Image Collector
User-agent: WebAuto
User-agent: WebBandit
User-agent: WebBandit/3.50
User-agent: WebCopier
User-agent: webcopy
User-agent: WebEnhancer
User-agent: WebmasterWorldForumBot
User-agent: webmirror
User-agent: WebReaper
User-agent: WebSauger
User-agent: website extractor
User-agent: Website Quester
User-agent: Webster Pro
User-agent: WebStripper
User-agent: WebStripper/2.02
User-agent: WebZip
User-agent: WebZip/4.0
User-agent: Wget
User-agent: Wget/1.5.3
User-agent: Wget/1.6
User-agent: WinHTTrack
User-agent: WWW-Collector-E
User-agent: Xenu's
User-agent: Xenu's Link Sleuth 1.1c
User-agent: Zeus
User-agent: Zeus 32297 Webster Pro V2.9 Win32
User-Agent: MJ12bot
User-agent: HTTrack
User-agent: HTTrack 3.0
User-agent: TurnitinBot
User-agent: QuepasaCreep 
Disallow: /

et en allant sur google sitemaps et en consultant robots.txt analyse voila ce qui est ecris :

Le fichier bloque l'accès à http://www.monsite.com/

est ce que j'ai fais une connerie et si oui laquelle ? merci d'avance
 
WRInaute accro
Code:
User-agent: *

Bonjour,

Essaies en enlevant ces lignes puis resoumet.

@+

Edité : pour la précision un fichier robots.txt interdit, il n'autorise pas en l'occurence l'absence de mention laisse supposer que tu interdis à tous les robots, y compris google.
 
WRInaute impliqué
User-agent: *
Ca, ça veut dire "tous les bots"...

Donc forcément, tu as beau déclarer ce que tu veux ensuite... ça ne change rien, tu t'adresses à TOUS LES BOTS ^^

Pourquoi veux-tu désactiver tous ces bots au fait ???
 
WRInaute discret
en faite je n'ai pas très bien compris le contenue du .txt

dans ce fichier je ne veux rien interdire, ce qui fait que ça ne sert à rien que je mette un robots.txt non.

merci
 
WRInaute impliqué
Voilà, si tu veux que tes pages soient accessibles à tous les robots, ne mets pas de robots.txt.

Le robots.txt, c'est plutôt pour interdire l'accès à certains fichiers ou dossiers (un répertoire /admin/ par exemple)
 
WRInaute passionné
Vide le, le robots.txt peut te permettre d'empécher certains robots de venir sur certaines parties ou fichier de ton site.
 
WRInaute discret
Bacteries a dit:
Vide le, le robots.txt peut te permettre d'empécher certains robots de venir sur certaines parties ou fichier de ton site.

il suffit de le virer de la racine du site pour que je ne bloque plus rien , c'est ce que tu voulais dire par vide le ??
 
WRInaute discret
j'ai viré le robots.txt et j'ai toujours le même message , dois je attendre une quelconque mise à jour ??

merci
 
WRInaute passionné
Pour faire ton fichier robots.txt valide tu peux utiliser ce petit outil qui est très pratique et simple à utiliser
=> -http://www.mcanerin.com/EN/search-engine/robots-txt.asp
 
WRInaute discret
keroin a dit:
Pour faire ton fichier robots.txt valide tu peux utiliser ce petit outil qui est très pratique et simple à utiliser
=> -http://www.mcanerin.com/EN/search-engine/robots-txt.asp

merci :wink: , mais j'ai viré le robots.txt vu que je n'ai rien à interdire :oops:
 
WRInaute accro
=>keroin
Y en a un également en français. mais bon c'est vrai que le site est mal classé sur google. ;)

=>RyoSaeba
C'est la bonne instruction effectivement.
 
Discussions similaires
Haut