Faire une copie de mes pages PHP + robots.txt

WRInaute discret
Bonjour !

Voilà j'ai un problème, le robot-explorateur de google ignorent mes pages .php ... alors une personne de leur équipe m'a dit de faire une copie de ses pages, alors déjà, comment faire ?

et ensuite si je fais sa il faut que je fasse un fichier robots.txt, alors comment aussi ? car j'ai trouvé un truc mais je n'y comprends rien ... :

# /robots.txt file for http://webcrawler.com/
# mail webmaster@webcrawler.com for constructive criticism

User-agent: webcrawler
Disallow:

User-agent: lycra
Disallow: /

User-agent: *
Disallow: /tmp
Disallow: /logs

)


Voilà ! Merci d'avance et bonne journée !
 
WRInaute discret
Salut ;)

Oki merci ;) je verrai sa en rentrant là faut que j'aille au bahut ... lol
Pour les pages php je sais ... mais bon ... tu penses que s'il ignore mes pages avec un robots.txt sa ira ?
 
WRInaute discret
voilà ;) j'ai fais un fichier robot et j'y ai mis ceci :

User-agent: *
Disallow:


Mais là je viens de voir sur Google que mon site en .com avait monté ;) je pense que c'etait à cause du nombre de pages vues ;) rien de grave donc ... je pense que mon site est bien référencé ... on verra bien comment la suite se déroulera ;)

Merci encore ;) Bonne journée ! je vous tiens au courant de la suite des événements ;)
 
WRInaute discret
a vu de nez la suite risque de pas trop bien se passer, c'est quoi que tu veux faire? car avec ce robot.txt tu interdis à tous les agents (enfin ceux qui respectent le standard, donc google) de ne pas crawler ton site...
 
Discussions similaires
Haut