Robots.txt pour phpbb : Disallow de certaines urls

WRInaute accro
M'intéresse aussi

J'ai idem en bloquant via le robot.txt certaines parties de mon forum, notamment versions imprimables, ... avec un forum oxygen. Ca vient donc directement de robot.txt
 
WRInaute accro
pourtant il devrait !
Quelqu'un peut m'aider j'ai le mm problème :(
Voici mon robots.txt
User-agent: *
Disallow: /forum/sutra*.html$
Disallow: /forum/ptopic*.html$
Disallow: /forum/ntopic*.html$
Disallow: /forum/ftopic*asc*.html$
Disallow: /forum/print_topic*asc*.html$
Disallow: /forum/forum_archive*asc*.html$
j'ai fait ça par ce que j'ai mis l'url rewriting comme indiqué sur le post de référence dans WRI ici https://www.webrankinfo.com/forum/t/phpbb-et-url-rewriting-les-solutions.6801/
Mais depuis une semaine GG indexe mes pages comme si l'url rewriting n'était pas en place !
Genre https://www.google.fr/search?hl=fr&ie=UT ... ogle&meta= la page indexée ici :?
Comment faire ?
MERCI !
 
WRInaute impliqué
Vous etes trop drôle !
N'oublier pas que google est capable de trouver toutes les pages de votre site, c'est un pur hacker robotisé , ahahaha
bon pour le dernier qui nous montre son robot.txt
tu ne veux pas que ton forum soit referencé ? si c'est bien cela, ton robot.txt devrait ressembler simplement a cela :

User-agent: *
Disallow: /forum

Et dire que tu as un forum d'entraide informatique, je rigole moi, qui n'est pas un pro et qui n'a jamais utilisé un robot.txt

Excuse moi de ceci, ne le prend pas mal, mais reflechis un petit peu ...
 
WRInaute impliqué
Ah excuse moi, mais j'avais oubliez un detail tres important !
et ce detail me permet de te dire que ton robot.txt ne sert strictement à rien !
tu as du changer l'url de ton forum qui etait d'apres ton robot.txt -www.tonsite.com/forum/
mais n'as tu pas recemment changé l'adresse de ton forum, en la pointant sur
forum.tonsite.com ?
dans ce cas, IL FAUDRAIT CREER UN ROBOT.TXT DANS LE REPERTOIRE OU SE SITUE FORUM.TONSITE.COM

User-agent: *
Disallow: /

serait ce bon ?
 
WRInaute impliqué
Je ne suis pas plus elevé intellectuellement que toi !
Il est vrai que je n'y etais pas allé mollo avec toi d'ou les excuse par avance ...
Cependant, je n'ai pas regarder la config d'un robot.txt, donc peut etre la derniere config est mauvaise.

Mais avec plus de detail, c'est beaucoup plus facile !

Peut etre c'est juste pour diverger sur ton joli site sur les standarts, et la je me dis qu'il est capable de faire un site sur les standarts,agreable et de ne pas pouvoir debugger une erreur comme cela...

Il est vrai que c'est plus facile de detecter une erreur par un autre, c'est le theoreme de la re-lecture.

Mais peut etre tu n'as pas de probleme, et que tu voulais montrer aux precedents posteurs d'afficher leurs codes , et plus de renseignements, car chaque site est different ...

En ce qui concerne ton sujet de site, j'ai ma façon de coder, et tant que les standarts ne seront pas respecter par les navigateur, je coderais pour les navigateurs, et non pour les standarts ! (ce qui rejoint l'idée un site pour les visiteurs, et non pour les robots ! )
Les standarts evite l'optimisation de taille, pourquoi fermer une balise div se situant dans la cellule d'unn tableau, alors que le simple fait de fermer la cellule annule la balise div, et tous les navigateur reagisse ainsi, alors que le standart de dis que tu as fais une erreur, vous n'avez pas refermer votre balise a la ligne 42 !
autre exemple, prendre en consideration d'un navigateur avec sript activéé ou non avec une balise lien,
<script><a href="#null" onclick=window.open(blabla.htm','nam','les option que l'on veut'></script>
<noscript><a href=blabla.htm target="_new"></noscript>
texte du lien sur blabla</a>
la le standart ne comprendra pas a quoi correspond </a>, pourtant cela evite de repeter deux la meme chose , et ne genera d'auncune maniere le navigateur !
Désolé , je suis de l'ancienne generation, où un byte est un byte !
c'est un point de vu ... et rien contre toi, et comme je l'ai dis plus cela evite d'etre relu correctement par un robot, genre pour dupliquer du contenu, car les standarts permette ce genre de chose, il code standart, je le decode standart, je l'affice a ma maniere ...

Sinon, ton probleme ne viendrait pas par rapport a ce que je t'ai indiqué a ton post precedent ? Merci de l'indiqué
 
WRInaute occasionnel
Comme dit GAMING ZONE
Code:
User-agent: * 
Disallow: /forum
dans ton robot.txt à la racine du forum.
Ton forum ne sera plus indexé.
@+ Mojy
 
WRInaute impliqué
mojy
cette reponse est completement fausse
le forum est situé a l'adresse forum.lesite.com
et non pas -www.lesite.com/forum
donc completement different
 
WRInaute occasionnel
Merci Erazor :wink: .
Ben l'autre y m'engueule alors que je l'approuve. :lol:

milkiway tu rajoutes dans le header de ton forum
Code:
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
ça aide aussi. 8)
@+ Mojy
 
WRInaute impliqué
justement, si c'est a la racine forum.tonsite.com

User-agent: *
Disallow: /forum

alors google ne reference pas tous ce qui ce trouve /forum
mais il reference index.php
ou mieux l'url a chercher a savoir forum.lesite.com/viewtopic.php?t=311

alors, c'est toujours juste ?
 
WRInaute accro
Non non jeme suis drolement mal exprimé :ce que je veux dire c'est que mes pages sous forme /index.php?monzob=estgros sont indexées alors que je ne veux indéxer QUE les pages avec url réécrite, donc sous fome /monzob_estgros.html
Exactement comme indiqué sur le guide URL Rewriting.
Je VEUX indexer mon forum !

Que dois je mettre dans mon robots.txt

Pour le forum il est accessible en sous domaine donc sous la forme http://forum.en1heure.com/ mais c''est en fait un dossier de en1heure.com
 
WRInaute impliqué
Je ne suis pas un pro, mais il me semble que ton robot txt devrait ressembler à cela ? :

Code:
Disallow: posting.php?mode=reply&t=*$
Disallow: posting.php?mode=quote&p=*$
 
WRInaute accro
Pourtant tout a fonctionné, tu penses donc que ça
Code:
Disallow: posting.php?mode=reply&t=*$
Disallow: posting.php?mode=quote&p=*$
suffirait ?
 
Discussions similaires
Haut