WRInaute occasionnel
Bonsoir,
pourquoi faut-il, lorsqu'on a url rewrité son forum, ajouter un fichier robots.txt contenant
Disallow: /forum/sutra*.html$
Disallow: /forum/ptopic*.html$
Disallow: /forum/ntopic*.html$
Disallow: /forum/ftopic*asc*.html$
je ne comprends pas. L'auteur de ce post disait que cela evitait les doubles scan de GG et donc, des 'pénalités'...
Je ne suis pas un expert de robots.txt, mais il me semble que cela va carrement interdire l'indexation des pages non ?
On a bientot fini avec ce sujet... je concocte une bible en ce moment pour url rwter son phpbb...
pourquoi faut-il, lorsqu'on a url rewrité son forum, ajouter un fichier robots.txt contenant
Disallow: /forum/sutra*.html$
Disallow: /forum/ptopic*.html$
Disallow: /forum/ntopic*.html$
Disallow: /forum/ftopic*asc*.html$
je ne comprends pas. L'auteur de ce post disait que cela evitait les doubles scan de GG et donc, des 'pénalités'...
Je ne suis pas un expert de robots.txt, mais il me semble que cela va carrement interdire l'indexation des pages non ?
On a bientot fini avec ce sujet... je concocte une bible en ce moment pour url rwter son phpbb...