Mod-rewrite = Google friendly?

Nouveau WRInaute
Bonjour,

J'ai cree un sript en Php et j'ai envie de generer a partir des .php des .htm

Est ce que le htaccess ci dessous peut faire l'affaire? Est ce que ce sera "Google friendly"? Dans le cas contraire, que faire (pour eviter le "duplicated content"?)

Code:
RewriteEngine On

RewriteRule ^Reviews-(.*)-(.*).htm$ Reviews.php?Location=$1&offset=$2 [nc]

RewriteRule ^Reviews2-(.*).htm$ Reviews2.php?ID=$1 [nc]

RewriteRule ^Reviews3-(.*)-(.*)-(.*).htm$ 
Reviews3.php?Location=$1&Category2=$2&offset=$3 [nc]

RewriteRule ^Votes-(.*).htm$ Test.php?Location=Amorgos [nc]

Merci
 
WRInaute discret
Bonjour à tous,
Pour éviter les duplicate content, il suffit de créer un fichier "robots.txt" placé à la racine du site.
Le but de ce fichier étant d'interdire l'accès aux robots, pour les pages non rewritée et donc de ne leur laisser, que la possibilité de scanner les pages rewritées.
On y place à l'intérieur un code de ce type:
Code:
User-agent: *

Disallow: /ma_page.php

User-agent:* signifie tous les robots sans exceprion
ma_page.php était, avant rewriting, une page appelée avec des variables dans l'url, et c'est celle-ci qu'on interdit aux robots de parcourir.
 
WRInaute discret
bonjour,

et si ma_page.php contient des variable a la suite, comment l'interdire d'un coup toutes les pages contenant ma_page.php
car j'ai des pages du genre ma_page.php?xxxxxx
et depuis que je suis passe en UR ces pages la sont toujours accessible et du coup GG ne reference pas les nouvelles
 
WRInaute discret
Si tu interdis ma_page.php, toutes les url à variables en découlant, du type ma_page.php?var1=x&var2=y... sont interdites.
 
WRInaute discret
merci de ta reponse

et si je ne veux l'interdire que pour GG je met quoi exactement
car j'ai deja des choses dans mon htaccess j'ai un peu peur qu'il y ai des confusions
 
WRInaute discret
Voilà, entre temps j'ai retrouvé ceci: https://www.webrankinfo.com/forum/t/robots-txt-et-pages-dynamiques.29995/ qui confirme bien mes dires.

Les robots continueront quand même un moment à venir voir les pages avec paramètres, si elle étaient indexées auparavant, c'est normal; mais les robots n'ayant plus le droit de les scanner, vont petit à petit arréter de repasser sur celles-ci.

Pour n'interdire que Google, il suffit de connaitre le nom du user agent, qui est dans le cas de google, il me semble : Googlebot/2.1 (+http://www.googlebot.com/bot.html)
 
Discussions similaires
Haut