Rediriger ancienne page vers nouvelle page (plusieurs centaines)

Nouveau WRInaute
Bonjour à tous,

Je voudrais re-diriger plusieurs centaines de pages d'un même domaine

J'ai rajouté, par exemple
Code:
Redirect 301 /page.html  http://www.bio-sante.fr/autrepage.php

ça ne marche pas.
Auriez-vous une solution à me proposer ?

Voici le .htaccess :
Code:
SetEnv SHORT_OPEN_TAGS 0
SetEnv REGISTER_GLOBALS 0
SetEnv MAGIC_QUOTES 0
SetEnv ZEND_OPTIMIZER 1
ErrorDocument 403 /erreur.htm
ErrorDocument  404  http://www.bio-sante.fr/index.php

Options -Indexes


RewriteEngine On

# RewriteCond Chaine_de_test Condition_a_tester [drapeau]
# HTTP_HOST Retourne le nom du serveur qui a été demandé dans la requête.
# Exemple : localhost ou craym.eu
# Références arrières de règle de réécriture :
# ce sont des références arrières de la forme $N (0 <= N <= 9),
# qui donnent accès aux parties groupées (entre parenthèses)
# du modèle tiré de la RewriteRule assujettie au jeu de conditions
# concerné.
RewriteCond %{SERVER_PORT} 80
RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]
#RewriteCond %{HTTPS} off
#RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [R,L]
#RewriteCond %{HTTP_HOST} ^bio-sante.fr [NC]
#RewriteRule ^(.*)$ http://www.bio-sante.fr/$1 [L,R=301]

###FILTRE CONTRE CERTAINS ROBOTS DES PIRATES
RewriteEngine On
## EXCEPTION: TOUS LES ROBOTS MEMES ANONYMES OU BANNIS PEUVENT ACCEDER A CES FICHIERS
RewriteCond %{REQUEST_URI} !^/robots.txt
RewriteCond %{REQUEST_URI} !^/sitemap.xml
##
RewriteCond %{HTTP_USER_AGENT} ^-?$ [OR] ## ANONYMES
RewriteCond %{HTTP_USER_AGENT} ^curl|^Fetch\ API\ Request|GT\:\:WWW|^HTTP\:\:Lite|httplib|^Java|^LeechFTP|lwp-trivial|^LWP|libWeb|libwww|^PEAR|PECL\:\:HTTP|PHPCrawl|PycURL|python|^ReGet|Rsync|Snoopy|URI\:\:Fetch|urllib|WebDAV|^Wget [NC] ## BIBLIOTHEQUES / CLASSES HTTP DONT ON NE VEUT PAS. ATTENTION, CELA PEUT BLOQUER CERTAINES FONCTIONS DE VOTRE CMS. NE PAS TOUT EFFACER, MAIS CHERCHEZ LE NOM DE LA CLASSE HTTP CONCERNEE (DEMANDEZ AUX DEVELOPPEURS DE VOTRE CMS). CETTE LISTE BLOQUE 80% DES ROBOTS SPAMMEURS. IL FAUT LA CONSERVER.
## RewriteCond %{HTTP_USER_AGENT} ^[bcdfghjklmnpqrstvwxz\ ]{10,}|^[0-9a-z]{15,}|^[0-9A-Za-z]{19,}|^[A-Za-z]{3,}\ [a-z]{4,}\ [a-z]{4,} [OR] ## CEUX QUI INVENTENT DES NOMS AU HASARD, RETIREZ LES 2 DIESES EN DEBUT DE LIGNE POUR L'ACTIVER
RewriteRule (.*) - [F]

### FILTRE CONTRE XSS, REDIRECTIONS HTTP, base64_encode, VARIABLE PHP GLOBALS VIA URL, MODIFIER VARIABLE _REQUEST VIA URL, TEST DE FAILLE PHP, INJECTION SQL SIMPLE
RewriteEngine On
RewriteCond %{REQUEST_METHOD} (GET|POST) [NC]
RewriteCond %{QUERY_STRING} ^(.*)(%3C|<)/?script(.*)$ [NC,OR]
RewriteCond %{QUERY_STRING} ^(.*)(%3D|=)?javascript(%3A|:)(.*)$ [NC,OR]
RewriteCond %{QUERY_STRING} ^(.*)document\.location\.href(.*)$ [OR]
RewriteCond %{QUERY_STRING} ^.*(%24&x).* [NC,OR]
RewriteCond %{QUERY_STRING} ^.*(127\.0).* [NC,OR]
RewriteCond %{QUERY_STRING} ^(.*)(%3D|=)(https?|ftp|mosConfig)(%3A|:)//(.*)$ [NC,OR] ## ATTENTION A CETTE REGLE. ELLE PEUT CASSER CERTAINES REDIRECTIONS RESSEMBLANT A: http://www.truc.fr/index.php?r=http://www.google.fr ##
RewriteCond %{QUERY_STRING} ^.*(_encode|localhost|loopback).* [NC,OR]
RewriteCond %{QUERY_STRING} ^(.*)GLOBALS(=|[|%[0-9A-Z]{0,2})(.*)$ [OR]
RewriteCond %{QUERY_STRING} ^(.*)_REQUEST(=|[|%[0-9A-Z]{0,2})(.*)$ [OR]
RewriteCond %{QUERY_STRING} ^(.*)(SELECT(%20|\+)|UNION(%20|\+)ALL|INSERT(%20|\+)|DELETE(%20|\+)|CHAR\(|UPDATE(%20|\+)|REPLACE(%20|\+)|LIMIT(%20|\+)|CONCAT(%20|\+)|DECLARE(%20|\+))(.*)$ [NC]
RewriteRule (.*) - [F]

### DES FAUX URLS OU VIEUX SYSTEMES OBSOLETES, ON LES NEUTRALISE
RedirectMatch 403 (\.\./|base64|boot\.ini|eval\(|\(null\)|^[-_a-z0-9/\.]*//.*|/etc/passwd|^/_vti.*|^/MSOffice.*|/fckeditor/|/elfinder/|zoho/|/jquery-file-upload/server/|/assetmanager/|wwwroot|e107\_)
# DESACTIVE LES METHODES DE REQUETES TRACE TRACK DELETE
RewriteEngine On
RewriteCond %{REQUEST_METHOD} ^(TRACE|DELETE|TRACK) [NC]
RewriteRule ^.* - [F]



## contrôle du cache navigateur - Expire headers
<IfModule mod_expires.c>
   ExpiresActive On
   ExpiresDefault "access plus 7200 seconds"
   ExpiresByType image/jpg            "access plus 1 week"
   ExpiresByType image/jpeg            "access plus 1 week"
   ExpiresByType image/png            "access plus 1 week"
   ExpiresByType image/gif            "access plus 1 week"
   ExpiresByType image/svg+xml           "access plus 1 week"
   AddType image/x-icon .ico
   ExpiresByType image/ico            "access plus 1 week"
   ExpiresByType image/icon            "access plus 1 week"
   ExpiresByType image/x-icon            "access plus 1 week"
   ExpiresByType text/css                "access plus 1 week"
   ExpiresByType text/javascript        "access plus 1 week"
   ExpiresByType text/html            "access plus 7200 seconds"
   ExpiresByType application/xhtml+xml    "access plus 7200 seconds"
   ExpiresByType application/javascript    "access plus 1 week"
   ExpiresByType application/x-javascript    "access plus 1 week"
   ExpiresByType application/x-shockwave-flash "access plus 1 week"
</IfModule>

<IfModule mod_headers.c>

<FilesMatch "\\.(ico|jpe?g|png|gif|swf)$">
Header set Cache-Control "max-age=31536000, public"
</FilesMatch>

<FilesMatch "\\.(css)$">
Header set Cache-Control "max-age=604800, public"
</FilesMatch>

<FilesMatch "\\.(js)$">
Header set Cache-Control "max-age=2628000, private"
</FilesMatch>

<FilesMatch "\\.(x?html?|php)$">
Header set Cache-Control "max-age=86400, private, must-revalidate"
</FilesMatch>

</IfModule>
# KILL THEM ETAGS
Header unset ETag
FileETag none

<IfModule mod_deflate.c>
    <filesMatch "\.(js|css|html|php)$">
        SetOutputFilter DEFLATE
    </filesMatch>
</IfModule>
 
WRInaute accro
Code:
RewriteCond %{REQUEST_URI} ^/ancienne-page.html$
RewriteRule ^ancienne-page.html$             http://www.example.com/nouvelle-page.html [R=301,L]
 
Discussions similaires
Haut