Rediriger ancienne page vers nouvelle page (plusieurs centaines)

Discussion dans 'URL Rewriting et .htaccess' créé par cachema, 8 Mars 2019.

  1. cachema
    cachema Nouveau WRInaute
    Inscrit:
    8 Mars 2019
    Messages:
    1
    J'aime reçus:
    0
    Bonjour à tous,

    Je voudrais re-diriger plusieurs centaines de pages d'un même domaine

    J'ai rajouté, par exemple
    Code:
    Redirect 301 /page.html  http://www.bio-sante.fr/autrepage.php
    ça ne marche pas.
    Auriez-vous une solution à me proposer ?

    Voici le .htaccess :
    Code:
    SetEnv SHORT_OPEN_TAGS 0
    SetEnv REGISTER_GLOBALS 0
    SetEnv MAGIC_QUOTES 0
    SetEnv ZEND_OPTIMIZER 1
    ErrorDocument 403 /erreur.htm
    ErrorDocument  404  http://www.bio-sante.fr/index.php
    
    Options -Indexes
    
    
    RewriteEngine On
    
    # RewriteCond Chaine_de_test Condition_a_tester [drapeau]
    # HTTP_HOST Retourne le nom du serveur qui a été demandé dans la requête.
    # Exemple : localhost ou craym.eu
    # Références arrières de règle de réécriture :
    # ce sont des références arrières de la forme $N (0 <= N <= 9),
    # qui donnent accès aux parties groupées (entre parenthèses)
    # du modèle tiré de la RewriteRule assujettie au jeu de conditions
    # concerné.
    RewriteCond %{SERVER_PORT} 80
    RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]
    #RewriteCond %{HTTPS} off
    #RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [R,L]
    #RewriteCond %{HTTP_HOST} ^bio-sante.fr [NC]
    #RewriteRule ^(.*)$ http://www.bio-sante.fr/$1 [L,R=301]
    
    ###FILTRE CONTRE CERTAINS ROBOTS DES PIRATES
    RewriteEngine On
    ## EXCEPTION: TOUS LES ROBOTS MEMES ANONYMES OU BANNIS PEUVENT ACCEDER A CES FICHIERS
    RewriteCond %{REQUEST_URI} !^/robots.txt
    RewriteCond %{REQUEST_URI} !^/sitemap.xml
    ##
    RewriteCond %{HTTP_USER_AGENT} ^-?$ [OR] ## ANONYMES
    RewriteCond %{HTTP_USER_AGENT} ^curl|^Fetch\ API\ Request|GT\:\:WWW|^HTTP\:\:Lite|httplib|^Java|^LeechFTP|lwp-trivial|^LWP|libWeb|libwww|^PEAR|PECL\:\:HTTP|PHPCrawl|PycURL|python|^ReGet|Rsync|Snoopy|URI\:\:Fetch|urllib|WebDAV|^Wget [NC] ## BIBLIOTHEQUES / CLASSES HTTP DONT ON NE VEUT PAS. ATTENTION, CELA PEUT BLOQUER CERTAINES FONCTIONS DE VOTRE CMS. NE PAS TOUT EFFACER, MAIS CHERCHEZ LE NOM DE LA CLASSE HTTP CONCERNEE (DEMANDEZ AUX DEVELOPPEURS DE VOTRE CMS). CETTE LISTE BLOQUE 80% DES ROBOTS SPAMMEURS. IL FAUT LA CONSERVER.
    ## RewriteCond %{HTTP_USER_AGENT} ^[bcdfghjklmnpqrstvwxz\ ]{10,}|^[0-9a-z]{15,}|^[0-9A-Za-z]{19,}|^[A-Za-z]{3,}\ [a-z]{4,}\ [a-z]{4,} [OR] ## CEUX QUI INVENTENT DES NOMS AU HASARD, RETIREZ LES 2 DIESES EN DEBUT DE LIGNE POUR L'ACTIVER
    RewriteRule (.*) - [F]
    
    ### FILTRE CONTRE XSS, REDIRECTIONS HTTP, base64_encode, VARIABLE PHP GLOBALS VIA URL, MODIFIER VARIABLE _REQUEST VIA URL, TEST DE FAILLE PHP, INJECTION SQL SIMPLE
    RewriteEngine On
    RewriteCond %{REQUEST_METHOD} (GET|POST) [NC]
    RewriteCond %{QUERY_STRING} ^(.*)(%3C|<)/?script(.*)$ [NC,OR]
    RewriteCond %{QUERY_STRING} ^(.*)(%3D|=)?javascript(%3A|:)(.*)$ [NC,OR]
    RewriteCond %{QUERY_STRING} ^(.*)document\.location\.href(.*)$ [OR]
    RewriteCond %{QUERY_STRING} ^.*(%24&x).* [NC,OR]
    RewriteCond %{QUERY_STRING} ^.*(127\.0).* [NC,OR]
    RewriteCond %{QUERY_STRING} ^(.*)(%3D|=)(https?|ftp|mosConfig)(%3A|:)//(.*)$ [NC,OR] ## ATTENTION A CETTE REGLE. ELLE PEUT CASSER CERTAINES REDIRECTIONS RESSEMBLANT A: http://www.truc.fr/index.php?r=http://www.google.fr ##
    RewriteCond %{QUERY_STRING} ^.*(_encode|localhost|loopback).* [NC,OR]
    RewriteCond %{QUERY_STRING} ^(.*)GLOBALS(=|[|%[0-9A-Z]{0,2})(.*)$ [OR]
    RewriteCond %{QUERY_STRING} ^(.*)_REQUEST(=|[|%[0-9A-Z]{0,2})(.*)$ [OR]
    RewriteCond %{QUERY_STRING} ^(.*)(SELECT(%20|\+)|UNION(%20|\+)ALL|INSERT(%20|\+)|DELETE(%20|\+)|CHAR\(|UPDATE(%20|\+)|REPLACE(%20|\+)|LIMIT(%20|\+)|CONCAT(%20|\+)|DECLARE(%20|\+))(.*)$ [NC]
    RewriteRule (.*) - [F]
    
    ### DES FAUX URLS OU VIEUX SYSTEMES OBSOLETES, ON LES NEUTRALISE
    RedirectMatch 403 (\.\./|base64|boot\.ini|eval\(|\(null\)|^[-_a-z0-9/\.]*//.*|/etc/passwd|^/_vti.*|^/MSOffice.*|/fckeditor/|/elfinder/|zoho/|/jquery-file-upload/server/|/assetmanager/|wwwroot|e107\_)
    # DESACTIVE LES METHODES DE REQUETES TRACE TRACK DELETE
    RewriteEngine On
    RewriteCond %{REQUEST_METHOD} ^(TRACE|DELETE|TRACK) [NC]
    RewriteRule ^.* - [F]
    
    
    
    ## contrôle du cache navigateur - Expire headers
    <IfModule mod_expires.c>
       ExpiresActive On
       ExpiresDefault "access plus 7200 seconds"
       ExpiresByType image/jpg            "access plus 1 week"
       ExpiresByType image/jpeg            "access plus 1 week"
       ExpiresByType image/png            "access plus 1 week"
       ExpiresByType image/gif            "access plus 1 week"
       ExpiresByType image/svg+xml           "access plus 1 week"
       AddType image/x-icon .ico
       ExpiresByType image/ico            "access plus 1 week"
       ExpiresByType image/icon            "access plus 1 week"
       ExpiresByType image/x-icon            "access plus 1 week"
       ExpiresByType text/css                "access plus 1 week"
       ExpiresByType text/javascript        "access plus 1 week"
       ExpiresByType text/html            "access plus 7200 seconds"
       ExpiresByType application/xhtml+xml    "access plus 7200 seconds"
       ExpiresByType application/javascript    "access plus 1 week"
       ExpiresByType application/x-javascript    "access plus 1 week"
       ExpiresByType application/x-shockwave-flash "access plus 1 week"
    </IfModule>
    
    <IfModule mod_headers.c>
    
    <FilesMatch "\\.(ico|jpe?g|png|gif|swf)$">
    Header set Cache-Control "max-age=31536000, public"
    </FilesMatch>
    
    <FilesMatch "\\.(css)$">
    Header set Cache-Control "max-age=604800, public"
    </FilesMatch>
    
    <FilesMatch "\\.(js)$">
    Header set Cache-Control "max-age=2628000, private"
    </FilesMatch>
    
    <FilesMatch "\\.(x?html?|php)$">
    Header set Cache-Control "max-age=86400, private, must-revalidate"
    </FilesMatch>
    
    </IfModule>
    # KILL THEM ETAGS
    Header unset ETag
    FileETag none
    
    <IfModule mod_deflate.c>
        <filesMatch "\.(js|css|html|php)$">
            SetOutputFilter DEFLATE
        </filesMatch>
    </IfModule>
     
  2. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    4 160
    J'aime reçus:
    179
    Code:
    RewriteCond %{REQUEST_URI} ^/ancienne-page.html$
    RewriteRule ^ancienne-page.html$             http://www.example.com/nouvelle-page.html [R=301,L]
     
Chargement...
Similar Threads - Rediriger ancienne nouvelle Forum Date
Rediriger mes anciennes urls vers la page d'accueil URL Rewriting et .htaccess 14 Mars 2013
Rediriger tout un site vers un répertoire à la racine URL Rewriting et .htaccess 23 Juin 2021
Rediriger des domaines au nom explicite vers un domaine établi mais moins spécifique Netlinking, backlinks, liens et redirections 1 Février 2021
page 404 lien indexer comment le rediriger? Débuter en référencement 12 Janvier 2021
rediriger les sous domaines vers la page d'accueil URL Rewriting et .htaccess 11 Janvier 2021
Domaines Expirés : rediriger ou faire des sites ? Netlinking, backlinks, liens et redirections 3 Décembre 2020
Comment rediriger en 301 toutes les 404 vers une page précise ? Débuter en référencement 9 Septembre 2020
Rediriger Index.php vers racine URL Rewriting et .htaccess 15 Août 2020
Tout rediriger sauf une page contenant 'JS' URL Rewriting et .htaccess 3 Juin 2020
Rediriger un site avec www vers sans www Administration d'un site Web 20 Avril 2020