Rediriger ancienne page vers nouvelle page (plusieurs centaines)

Discussion dans 'URL Rewriting et .htaccess' créé par cachema, 8 Mars 2019.

  1. cachema
    cachema Nouveau WRInaute
    Inscrit:
    8 Mars 2019
    Messages:
    1
    J'aime reçus:
    0
    Bonjour à tous,

    Je voudrais re-diriger plusieurs centaines de pages d'un même domaine

    J'ai rajouté, par exemple
    Code:
    Redirect 301 /page.html  http://www.bio-sante.fr/autrepage.php
    ça ne marche pas.
    Auriez-vous une solution à me proposer ?

    Voici le .htaccess :
    Code:
    SetEnv SHORT_OPEN_TAGS 0
    SetEnv REGISTER_GLOBALS 0
    SetEnv MAGIC_QUOTES 0
    SetEnv ZEND_OPTIMIZER 1
    ErrorDocument 403 /erreur.htm
    ErrorDocument  404  http://www.bio-sante.fr/index.php
    
    Options -Indexes
    
    
    RewriteEngine On
    
    # RewriteCond Chaine_de_test Condition_a_tester [drapeau]
    # HTTP_HOST Retourne le nom du serveur qui a été demandé dans la requête.
    # Exemple : localhost ou craym.eu
    # Références arrières de règle de réécriture :
    # ce sont des références arrières de la forme $N (0 <= N <= 9),
    # qui donnent accès aux parties groupées (entre parenthèses)
    # du modèle tiré de la RewriteRule assujettie au jeu de conditions
    # concerné.
    RewriteCond %{SERVER_PORT} 80
    RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]
    #RewriteCond %{HTTPS} off
    #RewriteRule (.*) https://%{HTTP_HOST}%{REQUEST_URI} [R,L]
    #RewriteCond %{HTTP_HOST} ^bio-sante.fr [NC]
    #RewriteRule ^(.*)$ http://www.bio-sante.fr/$1 [L,R=301]
    
    ###FILTRE CONTRE CERTAINS ROBOTS DES PIRATES
    RewriteEngine On
    ## EXCEPTION: TOUS LES ROBOTS MEMES ANONYMES OU BANNIS PEUVENT ACCEDER A CES FICHIERS
    RewriteCond %{REQUEST_URI} !^/robots.txt
    RewriteCond %{REQUEST_URI} !^/sitemap.xml
    ##
    RewriteCond %{HTTP_USER_AGENT} ^-?$ [OR] ## ANONYMES
    RewriteCond %{HTTP_USER_AGENT} ^curl|^Fetch\ API\ Request|GT\:\:WWW|^HTTP\:\:Lite|httplib|^Java|^LeechFTP|lwp-trivial|^LWP|libWeb|libwww|^PEAR|PECL\:\:HTTP|PHPCrawl|PycURL|python|^ReGet|Rsync|Snoopy|URI\:\:Fetch|urllib|WebDAV|^Wget [NC] ## BIBLIOTHEQUES / CLASSES HTTP DONT ON NE VEUT PAS. ATTENTION, CELA PEUT BLOQUER CERTAINES FONCTIONS DE VOTRE CMS. NE PAS TOUT EFFACER, MAIS CHERCHEZ LE NOM DE LA CLASSE HTTP CONCERNEE (DEMANDEZ AUX DEVELOPPEURS DE VOTRE CMS). CETTE LISTE BLOQUE 80% DES ROBOTS SPAMMEURS. IL FAUT LA CONSERVER.
    ## RewriteCond %{HTTP_USER_AGENT} ^[bcdfghjklmnpqrstvwxz\ ]{10,}|^[0-9a-z]{15,}|^[0-9A-Za-z]{19,}|^[A-Za-z]{3,}\ [a-z]{4,}\ [a-z]{4,} [OR] ## CEUX QUI INVENTENT DES NOMS AU HASARD, RETIREZ LES 2 DIESES EN DEBUT DE LIGNE POUR L'ACTIVER
    RewriteRule (.*) - [F]
    
    ### FILTRE CONTRE XSS, REDIRECTIONS HTTP, base64_encode, VARIABLE PHP GLOBALS VIA URL, MODIFIER VARIABLE _REQUEST VIA URL, TEST DE FAILLE PHP, INJECTION SQL SIMPLE
    RewriteEngine On
    RewriteCond %{REQUEST_METHOD} (GET|POST) [NC]
    RewriteCond %{QUERY_STRING} ^(.*)(%3C|<)/?script(.*)$ [NC,OR]
    RewriteCond %{QUERY_STRING} ^(.*)(%3D|=)?javascript(%3A|:)(.*)$ [NC,OR]
    RewriteCond %{QUERY_STRING} ^(.*)document\.location\.href(.*)$ [OR]
    RewriteCond %{QUERY_STRING} ^.*(%24&x).* [NC,OR]
    RewriteCond %{QUERY_STRING} ^.*(127\.0).* [NC,OR]
    RewriteCond %{QUERY_STRING} ^(.*)(%3D|=)(https?|ftp|mosConfig)(%3A|:)//(.*)$ [NC,OR] ## ATTENTION A CETTE REGLE. ELLE PEUT CASSER CERTAINES REDIRECTIONS RESSEMBLANT A: http://www.truc.fr/index.php?r=http://www.google.fr ##
    RewriteCond %{QUERY_STRING} ^.*(_encode|localhost|loopback).* [NC,OR]
    RewriteCond %{QUERY_STRING} ^(.*)GLOBALS(=|[|%[0-9A-Z]{0,2})(.*)$ [OR]
    RewriteCond %{QUERY_STRING} ^(.*)_REQUEST(=|[|%[0-9A-Z]{0,2})(.*)$ [OR]
    RewriteCond %{QUERY_STRING} ^(.*)(SELECT(%20|\+)|UNION(%20|\+)ALL|INSERT(%20|\+)|DELETE(%20|\+)|CHAR\(|UPDATE(%20|\+)|REPLACE(%20|\+)|LIMIT(%20|\+)|CONCAT(%20|\+)|DECLARE(%20|\+))(.*)$ [NC]
    RewriteRule (.*) - [F]
    
    ### DES FAUX URLS OU VIEUX SYSTEMES OBSOLETES, ON LES NEUTRALISE
    RedirectMatch 403 (\.\./|base64|boot\.ini|eval\(|\(null\)|^[-_a-z0-9/\.]*//.*|/etc/passwd|^/_vti.*|^/MSOffice.*|/fckeditor/|/elfinder/|zoho/|/jquery-file-upload/server/|/assetmanager/|wwwroot|e107\_)
    # DESACTIVE LES METHODES DE REQUETES TRACE TRACK DELETE
    RewriteEngine On
    RewriteCond %{REQUEST_METHOD} ^(TRACE|DELETE|TRACK) [NC]
    RewriteRule ^.* - [F]
    
    
    
    ## contrôle du cache navigateur - Expire headers
    <IfModule mod_expires.c>
       ExpiresActive On
       ExpiresDefault "access plus 7200 seconds"
       ExpiresByType image/jpg            "access plus 1 week"
       ExpiresByType image/jpeg            "access plus 1 week"
       ExpiresByType image/png            "access plus 1 week"
       ExpiresByType image/gif            "access plus 1 week"
       ExpiresByType image/svg+xml           "access plus 1 week"
       AddType image/x-icon .ico
       ExpiresByType image/ico            "access plus 1 week"
       ExpiresByType image/icon            "access plus 1 week"
       ExpiresByType image/x-icon            "access plus 1 week"
       ExpiresByType text/css                "access plus 1 week"
       ExpiresByType text/javascript        "access plus 1 week"
       ExpiresByType text/html            "access plus 7200 seconds"
       ExpiresByType application/xhtml+xml    "access plus 7200 seconds"
       ExpiresByType application/javascript    "access plus 1 week"
       ExpiresByType application/x-javascript    "access plus 1 week"
       ExpiresByType application/x-shockwave-flash "access plus 1 week"
    </IfModule>
    
    <IfModule mod_headers.c>
    
    <FilesMatch "\\.(ico|jpe?g|png|gif|swf)$">
    Header set Cache-Control "max-age=31536000, public"
    </FilesMatch>
    
    <FilesMatch "\\.(css)$">
    Header set Cache-Control "max-age=604800, public"
    </FilesMatch>
    
    <FilesMatch "\\.(js)$">
    Header set Cache-Control "max-age=2628000, private"
    </FilesMatch>
    
    <FilesMatch "\\.(x?html?|php)$">
    Header set Cache-Control "max-age=86400, private, must-revalidate"
    </FilesMatch>
    
    </IfModule>
    # KILL THEM ETAGS
    Header unset ETag
    FileETag none
    
    <IfModule mod_deflate.c>
        <filesMatch "\.(js|css|html|php)$">
            SetOutputFilter DEFLATE
        </filesMatch>
    </IfModule>
     
  2. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 286
    J'aime reçus:
    31
    Code:
    RewriteCond %{REQUEST_URI} ^/ancienne-page.html$
    RewriteRule ^ancienne-page.html$             http://www.example.com/nouvelle-page.html [R=301,L]
     
Chargement...
Similar Threads - Rediriger ancienne nouvelle Forum Date
Rediriger mes anciennes urls vers la page d'accueil URL Rewriting et .htaccess 14 Mars 2013
Rediriger anciennes redirections URL Rewriting et .htaccess 22 Août 2010
Rediriger des anciennes pages d'un domaine à l'autre Netlinking, backlinks, liens et redirections 17 Mars 2009
Rediriger automatiquement l'ancienne url vers la rewritée URL Rewriting et .htaccess 10 Mars 2009
Comment rediriger par adresse IP ? Référencement international (langues, pays) 7 Mai 2019
Help ! Comment rediriger des urls avec /?q=... URL Rewriting et .htaccess 23 Avril 2019
Rediriger un sous domaine URL Rewriting et .htaccess 17 Avril 2019
Rediriger le trafic d'un site donné via htaccess Administration d'un site Web 7 Avril 2019
Conseils SEO pour rediriger plusieurs sites en un via 301 Référencement Google 12 Mars 2019
[htaccess] Rediriger toutes les erreurs 404 vers ma home Crawl et indexation Google, sitemaps 30 Janvier 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice