WRInaute discret
Bonjour,
Je gère un site e-commerce, qui duplique les pages de catégories avec des URL du type /robes-femmes.html?limit=12
C'est évidemment le ?limit=12 que je veux désindexer, et toutes les pages susceptibles de contenir des paramètres.
Vu qu'on ne peut pas mettre une balise meta robots, je vais passer par le X-Robots-Tag au niveau du HTTP.
Quelles seraient les instructions à renseigner dans le .htaccess ?
Un truc dans ce genre, ou il y a plus simple ?
Je gère un site e-commerce, qui duplique les pages de catégories avec des URL du type /robes-femmes.html?limit=12
C'est évidemment le ?limit=12 que je veux désindexer, et toutes les pages susceptibles de contenir des paramètres.
Vu qu'on ne peut pas mettre une balise meta robots, je vais passer par le X-Robots-Tag au niveau du HTTP.
Quelles seraient les instructions à renseigner dans le .htaccess ?
Un truc dans ce genre, ou il y a plus simple ?
Code:
if (strpos($_SERVER['REQUEST_URI'], '?'))
{
?><meta name="robots" content="noindex"/>
<?php
}