bloquer les pages dynamique apres rewriting

WRInaute discret
salut tous le monde.
j'ai chercher sur le forum mais apparemment j'ai pas trouver une solution pour bloquer les url des pages dynamique que j'ai déjà réécrit mais qui continu a apparaître dans GG.
j'ai trouver un post qui parle de Disallow: / avec robots.txt mais je pense que cette méthode ni pas applicable dans mes conditions.
les pages que je veut bloquer sont de la forme:
www.exemple.com/resultats.php?id_article=162&destination=165....
et les paramètres varie suivant les combinaison
qlq 1 a une idée pour ça ???
 
WRInaute accro
si tu rajoute de faire une redirection 301 dans ta ré-écriture, je penses que google devrait petit à petit désindexer tes anciennes pages pour garder que les nouvelles.

sinon dans le disallow, met : "resultats.php?"
 
WRInaute passionné
Je suppose que ta page resultat.php doit être référençable avec certain paramètres, me tromps-je ?

Auquel cas, il te faut éventuellement tester les paramètres de ton url dans ton script PHP, et rediriger les pages en question. Un petit script comme ceci par exemple... ?

Code:
if (in_array($parametre,$tableau_disparues))
{
header("Status: 410 Gone");
exit();
}
 
WRInaute discret
merci pour vous réponse assez rapide comme dap
sinon dans le disallow, met : "resultats.php?"
j'ai essayer ça mais je suis pas sure que ça marche car je pense si je me trompe pas robots.txt peut bloquer uniquement un répertoire
style Disallow: /resultats/
ou bien Disallow: /resultats.php?id...(toute url)
 
Discussions similaires
Haut