WRInaute discret
Bonjour,
Je vous explique un peu mon problème, j'ai un vieux site web que je suis en train de reprendre, et il a des URL que j'aimerais désindexer et d'autres que je dois rediriger pour avoir une indexation "propre".
Pour les URL à désindexé sur ces pages j'ai placé un noindex,follow
Pour les URL à rediriger, ce code :
Le soucis c'est que l'impact de la désindexation semble casi inexistante après 2 mois. Mon site comporte environ 2000 pages réels et la commande site: m'affiche encore 9000 URL, donc problème de duplicate content.
N'ayant pas encore de sitemap, je me demande si la création d'un sitemap avec les pages existantes que je veux indexer ferait que les autres pages absente de celui ci seraient supprimés de l'index ?
Sinon y'aurait il un moyen de spécifier proprement à Google les pages à supprimer de l'index et celles à déplacer ?
Merci d'avances pour vos éventuels lumières
Je vous explique un peu mon problème, j'ai un vieux site web que je suis en train de reprendre, et il a des URL que j'aimerais désindexer et d'autres que je dois rediriger pour avoir une indexation "propre".
Pour les URL à désindexé sur ces pages j'ai placé un noindex,follow
Pour les URL à rediriger, ce code :
Code:
header("Status: 301 Moved Permanently", false, 301);
header("Location: http://www.monsite.fr/xxx");
die();
exit();
Le soucis c'est que l'impact de la désindexation semble casi inexistante après 2 mois. Mon site comporte environ 2000 pages réels et la commande site: m'affiche encore 9000 URL, donc problème de duplicate content.
N'ayant pas encore de sitemap, je me demande si la création d'un sitemap avec les pages existantes que je veux indexer ferait que les autres pages absente de celui ci seraient supprimés de l'index ?
Sinon y'aurait il un moyen de spécifier proprement à Google les pages à supprimer de l'index et celles à déplacer ?
Merci d'avances pour vos éventuels lumières
