WRInaute occasionnel
Bonjour à tous,
J'ai mis des restrictions dans mon robots.txt pour google pour qu'il ne référencement pas certains dossier il y a 1 mois.
je précise que ces urls étaient déjà indexées dans google depuis 3 mois.
Dans mon webmastertool, google prend bien en compte ces restrictions, mais cela fait 1 mois et les urls sont toujours présentent dans les résultats de recherche google. Ca m'arrange pas car c'est fait 1 mois que j'essaie de sortir de la sandbox (sandbox 2 selon webrankinfo
) a cause d'urls en duplicate content.
Qu'en pensez vous ?
Je dois être patient ? merki
Pour info: j'ai 620 urls de référencés => pour l'instant en restriction il y en a 320, il faudrait qu'il m'en reste 50 max.
J'ai mis des restrictions dans mon robots.txt pour google pour qu'il ne référencement pas certains dossier il y a 1 mois.
je précise que ces urls étaient déjà indexées dans google depuis 3 mois.
Dans mon webmastertool, google prend bien en compte ces restrictions, mais cela fait 1 mois et les urls sont toujours présentent dans les résultats de recherche google. Ca m'arrange pas car c'est fait 1 mois que j'essaie de sortir de la sandbox (sandbox 2 selon webrankinfo

Qu'en pensez vous ?
Je dois être patient ? merki
Pour info: j'ai 620 urls de référencés => pour l'instant en restriction il y en a 320, il faudrait qu'il m'en reste 50 max.