Duplicate content utile pour mes visiteurs

Nouveau WRInaute
Salut,

j'explique vite fait la situation, j'ai un site avec plusieurs sous-domaines, chaque sous-domaine étant une sorte de mini site avec un thème bien défini, des couleurs, un style pour chacun,

A côté de cela j'ai ajouté la possibilité de créer des blogs.

Chaque blog est visible depuis chaque sous-domaine et sachant que j'ai 10 sous-domaines, il y a donc 10 urls différentes qui pointent vers chaque blog.

Je ne peux pas pour des raisons techniques et puis pour la communauté qui visite mon site (ils veulent leur style, leur couleur du sous-domaine sur lequel ils vont), avoir une seule URL par blog.

Donc je souhaiterai empêcher google de venir référencer les blogs sur 9 des 10 sous-domaines et seulement autoriser un sous-domaine, je souhaiterai aussi que petit à petit les pages déjà référencées des 9 ss-d soient supprimées de google.

est ce possible ?

Merci
 
WRInaute impliqué
Salut,

Je pense qu'avec un robots.txt c'est très faisable, je peux supprimer les pages de mon index en 4-5 jours avec cette méthode.

A+
 
Nouveau WRInaute
Merci,

j'ai mis une balise <meta name='robots' CONTENT='NOINDEX,FOLLOW'>

Avec ça je devrais être tranquille, par contre toutes les pages qui sont déjà indexées vont elles petit à petit être supprimées de l'index ?
 
WRInaute passionné
Il te parlait de mettre un robots.txt
Dans ton cas tu as utilisé une meta robots
Mais je pense que cela revient au meme.
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut