Desinxation Duplicate content

Nouveau WRInaute
Bonjour à tous,

Des pages de mon site ont été desindexé :cry: depuis que j'ai modifié mon fichier robots.txt , mais ce ne sont pas les bonnes qui sont partis. j'ai modifié ce fichier pour enlever un duplicate content.

donc, j'ai trois questions:
1° :arrow: Comment supprimer le duplicate content
2° :arrow: Est que la desinxation va continuer
3° :arrow: Est ce que la desinxation est liée à ce duplicate content?

L'adresse du site : en MP

Merci de vos lumières :D
 
WRInaute passionné
Peut-être mieux comme cela?

User-agent: *
Disallow: /partage/
Disallow: /modules/
Disallow: /programmes/
Disallow: /documentations/
Disallow: /phpBB/
Disallow: /chat/
Disallow: /jeux/
Disallow: /compteur_geoloc/
Disallow: /espace_personnel_acces.htm
Disallow: /maj.htm
Disallow: /partage.php
Disallow: /supprfichier.php
Disallow:

Encore que la syntaxe présente me semble correcte selon http://www.robotstxt.org/
 
Nouveau WRInaute
Bonjour et merci de vous interesser à mon problème.
Aparement la syntaxe du fichier robots.txt est bonne, je l'ai teste dans les outils google.
Vous avez une idée sur la facon de procéder pour enlever les duplicate content ( pages ignorées de google)
afin de rétablir la situation de mon référencement?
Merci d'avance....
 
WRInaute occasionnel
Tu utilises un vocabulaire que tu ne maitrises pas. Essaie d'utiliser des mots simples.

Ton robots.txt est peut être bon mais il n'est pas complet puisqu'apparemment tu te plains d'urls non voulues dans l'indexation de google. Donc rajoute ces urls dans ton robots.txt
 
Nouveau WRInaute
C'est fait, mais elles ne disparaissent pas. Une de ces url est visible alors que le fichier robots.txt la restreind depuis au moins deux mois ( pour une en particulier).


Tu peux aussi me dire ou est ce que je fais une erreur de vocabulaire?

Merci
 
WRInaute occasionnel
D'une tu ne subis pas une "désindexation" pour cause de duplicate car google les indexe toutes, c'est juste un mauvais affichage de tes pages car il se peut qu'il affiche les pages que tu ne veux pas à la place des pages que tu veux.

Ensuite
enlever les duplicate content ( pages ignorées de google)
ca sous entend que le duplicate content signifie pages ignorée de google.


Ensuite dans ton cas c'est simple, si tu as correctement rempli le robot.txt alors utilise l'outil de suppression d'url dans les outils pour webmaster de google et le tour est joué.
 
Nouveau WRInaute
D'accord, je pensais que dans les pages ignorées de goolgle, il y avait les pages en duplicate, autant pour moi.

Par contre une précision, avec l'outil de suppression des url, ca ne supprime que les pages demandées?
Je ne voudrai pas que tout le site soit supprimé de l'index de google.

Mais Question: pourquoi certaines pages ont disparues de l'index de google (que je ne voudrai pas voir disparaitre)?
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut