Aide urgente sur duplicate content

Nouveau WRInaute
Bonjour à tous.

Voilà, suite à une erreur quand à l'application de mon url rewritting , où le fichier robots.txt ne fut pas pris en compte, cela a produit du duplicate content, et certains datacenter de google , je pense, m'ont déjà blacklité, du moins, c'est ce que je pense.

Certes, la plupart des moteurs de recherche passent tous les jours sur mon site, mais google continue de conserver les anciennes url non réécrites, c'est à dire celles qu'il n'aurait pas dut indexer.

J'ai établit une sitemap sous google, mais savez vous où je peux trouver les outils nécessaires pour demander à google de rettirer de son index les url qu'il n'aurait pas dut indexé, ce qui aurait évité le duplicate content ?

Merci pour toutes réponses .
 
Nouveau WRInaute
Attention GG c'est pas forcement google ! c'est aussi Gadu Gadu, logiciel de tchate polonais plus pratique que msn.

Dans ma situation, je ne sais pas s'il est recommandé de laisser faire les choses.
 
WRInaute passionné
Salut,

Il n'y a pas de blacklistage pour duplicate.

Utilise des redirections 301 ou Gone pour tes doublons.
 
Nouveau WRInaute
page.php?param1=xx
page.php?param1=xx$param2=455

il te suffit d'interdire page.php

merci, merci bien. Je les connaissais ces regles, puisque j'ai aussi rewritté phpBB Mod Category Hierarchy avec l'album photo FAP ( full album pack ;) )

Le probleme ne venait pas de l'application des regles, c'est juste que j'avais download(é) le robots.txt au mauvais endroit, et je m'en suis aperçu apres un mois de vacances !!!! Je voulais réparé l'erreur ;) !

Par contre, je te remercie pour la FAQ de google, cela, je ne le savais pas. J'en suis d'ailleurs d'autant plus surpris que c'est ecris dans le sitemap de google qu'ils disent appliquer les regles du robots.txt. Mais ce que tu dis es juste, j'en avais déjà entendu parlé, cela confirme la rumeur

Par contre, je n'ai pas arreté d'entendre dire que si on faisait du double / duplicate content, on avait des chances de se faire jeter de google, alors j'essaie de faire attention, comme tout le monde.

On applique la réécriture des url pour guider les moteurs, les aider à mieux indexer nos pages, pas pour se faire blacklister;)

Merci de vos conseils ;)
 
WRInaute impliqué
J'suis dans le même cas... Duplicate content avec ma page index.

Résultat : La page index est déclassé ( mais pas déindexée )

J'ai fait une redirection 301 du domaine vers le bon domaine.

Savez-vous combien de temps sa prendra pour que Google la reclasse comme avant ?

Merci d'avance :wink:
 
WRInaute passionné
zimounet a dit:
Lis un peu la FAQ de google, ils explique que si google juge une page pertinente, celle ci peut etre indexé quand meme...
En tout cas je confirme pour MSN: MSN a indexe une page alors que mon robots.txt l'interdit (ainsi que le meta ROBOTS). Penible... car c'est la page de ma competition SEO...
 
Discussions similaires
Haut