Supprimer un contenu pour le reposter ailleurs évite t-il le duplicate content ?

Nouveau WRInaute
Bonjour à tous ! :)

Comme vous l'avez sûrement deviné en lisant le titre, je souhaite solliciter votre avis sur une question spécifique liée au SEO.

Ma situation est la suivante : j'ai posté plusieurs "articles" sur un vieux Forum que nous appellerons MonSuperForum. MonSuperForum est très sympa, mais il ne me donne pas beaucoup de contrôle sur le SEO. C'est pourquoi j'ai sorti un second site (un WordPress, cette fois-ci) nommé MonSuperSite avec un nom de domaine différent du Forum. :cool:

Mon objectif ? Reprendre mes articles postés sur le Forum pour les republier sur le site WordPress MonSuperSite.

Pour éviter d'être pénalisé pour Duplicate Content, je suppose qu'il existe plusieurs solutions (peut-être les balises canoniques ?). Seulement voilà, MonSuperForum est un vieux Forum hébergé par un service du nom de Forumactif, permettant la création de Forums PhpBB. Le service est gratuit, mais a l'inconvénient que j'ai très peu de contrôle sur le code. Je n'ai donc pas la possibilité de rajouter des balises Meta.

Après avoir réfléchi sur le sujet, j'envisage le plan d'action suivant :

1. Je publie les articles en question sur le site MonSuperSite.
2. Je supprime le contenu des articles sur le Forum, et je le remplace par des liens pointant vers les republications sur le site.
3. Sur le Google Search Console, je demande la suppression de l'indexation des articles du Forum. De cette manière, Google ne connaîtra plus les articles Forum et j'éviterais la sanction pour Duplicate Content.

Voilà pour mon plan machiavélique. :) Toutefois, je m'interroge si supprimer un contenu pour le reposter ailleurs permet vraiment d'éviter toute sanction pour Duplicate Content ?

Est-ce que Google peut potentiellement garder des contenu en mémoire, même si celui-ci est supprimé du Search Console ? Est-ce que je n'aurais pas meilleur compte d'attendre quelques semaines, voir un mois avant de republier le contenu sur le Site ? Bref, pas mal de questionnements. Et j'ai besoin de l'avis d'experts. =')

Voilà pour ma question. Désolé j'ai conscience qu'elle était longue, mais je crois qu'il était important d'apporter quelques éléments de contexte pour expliquer pourquoi certaines solutions ne me sont pas disponible.

Du reste, je m'excuse si jamais ce topic a davantage sa place pour "Problèmes de référencement spécifiques à vos sites". Mais vu que c'est une question qui, en elle-même, n'est pas spécifique à mon site / Forum, j'ai préféré la poser ici. :)

Je vous remercie de m'avoir lu, ainsi que pour toute aide apportée sur cette question. =)

Bonne rentrée à tous !
 
WRInaute passionné
Concernant le 3. je ne suis pas sûr que Google ne réindexera pas les pages, puisqu'elles seront toujours indexables...
Mais peu importe...

Il n'y a pas vraiment de "pénalité" de duplicate content.
Simplement, les pages duplicate n'apparaissent pas dans la recherche.
(et parfois Google se gourre sur celle qui est la plus ancienne ! rageant)

Avec le temps de toute façon l'ancienne disparaîtra de son index donc il n'y a pas de problème.
Par contre vous perdez le jus de l'ancien domaine, et les éventuels backlinks, donc perte de positionnement possible mais ça n'est pas dû au duplicate.
 
WRInaute discret
le web est indelebile. tout ce qui est ecris, est ecris a jamais. il y a toujours un truc qui pompera un contenu, c'est comme les shadocks, il vaut mieux pomper pour pomper on verra bien si ca servira un jour. Après vu de google themselves, je suppose qu ils s'en carent de vos contenus. donc vous pouvez les bouger ou vous vouler. il suffit de les rediriger avec de l url rewritting. au bout d'un moment ils comprendront et associeront le contenu au nouveau domain.
(après comme toujours, c'est juste un avis, mais si votre site est un peu gros, de toutes facons, vos contenus sont enregistr"s dans la waybackmachine, associés a votre premier domain + l'hisorique maison de google qu'on ne connait pas, plus chatgpt si c'est plus vieux....). indélébile..... le web est indelebile, encore plus maintenant avec les moyens stratosphériques (et ca suffit quand meme pas pour tout sauver) de sauvegardes des données.
(c est toujours la course entre ce qu'on peut diffuser : fire optique, viéos..) et ce qu'on peut sauvegarder. aujourd'hui le web est si gros que google themselves doivent optimiser ce qu ils sauvent et crawls. le robot passe tres rarement si on ne l’éduque pas. c'est aussi ca maintenat le seo)
 
Discussions similaires
Haut