301 ou 410 suite à une refonte du site ?

WRInaute occasionnel
Bonjour à tous,

Mon problème est un peu spécifique je pense.

J'ai refait mon site principal qui garde le même nom de domaine.

Par contre quasiment toutes les urls internes changent suite à une refonte du site. Je passe d'un CMS à un développement homemade, j'ai choisi de changer les urls internes car celles du CMS me plaisaient pas.

Bien sur je sais bien que dans la mesure du possible il faut garder les urls internes comme elles sont. Mais pour plusieurs raisons : slug très long, avec parfois des accents, etc ... bref pas top et puis je voulais avoir mon propre système d'urls internes.

Jusqu'à là pas de problème mis à part le temps que ca prend à développer cela. Il suffit de faire des 301 à partir des anciennes urls (environ 2000 pages) vers les nouvelles.
J'ai développé un système en php pour gérer cela dans mon backoffice car je dois traiter tous les cas. J'aurai aussi pu faire un mapping dans Nginx.

Alors pourquoi je viens sur le forum WRI pour exposer mon problème ? car en fait je suis dans un cas particulier il me semble. Je m'explique :
Sur à la refonte j'en ai profité pour regrouper le contenu des pages. En effet j'avais plein de pages avec peu de contenu mais avec des sujets identiques ou très proches (environ une dizaine à chaque fois).

Par exemple pour une nouvelle page qu'on va appeler "/nouvelle-1" j'ai repris le contenu de 10 pages (c'est une moyenne) qu'on va nommer "/old-1-a" "/old-1-b" "/old-1-c" ... "/old-1-j"

A l'arrivée j'aurai 200 nouvelles pages qui seront la concaténation de 2000 anciennes pages.

- "/nouvelle-1" = "/old-1-a" + "/old-1-b" + "/old-1-c" ... "/old-1-j"
- "/nouvelle-2" = "/old-2-a" + "/old-2-b" + "/old-2-c" ... "/old-2-j"
- "/nouvelle-3" = "/old-3-a" + "/old-3-b" + "/old-3-c" ... "/old-3-j"
- ....
- "/nouvelle-200" = "/old-200-a" + "/old-200-b" + "/old-200-c" ... "/old-200-j"

Pour chaque nouvelle page j'ai donc mis 10 redirections 301 en moyenne à partir d'anciennes pages.
Je voudrai savoir si sur le total ce n'est pas trop ? et est-ce qu'avoir une 10aine de redirections 301 par page cela ne peut pas poser de problème à Google ? Sachant que les anciennes pages sont juste de morceaux de contenu de la nouvelle (1/10eme à chaque fois).

Est-ce que cela ne va pas bouffer du budget crawl ?

La 2eme solution serait de tout mettre en 410 à part celles qui ont reçues au moins un lien externe (il y en a pas beaucoup une dizaine seulement d'apres mon tools).

Avec des 410 je sais que je risque de perdre l'historique des anciennes pages (ancienneté, jus, ...) mais j'élimine les problèmes d'interprétation de Google et à terme elles ne seront plus ou peu crawlées (= récupération de budget crawl), ...

Qu'en pensez-vous ?
 
WRInaute occasionnel
Hello,
J'ai rencontré un problème similaire lors d'une refonte profonde de mon site.
La réponse dépend en grand majorité du nombre de visite que tu obtiens sur ces pages. Si elles ne sont jamais visitées ou presque pas, tu peux les mettre en 410.
Si en revanche elles ont des visiteurs, tout dépend de la quantité et du sacrifice que tu prêts à faire. Soit en 301 soit en 410.

Enfin sache que lorsqu'il y a une grosse refonte comme ça, tu vas avoir automatiquement une baisse de trafic le temps que google visite et estime à nouveau ton site. Pour ma part, cette baisse dure entre 1 mois 1/2 et 2 mois, mais cela dépend du site en question et de la fréquence des crawls.

Quand a la ressource crawl, tout dépend comment tu gère ta redirection. Tu auras peut-etre un léger ralentissement au niveau du chargement de la page, mais pas plus. Enfin c'est mon avis, d'autres expert plus confirmé passeront par là.
 
WRInaute occasionnel
Bonjour Freestyle83 et merci pour ta réponse. C'est intéressant d'avoir ton retour d'expérience ;-)

Je dois avoir 10% des pages qui représentent 90% du trafic. Il y a beaucoup de pages avec peu ou pas de trafic. Après cela peut-être intéressant de transférer leurs notoriétés (si Google le fait réellement ?!).
Mais si Google oublie vite ses pages et repart sur du neuf sans crawler les anciennes trop longtemps cela me va aussi. D'ou l'idée de la 410.

Concernant la baisse de trafic elle a déjà commencé. Je m'y attendais ;-)
screenshot-search.google.com-2019.05.14-19-26-56.png
 
WRInaute occasionnel
"Oublie vite" est un grand mot - dans mon cas je l'ai vu continué à crawler des années après. J'ai gardé les redirections 410 pendant 3 ans, et ensuite je les ai viré partant du principe que c'était acquis. De temps en temps il me ressortait des pages de 2011 en erreur. Je ne m'en suis pas préoccupé et là ça fait un moment que je n'ai plus rien (peut-être une amélioration de son algo).

Concernant tes pages effectivement il y a de l'amélioration à faire - mais je crois que c'est un cas commun à beaucoup de site. Ce qui est important c'est de repérer les pages zombies, de les améliorer, de les regrouper ou de les supprimer comme tu l'as fait. L'outil https://fr.myrankingmetrics.com/rmtech/ Rm tech d'Olivier est très bien pour les repérer (entre autre chose). Tellement que moi ça m'a découragé de voir tout ce que j'ai encore à faire lol :D

Test bien toute tes urls, qu'il n'y ai pas d'erreur - ça arrive fréquemment lors d'une refonte et ça plombe le site. Un outil qui aide bien c'est xenus si tu es sur windows (sur linux tu peux l'ouvrir avec wintrick), tu met l'url de ton site online et tu verras assez rapidement les erreurs s'il y en a. (c'est gratuit). Ensuite il faudra quand même que tu compares avec l'ancienne version. De toute façon si tu surveilles tes logs et / ou search console tu vas vite voir les retombés
 
WRInaute occasionnel
Merci Freestyle83

Je vois... Comme ce sont des pages de 2005 pour certaines il va peut être les crawler encore longtemps ;-)

J'utilise RmTech et Xenu aussi (depuis +15 ans pour ce dernier). J'ai seolizer pour surveiller les crawls Gbot.


screenshot-search.google.com-2019.05.15-10-08-21.png
 
WRInaute occasionnel
Bonjour,

Je viens donner des nouvelles...

Début Juin, j'ai choisi de mettre les pages en 410.

Le nombre d'affichage est stable. Rien de sensas pour le moment mais les nouvelles pages au contenu similaire (regroupement de plusieurs anciennes pages) se positionnent assez bien. Je retrouve des positions intéressantes (top10) sur la longue traîne.

Mon problème actuel c'est que Google ne crawle pas souvent les nouvelles pages (code 200) mais surtout les anciennes (410) qui sont certes plus nombreuses. Ca pose un problème de budget crawl...

Sur un vieux site après plus de 15 ans il crawle encore des 404. J'espère que pour les 410 il va s’arrêter de le faire à un moment donné. Je n'ai jamais testé. Si quelqu'un à des expériences la dessus je suis preneur. Merci d'avance.
 
Dernière édition:
WRInaute occasionnel
Bonjour,

Retournement de situation (provisoire ?) : depuis 12H00 Google crawle principalement les pages valides (200).
 
WRInaute occasionnel
Bonjour,

Google crawl toujours autant les 410... Ca bouffe pas mal de budget crawl. La plupart de ces pages ne sont plus dans l'index de Google.

Est-ce que vous pensez qu'il y aura à un moment donné une baisse du crawl de ces pages 410 ?
Merci.
Nicolas
 
WRInaute occasionnel
Bonjour,

Les anciennes urls (codes 410) mis en place depuis plusieurs mois (+5) sont toujours autant crawlées et les nouvelles (code 200) sont toujours aussi peu crawlées.
 
Dernière édition:
WRInaute occasionnel
Bonjour,

Depuis 1 semaine j'ai un ration de crawl 2/5 pour les 410 et 3/5 pour les 200.

Google passe de plus en plus souvent sur les nouvelles urls. :) et un peu moins sur les anciennes urls.

A terme je mettrais un disallow dans le robots.txt pour bloquer le crawl sur les anciennes urls. Je préfère encore attendre que tout soit bien interprété par Google et éliminé de l'index.
 
WRInaute occasionnel
oui, vérifie bien aussi qu'il n'y ai plus de lien interne qui pointent dessus. Et s'il y a des liens externe, voir pour les faire changer.
Merci pour tous tes retours, ça en aidera plus d'un
 
Discussions similaires
Haut