prime fraicheur. Quelqu'un a-t-il tenté l'expérience ?

WRInaute accro
Bonjour,

Actuellement toutes les pages d'un de mes sites se trouvent à la racine.
Je vais les répartir dans des sous-répertoires et faire des redirections 301.

Mais voilà, j'ai l'idée de tenter de bénéficier de la prime fraicheur en tentant l'opération suivante :
1) uploader la nouvelle version dans les répertoires sans faire de redirections
2) bénéficier de la prime fraicheur après indexation de ces pages
3) après que les pages soient indexées, effectuer les redirections 301 sur les anciennes url dans le htaccess

le risque est que ça va générer pour google du duplicate content
l'interrogation porte également sur la fin de prime fraicheur dès l'instant où les redirections seront faites (j'en sais rien)

quelqu'un a-t-il déjà tenté ce genre d'expérience et quel en est le retour ?
 
WRInaute accro
Perso je suis davantage dans l'optique de laisser les pages à la racine. Et je ne vois pas du tout l'intérêt de ce genre de tests, surtout si c'est pour générer de la duplication de contenu.
 
WRInaute discret
Comme te diront tous les référenceurs, tu dois tester pour savoir et partager pour qu'on sache tous :D !

Par contre dans ton cas, ça sent effectivement le duplicate content. Modifies un peu tes textes :wink:
 
WRInaute accro
indigene a dit:
bénéficier de la prime fraicheur
La prime fraicheur c'est pour un nom de domaine tout neuf ... pas pour une page.
Ensuite il y a caféine qui est censé favoriser le contenu ressent mais dans ton cas ça ne le sera pas car le contenu est déjà connu.
Tu est pil poil dans le profil "je mamaille pour ranker", fait attention quand tu va t'en prendre une par GG qui a déjà pensé a ce que tu peux imaginer tu risque de sombrer dans le profil "GG m'a tué".

Après juste pour info les url sont les trucs avec lesquels il faut le moins jouer. Quand une url existe il faut la conserver bouger son contenu ça doit être rare et extrêmement pertinent car tu risque plus de perdre que de gagner, sans parler du fait que gérer des 301 a la pelle c'est mauvais pour le serveur et les perfs en général qui sont loin d'être des paramètres a négliger.
 
WRInaute accro
ckocher a dit:
Comme te diront tous les référenceurs, tu dois tester pour savoir et partager pour qu'on sache tous :D !

Alors c'est parti pour le test !
J'ai passé la journée à modifier les 4000 liens internes pour répartir mes 55 pages en 4 répertoires et les pages les plus importantes restent à la racine.
J'ai supprimé du serveur les anciennes pages pour charger à la place les nouvelles avec les répertoires qui vont bien. Contenu identique à l'exception des liens modifiés.
J'ai chargé un nouveau sitemap avec les nouvelles urls.
Pas de redirection 301 depuis les anciennes pages.

Donc ce que j'escompte c'est que google me prenne ces pages comme étant de nouvelles pages et leur attribue une prime nouveauté. Qu'il refasse toute l'indexation en partant de rien et que le positionnement soit meilleur car le site est mieux structuré avec une structure pyramidale et que les url contiennent toutes un mot clé supplémentaire.

Le risque c'est qu'il me considère que c'est du duplicate car les anciennes pages sont toujours dans ses bases même si les pages ont été effectivement supprimées.

Tous les liens à l'exception de ceux vers la page d'accueil et des quelques pages conservées vont conduire à une erreur 404 pendant une semaine mais je préfère en passer par là plutôt que de récupérer mon référencement des anciennes pages ce qui n'aurai servi à rien de créer des répertoires.

Dans une semaine, une fois que tout sera indexé, je place les redirections 301 et je reviens dans un mois pour vous dire ce qu'il en est du positionnement. Pour l'instant je n'ai pas grand chose à perdre car j'ai seulement deux requêtes qui sortent
 
WRInaute accro
C'est pas terrible.

Pendant une semaine tous les liens venant de google menaient vers la page d'erreur 404
J'ai même reçu un message dans Outils pour Webmasters pour m'informer de cette erreur

Google a mis presque une semaine pour aspirer mon nouveau sitemap et le traiter

Le résultat est que le nombre de pages référencées est monté jusqu'à 91 (les pages étant référencées en double sur l'ancienne et la nouvelle url).

J'ai mis en place l'url-rewriting pour rediriger les anciennes pages vers les nouvelles.
Ca marche bien mais bof côté google.

Pendant presque 3 semaines il m'a annoncé dans Outils pour webmasters que mon sitemap contenait 56 liens et que j'en avais 27 d'indexés par google.
Ce n'est que depuis 2 jours que le nombre de liens du sitemap présent dans les bases de google est passé de 27 à 28 puis 29. Mais j'ai encore 73 résultats avec la commande site:

J'ai l'impression d'avoir récupéré l'ancien référencement et google ne m'a pas pris les nouvelles pages comme du contenu neuf. Par contre la présence de répertoires semble quand même avoir amélioré un peu le référencement et c'est surtout pour moi que ça va être plus agréable à maintenir. Je vais pouvoir organiser chaque répertoire avec un maillage qui lui est propre et ne plus mélanger les torchons avec les serviettes. Sur le long terme ça va se ressentir mais sur le court-terme c'est bof et si je devais en rester là sans envisager d'étendre le site en ajoutant du contenu ça aurait été peine perdue.

Maintenant j'aimerai bien que google webmaster tools me dise que les 56 pages de mon sitemap sont dans l'index google et qu'il me supprime de son index les anciennes pages redirigées. Je vais patienter encore un peu.
 
WRInaute accro
Il y a une confusion parfois avec "caféine" qui est censé aider les pages récentes en les poussant vers le haut (effet d'actualité)
 
Discussions similaires
Haut