Vaut-il mieux masquer les pages mal construites ?

Nouveau WRInaute
Bonjour,

Pour améliorer le référencement de mon site, j’ai entrepris d’appliquer les bonnes pratiques : renseignement des titres, des meta, alt ; chasse au contenu dupliqué ; réécriture d’URL …

Cependant, tout ce cela prend du temps et n’est pas toujours possible (simplement) sur les parties « techniques » du site.
J’ai commencé le chantier par les pages de haut niveau (40 pages, soit 10%) et je me pose maintenant la question de savoir si les pages non optimisées ne tirent pas le PR de mon site vers le bas et s’il ne vaudrait tout simplement pas mieux les exclure de l’indexation avec un robots.txt en attendant qu’elles soient à un niveau de qualité suffisant?

Question complémentaire : le Netlinking vers des pages exclus est-il ignoré ?

Merci pour vos retours
 
Nouveau WRInaute
Sur support.google.com, on peut lire "Les pages Web bénéficiant d'un meilleur classement PageRank ont plus de chances d'apparaître en tête des résultats de recherche Google."
Du coup, je ne comprends pas ta réponse.
Y a t il un article WRI qui ettayerait cela ?
 
WRInaute accro
dacodoc a dit:
"Les pages Web bénéficiant d'un meilleur classement PageRank ont plus de chances d'apparaître en tête des résultats de recherche Google."
C'est des conneries ...
Y a t il un article WRI qui ettayerait cela ?
peut être mais la lecture du forum pendant une semaine suffira a te convaincre que c'est répété 3 fois par semaine.

Concentre toi sur la qualité de tes pages dans une premier temps en évitant les excès et pense qu'il faut augmenter le contenu régulièrement.
 
Nouveau WRInaute
Soit. Le PageRank serait donc une grosse intox de Google. Mais la "valeur" (pour ne pas dire le rang) d'une page n'est pas estimée que par ses qualités propres; la "valeur" du site voir du domaine auquel elle appartient doivent influer, non ? Ce qui me renvoie à la question initiale: vaut-il mieux masquer par un noindex les pages de faible valeur ?
 
WRInaute accro
Le PR dépend des liens que chaque page reçoit et dépend également de la qualité des liens. S'ils viennent de pages ayant un gros PR le lien aura plus d'importance que s'il vient d'une page ayant un PR de 0.

Le PR n'a donc aucun rapport avec la qualité rédactionnelle du HTML de tes pages ni avec l'optimisation que tu en auras fait.

Et si tes pages ne sont pas optimisées ça n'empêchera personne qui tombe dessus de relayer le lien vers cette page dans un forum, par exemple, s'il juge que le contenu est intéressant et de qualité.

Donc même si ces pages sont très mal référencées il y a des chances pour que quelqu'un tombe dessus quand même et en fasse augmenter leur PR. Si tu les met en noindex elles ne seront plus du tout référencées et donc plus aucune chance qu'on les trouve. Quel intérêt ?

En plus, ces pages mal construites font des liens vers les pages importantes. Pourquoi se priver de ces liens ?

Mon conseil : tu mets à jour tes pages à ton rythme, une par une, et tout se passera bien . No stress.
 
Nouveau WRInaute
Merci pour ces éléments de réponse.

En plus, ces pages mal construites font des liens vers les pages importantes. Pourquoi se priver de ces liens ?

Si ces pages sont en duplicate content par qu’elles possèdent de nombreuses url, n’ont-elles pas au final un effet encore plus pénalisant sur l’ensemble du site ?
 
WRInaute accro
dacodoc a dit:
Si ces pages sont en duplicate content par qu’elles possèdent de nombreuses url, n’ont-elles pas au final un effet encore plus pénalisant sur l’ensemble du site ?

Jusque là tu n'avais pas précisé qu'elles étaient en duplicate content,
tu disais seulement qu'elles n'étaient pas optimisées.
Ca change pas mal de choses en effet
 
WRInaute accro
Masquer ou bloquer tes contenus sensibles, mal optimisés ou pénalisants ne peut vraisemblablement se faire que par deux voies:

- de la 404 sur ces pages
- du noindex via la meta <robots> ou robots.txt

...dans les deux cas, le potentiel résiduel de ces pages serait perdu.

Je travaillerais par priorités:

-> si de mêmes contenus sont accessibles par plusieurs URLs (ie: filtres du genre "&sort=foo"), appliquer un rel-canonical.
-> si plusieurs pages ont le même titre, revoir la construction des titres ou réécrire les titres (un rapide calcul sur tes "40pages = 10% me permet de conclure qu'il te reste 360 titres à réécrire... c'est l'histoire d'une journée et de quelques cafés).

Une fois que c'est fait (donc demain soir...), attaque-toi à optimiser la structure de ton site ;)
 
Discussions similaires
Haut