Les pages pauvres (très faible contenu) et le SEO

Les pages pauvres en contenu

  • Il faut absolument les éviter. L'objectif est d'en avoir aucune

    Votes: 1 100.0%
  • Il faut en avoir jusqu'à 10% car elles participent au maillage et font des liens vers les catégories

    Votes: 0 0.0%
  • Elles sont importantes pour attirer des visiteurs sur des expressions exactes

    Votes: 0 0.0%
  • Elles sont importantes pour apporter plus de poids (volume de pages) au site

    Votes: 0 0.0%
  • Je ne m'en soucie pas, même si mon site en compte plus de 50%

    Votes: 0 0.0%
  • J'ai été pénalisé par panda à cause d'elles

    Votes: 0 0.0%
  • Il faut les mettre en noindex, follow

    Votes: 0 0.0%
  • Autre... (précisez)

    Votes: 0 0.0%
  • Sans opinion

    Votes: 0 0.0%

  • Total voters
    1
WRInaute accro
Je vous propose un sondage au sujet des pages pauvres avec un très faible contenu, moins de 200 mots par exemple. Ou juste une image et un lien. Ou même plus de publicité que de contenu.

Voici les idées proposées par le sondage avec une petite explication d'accompagnement :

1. Il faut absolument les éviter. L'objectif est d'en avoir aucune
Elles sont à éradiquer totalement. Elles sont néfastes au référencement. Il ne faut pas en avoir du tout car elles n'ont absolument aucune utilité.

2. Il faut en avoir jusqu'à 10% car elles participent au maillage et font des liens vers les catégories
Pour ceux qui pensent qu'un lien est un lien et que ces pages pauvres présentent quand même le menu et font donc des liens vers les catégories, ce qui renforce le référencement des catégories. Il est donc judicieux d'en avoir un minimum, mais pas trop.

3. Elles sont importantes pour attirer des visiteurs sur des expressions exactes
L'idée est de faire des pages pauvres avec un title correspondant à une expression exacte déjà apparue dans la search console (donc quelqu'un a vraiment tapé cette requête). Et une fois les visiteurs sur le site ils ont la possibilité de visiter d'autres pages plus riches, mais il faut les faire venir pour commencer.

4. Elles sont importantes pour apporter plus de poids (volume de pages) au site
Pour ceux qui pensent que plus un site pèse lourd en nombre de pages et plus il aura de la reconnaissance et de l'autorité.

5. Je ne m'en soucie pas, même si mon site en compte plus de 50%
Quelques témoignages seront les bienvenus.

6. J'ai été pénalisé par panda à cause d'elles
Quelques témoignages seront les bienvenus.

7. Il faut les mettre en noindex, follow
Quelle est alors l'utilité de les publier si elles sont en noindex ? N'est-ce pas néfaste d'avoir énormément de pages en noindex ? Est-ce vraiment utile pour le SEO de publier des pages pauvres et de ne pas les faire indexer ?
 
WRInaute occasionnel
Comme d'habitude, tu essaye de réinventer la roue ou le fil à couper le beure.
1. Le slogan d'un de mes ancien client est "ce qui mérite d'être fait, mérite d'être bien fait", d'où la question pourquoi créer pour un véritable site des pages de faible contenu?
2. Pourquoi 10 % et pourquoi en créer? Pinguin sanctionne les liens ET PAS CELLES EXTERNES mais bien les liens internes. Garder des pages inutiles et sans contenu ne sert strictement à rien.
3. Ca s'appelle une ferme de requêtes :roll: en multipliant les pages inutiles -> des risques de duplicate content. Techniques utilisée par une multitude de sites copieurs automatiques qui s'en sont probablement pris une grosse depuis 5 ans.
4. Comprend pas ce choix puisque tu propose de les éradiquer car inutile en 1, d'en garder 10% en 2 (pour garder du poids du site) et là de les garder (voire de les multiplier). Tu reconnaît que ces pages n'ont rien à faire sur le site et ... tu demande qui les garde.
5. M'en fout :evil:
6. Panda :roll: Panda a bousillé les sites avec des contenu de faible contenu et ... à bousillé les sites avec des faibles liens internes (provenant de pages de faibles contenus). Seule différence, Panda a plus bousillé les pages que Pinguin (surtout les sites qui en utilsaient un paquet) et Pinguin a bousillé les liens de faibles pages.
7. noindex .... :D alors pourquoi les garder -> erreurs 404 avec suppression des pages sans redirection.

PS: supprime toutes tes listes de liens en plein contenu sur ton site, c'est inutile et dangereux. Une structure de liens corrects qui à ajouter les liens en fin de contenu.
 
WRInaute occasionnel
Bonsoir,
Je viens de voter pour le point numéro 2, "importante pour le maillage".

Mais comme c'est uniquement pour l'ergonomie de l'utilisateur que j'utilise cela, et non pour Google peut-être qu'une explication s'impose.

En effet, j'aimerais avoir sur mon nouveau site une page qui ressemble à celle-ci :
http://patrickhuet.fr/8.html

C'est-à-dire tous les titres des sous-pages visibles en permanence, quelle que soit la sous-page sur laquelle on clique et défilable (scrolable) à l'infini .
Ainsi le visiteur n'a pas besoin de fournir d'effort pour cliquer sur une autre page.

Avec Wordpress je ne peux pas le faire (il faudrait pour cela être informaticien ou en apprendre le métier ). Alors, j'ai trouvé une astuce pour que toutes les sous-pages soient visibles : En écrire la liste sur la page principale, avec un lien cliquable :

Voici ce que j'ai obtenu :
http://www.patrickhuet.net/livres/voyages-nature-decouvertes/

Evidemment,ce n'est pas excellent, mais le visiteur peut revenir à cette page principale pour cliquer sur tous les titres de la liste.

Cette astuce me permet aussi de pallier un défaut de Wodrpress :

Au delà d'un certain nombre de lignes (en sous-pages) les titres vont au-dessous de la ligne de flottaison de l'écran (ce qui est normal), mais le curseur est stoppé juste à cette ligne de flottaison. Il ne descend pas plus loin. Le visiteur ne peut donc pas voir les sous-pages au-dessous de la ligne de flottaison (et encore moins les visiter).... j'ai tenté l'expérience.

C'est pour cela que j'ai trouvé cette astuce des mini-pages - moins de 100 mots - mais qui permettent au visiteur de voir toutes les sous-pages et de s'y rendre.

Je n'ai pas du tout pensé à Google en les réalisant, mais à la visibilité de mes sous-pages et à leur accès pour mes visiteurs.

En espérant que ma démonstration puisse servir à ce sondage.
 
WRInaute occasionnel
Patrick Huet a dit:
Je n'ai pas du tout pensé à Google en les réalisant, mais à la visibilité de mes sous-pages et à leur accès pour mes visiteurs.
Et tu pense qu'en mettant 100 liens en navigation permet au visiteur de découvrir tes pages internes (tes publications)? En plus dans l'aire des Smartphones avec un écran de taille réduite ...
PS: ta page 8.html est correcte dans un sens pourtant, tu publie des livres pour différents publics ... catégorise en liens header les différentes catégories. Des pages de navigation-liens ne sont pas nocives tant qu'elles sont crées correntement (sans que des liens). C'est probablement ce qu'on (ce que j'ai) pas compris avec Pinguin.
 
WRInaute accro
patrick_lejeune a dit:
Comme d'habitude, tu essaye de réinventer la roue ou le fil à couper le beure.
1. Le slogan d'un de mes ancien client est "ce qui mérite d'être fait, mérite d'être bien fait", d'où la question pourquoi créer pour un véritable site des pages de faible contenu?

En réponse, voir les choix 2, 3 et 4

On dit souvent qu'une page ne doit être optimisée que sur un seul mot clé. Mais supposons que j'ai une requête qui revient souvent et qui fasse sortir ma page en position 15 des serps. J'aurai envie d'optimiser la page pour cette requête afin qu'elle arrive en première page des résultats. Mais du coup la page sera optimisée sur des mots clés différents ce qui risque de faire descendre la page sur la requête principale permettant d'accéder à cette page. D'où l'idée de créer une nouvelle page, très courte, mais optimisée pour la seconde requête. Et cette page ferait bien entendu un gros lien vers l'article principal. En plus de ça elle apporterait un volume de pages supplémentaire au site et un volume de liens supplémentaire aux catégories du menu.

Ce n'est qu'une idée, pas encore mis en pratique. C'est la raison du sondage, pour échanger les différents avis sur la question.

Et on sait aussi que pour les liens il faut un profil de liens très hétéroclite avec à la fois des liens de qualité et des liens de moins bonne qualité. Pourquoi ça ne serait pas pareil pour les pages d'un site ? J'ai l'impression que la plupart des grands sites possèdent un nombre faramineux de pages à faible contenu qui pourtant ne les pénalisent pas
 
WRInaute occasionnel
patrick_lejeune a dit:
Patrick Huet a dit:
Je n'ai pas du tout pensé à Google en les réalisant, mais à la visibilité de mes sous-pages et à leur accès pour mes visiteurs.
Et tu pense qu'en mettant 100 liens en navigation permet au visiteur de découvrir tes pages internes (tes publications)? .
Pour tout dire, je ne sais pas.

J'ai simplement regardé comment moi je m'y prenais pour naviguer.
Il se peut fort bien que la plupart des Internautes se comportent différemment. Mais si déjà je réponds à l'attente de quelques-uns, ce sera un premier pas avant d'autres améliorations. Plus j'en apprendrai, mieux je m'adapterai.

Pour la "page 8.html ", et tout cet ancien site en général, le souci c'est que ce n'est pas responsive.
Et de plus, le constructeur de sites et l'hébergeur que j'ai utilisé projettent d'en supprimer l'accès dans quelque temps, donc, je cherche, je tâtonne et j'essaie d'apprendre, pour recréer quelque chose qui soit fonctionnel.

Ce qui n'est pas spécialement simple quand on part de zéro. Car le constructeur de sites que j'ai utilisé m'apportait tout sous la main. Je n'avais besoin que de créer mon organigramme et du contenu.
 
WRInaute discret
L'objectif est d'en avoir aucune ... Sur mon MS (un prestashop), j'ai refait une grosse partie des fiches produits, avec un minimum de 400 mots. Plus souvent 500. Chantier encore en cours (je fais une pause, j'en ai marre :D). J'en ai profité pour mettre une mise-en-page du champ description longue similaire pour chaque fiche.

Au final, ça paie. Les fiches produits retravaillées sont toutes remontées. En parallèle, je "monte" mon /blog avec des articles de plus de 1000 mots. Il commence à bien prendre lui aussi.

Bref, comme d'hab, bosse, et ça paiera.
 
WRInaute accro
AMHA, le nombre de mot à peu d'importance, l'important est ce qui est dit, sa valeur ajouté (pour moi c’est l'essentiel d'un site web pour se démarquer) et si ça correspond à ce que demande l'internaute en visitant la page. Chose qui n’est pas pris en compte dans le sondage.Le sondage sous entend que ces pages à faible contenu sont juste la pour les moteurs ! Ce qui est faux.

De plus avec l'arrivé du Mobile-first au niveau de l'index GG, j'aurais même l'impression qu'on temps vers le minimum syndical au niveau du contenu. On tend vers son allègement.
Si les internautes surf de plus en plus via leurs mobiles, ils veulent de l'essentiel (le support rend difficile la lecture de gros contenu). Apres tout dépend évidemment du site, de la cible etc.

Une page dite à faible contenu (en terme de mot j'imagine? ) peu très bien être une page pertinente et très utile pour les utilisateurs. Il faut surtout éviter les DC et les abus.
Exemple d'abus "les nuages de mots clés" (surtout quand ils sont mal pensés). On arrive ici bien souvent à des pages sans grand intérêt et du DC. Et donc parfois à des pénalités.

Autre exemple est-il vraiment nécessaire de rédiger 500 mots pour toutes les fiches produits d'un e-commerce? Surtout si c’est pour broder pour les moteurs de recherche et si on a rien à dire ?

Dans les serps je vois des sites avec uniquement des articles de 50-100 mots qui se positionnent très bien, certainement parce que c’est ce que recherche les internautes sur ce type de site et peut etre parce que le pogosticking est bon (c'ets une hypothèse)

Maintenant le nombre de mots n’est surement pas à négliger si on a des choses à dire, pour la longue traîne etc.
 
WRInaute discret
noren a dit:
AMHA, le nombre de mot à peu d'importance, l'important est ce qui est dit, sa valeur ajouté (pour moi c’est l'essentiel d'un site web pour se démarquer) et si ça correspond à ce que demande l'internaute en visitant la page.

Faux et pas faux. Ecris un article bourré de stop words, de "ce produit est exceptionnellement magnifique et super génial". Bref, le genre d'article acheté à Mada, alors là qu'il fasse 200 ou 2000 mots, il ne risque pas de ranker. sauf sur "exceptionnellement" et "magnifique" :mrgreen:

J'ai fait des fiches produits sur des chocolatières. Dans les 500 mots étaient disséminés 5-6 expressions clefs collant autour de chocolatière, chocolatière électrique, machine à chocolat chaud, etc. J'ai créé un univers sémantique autour des fiches, en prenant soin de les mailler entre elles et avec la catégorie. Bah résultat je suis passé de non indexé à indexé en moyenne en 20é position et avec des gros kw en première page. 3 chocolatières vendues en 15 jours. Ca m'était jamais arrivé :D

noren a dit:
Autre exemple est-il vraiment nécessaire de rédiger 500 mots pour toutes les fiches produits d'un e-commerce? Surtout si c’est pour broder pour les moteurs de recherche et si on a rien à dire ?

Evidemment que c'est pour les moteurs de recherche ... le chaland est feignant. Il lit en diagonale. voir pas du tout. Après, pour trouver de quoi dire, bah il faut se creuser un peu la tête. Quand je parle d'un café, je fais souvent un paragraphe sur le dit-café, un paragraphe sur la gamme auquel il appartient (capsules, grain, dosette, ...) et un paragraphe sur le torréfacteur. Avec ça tu les as tes 500 mots, thématisés, dans le bon groupe sémantique, etc.
 
WRInaute accro
Ne pas avoir 500-1000 mots ne veut pas dire que tu ne puisses pas avoir une page optimisée. Mais tu limites certainement la longue traîne.

Oui si tu arrives a produire pour chaque chocolatière du contenu intelligent non dupliqué et si en plus ce contenu est optimisé pour les moteurs. Dans ce cas tu as certainement raison.
je n'ai pas d'e-commerce, mais ca me paraissait difficile de produire une tonne de contenu surtout quand on vend beaucoup de produits identiques sans entrer dans le DC ou les descriptions absurdes. Mais j'ai surement tord. Apres on s'en sort peut etre avec les liens canoniques (par exemple)

Enfin quoi qu'il en soit pour moi peu de contenu ne veut pas dire page "pauvre" et inutile, et peut dans certains cas mériter sa place dans les serps. On ne peut pas généraliser de la sorte comme le fait le sondage.
On peut aussi avoir des pages avec peu de contenu mais uniques (sans DC)

Et c'est quoi réellement une page "pauvre" ? moins de 150 mots, moins de 500 ? est-ce que ça a vraiment du sens si on prend pas en compte le site et ce que recherche les utilisateurs ?
 
WRInaute discret
la langue française est suffisamment riche pour éviter le contenu dupliqué :)

J'avoue par contre que j'en avais marre quand je me suis tapé une gamme de 15 capsules d'une même marque ... le paragraphe sur la gamme et celui sur le torréfacteur à réécrire différemment 15 fois. Mais je l'ai fait.

Une fiche produit, si tu la fais bien, tu ne la fais qu'une seule fois. Bon j'avoue, j'ai pas encore fait celle pour la spatule. Mais je trouverais 500 mots à dire dessus :D
 
WRInaute accro
noren a dit:
On ne peut pas généraliser de la sorte comme le fait le sondage.

En fait il existe deux types de pages pauvres :

- Les pages qui n'ont pas vraiment de contenu mais qui font des liens vers les catégories du menu et vers une page de type "contenu" qui est faiblement liée avec d'autres pages (ça lui apporte un lien en plus)

- Les page qui ont peut de mots mais un title qui correspond à une recherche courante des utilisateurs (c'est bon pour la longue traine et les requêtes longues et ça permet de ne pas optimiser la page principale sur d'autres choses que ses mots clés principaux)

Tout autre type de page pauvre n'a rien à faire sur le web, je vous l'accorde. Mais ces deux types de pages peuvent avoir leur utilité. Non ?

Vous voulez des exemples plus parlants ?
 
WRInaute occasionnel
indigene a dit:
On dit souvent qu'une page ne doit être optimisée que sur un seul mot clé. Mais supposons que j'ai une requête qui revient souvent et qui fasse sortir ma page en position 15 des serps. J'aurai envie d'optimiser la page pour cette requête ...
Il est possible de positionner une page sur plusieurs requêtes (y compris des grosses). On connaît un peu les méthodes:
1. <title>, le plus important
2. <h1>, <h2>, ...
3. contenu
4. ... et liens internes (quand ils sont fait correctement)
Si une page est bonne, elle passe (ou peut passer) sur la requête principale et une miltitude de recherches annexes.

Tu as parlé de Panda (contenu faible, grammaire et orthographe bizarre), il reste le suivant: Pinguin. Ce dernier travaille (et sanctionne) avec les liens (y compris de pages de faibles contenu). Pour faire monter des pages "parasites", tu va devoir faire deux choses:
. soit multiplier le nombre de liens entre pages internes (d'où la remarque à Patrick Huet): ce qui est déclassant
. soit réduire finalement le nombre de liens vers chaque page pour en mettre vers toutes ces petites pages et ... réduire la portée vers les pages importantes.
indigene a dit:
... à la fois des liens de qualité et des liens de moins bonne qualité. Pourquoi ça ne serait pas pareil pour les pages d'un site ?
Pare que là, c'est le webmaster du site qui les fait :wink:

Newbipastaper a dit:
Bref, comme d'hab, bosse, et ça paiera.
Reste à trouver les directions :wink:
 
WRInaute accro
Bon, je vais donner un exemple

J'avais une page qui parlait des tables de la loi. Elle sortait dans les dix premiers résultats sur cette requête.
Et puis je me suis aperçu qu'il y avait beaucoup de gens, mais moins, qui cherchaient "où sont les tables de la loi"
Cette seconde requête sortait en 15° position.

Alors j'ai optimisé la seconde requête pour la faire remonter. Pour cela j'ai modifié la page en ajoutant un paragraphe consacré à la localisation de ces fameuses tables et en insérant dans le texte la requête exacte.

Ca a marché puisque la seconde requête est maintenant trouvable en 9° position. Par contre, la requête principale est descendue en 15° position. Sans doute parce que les mots clés ont été noyés avec l'ajout d'un paragraphe supplémentaire ou à cause d'une suroptimisation due à ce paragraphe supplémentaire.

Alors que si j'avais simplement fait une page très courte qui ne contenait que ce paragraphe avec comme title la requête exacte j'aurai peut-être pu arriver en première page de résultats avec les deux requêtes, même si l'une des pages n'avait que 150 mots de contenu. Ce n'est qu'une supposition. Je ne l'ai pas fait donc je ne peux pas l'assurer non plus. Mais ça m'aurait également apporté d'autres avantages :
- un page de plus sur le site donc augmentation de sa masse
- des liens qui partent de cette page vers les catégories principales donc augmentation du PR de ces catégories en supposant que la nouvelle page reçoive des liens de l'extérieur
- contenu précis, non dilué, correspondant à ce que cherchent précisément les utilisateurs
- apporter un lien de plus vers la page principale et un lien totalement en rapport avec sa thématique
- ne pas avoir à modifier la page principale déjà bien positionnée pour ajouter un paragraphe qui s'éloigne du sujet essentiel.

Vu comme ça je n'y trouve que des avantages. La question est : est-ce que ça aurait plombé les deux pages et même plombé le site de pratiquer de la sorte ?

Franchement ça me fait envie de tenter le coup car quand je vois des pages de wikipédia qui sortent première alors qu'elles n'ont qu'un petit paragraphe et que toi tu trimes pour pondre un texte de 3000 mots sur le sujet et que tu arrives péniblement juste derrière le wikipédia fr et le wikipédia en. Autant multiplier les pages en ciblant un sujet précis sur chaque page.
 
WRInaute impliqué
C'est quoi pour vous et les algo un contenu pauvre ?

Exemple :

un site qui propose un jeu flash par page, la page à un gros contenu : le jeu flash, pourtant avec votre définition et les algo la page à un contenu pauvre.

Autre exemple : un site de wallpaper.
Chaque page présente un wallpaper, le contenu de la page c'est le wallpaper, pourtant y a pas de texte, ca aussi c'est pauvre ?
Pourtant pour l'internaute le contenu convient tout à fait a ce qu'il cherche, même sans texte.

J'ai pas d'autre exemple sous la main, mais je suis sur qu'il y en a plein d'autres !
Le web n'est pas composé uniquement de blog,forum et d'article !

Je trouve que cette notion de contenu pauvre ne s'adapte pas du tout à l'ensemble du web.
 
WRInaute accro
Le contenu c'est le "contenu textuel"

En dehors du contenu textuel les moteurs de recherche ne peuvent pas savoir ce qu'il y a sur la page. Ils reconnaissent qu'il y a une image, un truc en flash ou une vidéo mais ils ne peuvent pas savoir si le truc en flash est une publicité, un jeu ou autre chose si on ne leur dit pas. Et pour leur dire il faut du texte. Donc "contenu" sous-entend contenu textuel. Parce que balancer une photo sur une page web et se dire que les visiteurs voient bien ce qu'il y a sur la photo ou balancer la photo d'un produit dans une boutique et se dire que les utilisateurs vont bien savoir ce que c'est puisque c'est écrit dans le titre, ça ne sert strictement à rien. Il est nécessaire de décrire tous les objets visuels avec des mots.

En général une page correcte commence à 500 mots. En moyenne 700 je dirais. Elle peut aller jusqu'à 3500 mots (après ça fait trop). En dessous de 500 mots c'est light et en dessous de 200 mots c'est pauvre.

Et panda n'aime pas les pages pauvre, c'est à dire vide de contenu. Ca montre qu'on n'a pas fait d'effort. Donc ça se fait pénaliser. Et c'est un peu logique. Quelqu'un qui ne fait aucun effort on ne va pas le récompenser.

Mais la question que je suis en train de me poser c'est si malgré tout ça, il ne serait pas bénéfique d'avoir un petit taux de pages pauvres dans un site sans être pénalisé. Ca serait même un plus.
 
WRInaute discret
Indigene,

J'ai un contre-exemple : j'ai travaillé la page suivante : http://www.buroespresso.com/business-pack

J'ai bossé 11 expressions clefs qui tournent autour de la location. Une grosse page (800 mots), un contenu varié et riche (pas de stop words tout ça), et du netlinking varié (spots / articles / forums, ancres optimisées et non optimisées).

En moyenne, les 11 expressions étaient en 20e position en novembre 2015. Aujourd'hui, la moyenne est 5.5.

Plus qu'une seule expression clef, travailler un univers sémantique sur une page te permet de mieux ranker sur l'expression principale. Enfin je le vois comme ça ..;
 
WRInaute impliqué
indigene a dit:
Et panda n'aime pas les pages pauvre, c'est à dire vide de contenu. Ca montre qu'on n'a pas fait d'effort. Donc ça se fait pénaliser. Et c'est un peu logique. Quelqu'un qui ne fait aucun effort on ne va pas le récompenser.


Un effort de quoi ?

Ok pour une page avec une vidéo, je veux bien admettre qu'une description de la vidéo peut aider le visiteur à le motiver à cliquer, encore que dans le cas ou la vidéo se lance automatiquement l'interêt est limité.

Mais pour la page dont le contenu principal est une image/ un wallpaper , et bien tu ne va pas décrire le wallpaper, quel est l'interet pour le visiteur ? Je parle bien du visiteur hein, pas du bot. Le visiteur il l'a voit l'image, son cerveau lui a déja décrit en quelques milliseconde, ta description textuel c'est juste pour le bot, et ca c'est pas un effort, c'est la transformation d'une page uniquement pour faire plaisir à un robot, et ca je trouve ca grave.
La base c'est faire plaisir au visiteur, pas au bot, tu dis " récompenser les efforts " , mais je suis désolé dans ce cas précis cela n'a pas à être récompensé, c'est même totalement contre productif.

J'ai pas d'autre exemple, mais je suis certain qu'il y en a d'autre. Je trouve que vous pensez trop comme des référenceurs et pas assez pour l'ergonomie des visiteurs.
 
WRInaute occasionnel
indigene a dit:
Mais la question que je suis en train de me poser c'est si malgré tout ça, il ne serait pas bénéfique d'avoir un petit taux de pages pauvres dans un site sans être pénalisé. Ca serait même un plus.
Tout à fait d'accord... Je pense même que cela correspond à une certaine logique :
Disons pour un site de 1000 pages, si il y a entre 800 à 900 pages denses (800 à 2000 mots ou plus), et une centaine de pages (que vous dites pauvres), quoi de plus normal...
Il y a des sujets qui méritent d'être traités de manière approfondie, d'autres non.
Ce n'est pas pour cela que l'information courte de ces pages n'est pas pertinente et justifiée.
Diluer l'information pour à tout pris atteindre un nombre de mots minimum, peut inciter le visiteur à quitter rapidement la page, et être tout autant pénalisable.
Tout est question d'équilibre.
 
WRInaute discret
Stellvia a dit:
Mais pour la page dont le contenu principal est une image/ un wallpaper , et bien tu ne va pas décrire le wallpaper, quel est l'interet pour le visiteur ? Je parle bien du visiteur hein, pas du bot. Le visiteur il l'a voit l'image, son cerveau lui a déja décrit en quelques milliseconde, ta description textuel c'est juste pour le bot, et ca c'est pas un effort, c'est la transformation d'une page uniquement pour faire plaisir à un robot, et ca je trouve ca grave.
La base c'est faire plaisir au visiteur, pas au bot, tu dis " récompenser les efforts " , mais je suis désolé dans ce cas précis cela n'a pas à être récompensé, c'est même totalement contre productif.

Alors dans ce cas là va bosser chez Google, et va leur apprendre à faire crawler des images, des wallpapers, et de savoir reconnaître un wallpaper "batman" quand il y a une chauve-souris dessus ... Et ne parle pas de la baliste alt ou la title. Car c'est facile d'abuser dans ce cas précis (tu mets wall paper batman, alors que ton image c'est une pin up à poil ...)
 
WRInaute accro
indigene a dit:
En général une page correcte commence à 500 mots. En moyenne 700 je dirais. Elle peut aller jusqu'à 3500 mots (après ça fait trop). En dessous de 500 mots c'est light et en dessous de 200 mots c'est pauvre.

L’exemple de Stellia pour les jeux flash est plutôt interessant. Ces sites arrivent à se positionner aisément même avec des pages pauvres (en contenu); Ils ont rarement plus de 100 mots par page, voir plus de 50 mots.
Les internautes se fichent du contenu sur ces sites, ils veulent jouer. Le pogosticking, le temps de visite et le taux de rebond sont surement très bons. Et ils obtiennent assez aisément des BL spontanés

ca veut rien dire à mon sens de parler en terme de nombre de mots obligatoires, je ne suis pas certain que Panda ou autre algo de Google mesure la pertinence d'une page uniquement en fonction de la taille de contenu.

idem pour l'exemple des wallpaper. si on tape par exemple fonds d’écran paysage etc, on tombe sur des pages avec peu de contenu en premières positions. Si on oublie que les images c'est aussi du contenu.

C’est un peu agaçant d'entendre qu'une page web doit être formatée de telle ou telle façon : X mots, X mots clés, X titres,X images etc. Faisons ce qui est nécessaire pour satisfaire nos visiteurs et ensuite pour éventuellement obtenir plus de visiteurs en ajoutant du contenu et donc plus de mots et de la longue traîne.

Et qui a dit qu'il fallait au moins 500 mots ? Passez un moment (au début du panda) ça parlait de 150 mots... Comme quoi, c’est tout et n'importe quoi.
 
WRInaute accro
Newbipastaper a dit:
Alors dans ce cas là va bosser chez Google, et va leur apprendre à faire crawler des images, des wallpapers, et de savoir reconnaître un wallpaper "batman" quand il y a une chauve-souris dessus ... Et ne parle pas de la baliste alt ou la title. Car c'est facile d'abuser dans ce cas précis (tu mets wall paper batman, alors que ton image c'est une pin up à poil ...)

Tape wallpaper batman ou fonds d'écran batman, as tu l'impression de tomber sur des pages avec beaucoup de contenu ?
Avec les bons titres et title, éventuellement un micro texte, ca n’empêche pas de se positionner. L'important c’est que cette page correspond à la demande.

même avec du contenu qu'est-ce qui t'empeche de mettre du texte qui parle de batman et mettre des images de pin up ? Le contenu ne change pas vraiment le problème.

Après il y a aussi les sites sans contenu en bonne position parce qu'ils spams (réseaux de sites etc.)
 
WRInaute discret
Les réseaux de sites sont amenés à tomber, à terme.

Pour le SEO, je reprends toujours mes cours de maths, avec les limites.

White hat => La limite infinie tend vers l'amélioration de ses positions dans les serps

Black hat => La limite infinie tend vers la désindexation

Après, l'infini, c'est long. Donc on ne sait pas trop quand on arrive à échéance ^^
 
WRInaute impliqué
noren a dit:
C’est un peu agaçant d'entendre qu'une page web doit être formatée de telle ou telle façon : X mots, X mots clés, X titres,X images etc. Faisons ce qui est nécessaire pour satisfaire nos visiteurs et ensuite pour éventuellement obtenir plus de visiteurs en ajoutant du contenu et donc plus de mots et de la longue traîne.

Et qui a dit qu'il fallait au moins 500 mots ? Passez un moment (au début du panda) ça parlait de 150 mots... Comme quoi, c’est tout et n'importe quoi.


Merci beaucoup pour ton message.
Je me sentais si seul :(
 
WRInaute accro
@Newbipastaper : Au contraire j'ai plutôt l'impression que les réseaux de sites ont encore de beaux jours devant eux. Ils ont pris beaucoup d'ampleur dans mon secteur et se positionnent très bien depuis plus de 2-3 ans déjà.
Google me semble toujours incapable de détecter les réseaux bien ficelés. On surestime les algos de GG je trouve. Il est surtout bon pour repérer le haut de l'Iceberg, ceux qui commettent des erreurs facilement détectables, les novices du "BH ou GH"
L'année dernière GG annonçait qu'il allait renforcer leur lutte contre les réseaux et pourtant mon secteur n'a jamais été aussi pollué de ces réseaux qui semblent bien solides !
Sur bon nombre de mes mots clés ce n’est pas rare de voir 4-5 pages (sites) d'un même réseau dans les premières positions. malgré mes remontés de positions depuis le dernier pinguin je continu de perdre des visiteurs en bonne partie a cause de ces réseaux.

Pire encore, depuis le dernier pinguin j'ai l'impression que GG a gagné en flexibilité qui laisse encore plus de marge aux réseaux

Mais bon c’est un autre débat et on s'éloigne du sujet.
 
WRInaute discret
@Noren C'est le principe de la "limite" ==> un jour, mais on ne sait pas quand, Google saura les faire tomber.

Ce que je veux dire, c'est que faire du WH, et correctement (opti techniques, contenu, netlinking naturel), finira tôt ou tard par te pousser, parce que c'est ce que Google veux que tu fasses, et donc son algo se perfectionne au fil des mises à jour.

Faire du bh ou gh peut te pousser aujourd'hui, mais tôt ou tard finira par te faire tomber parce que GG n'aime pas ça et cherche à détecter les fraudes justement, en perfectionnant ses filtres pingouins, pandas, etc.

Après, la triche, c'est quitte ou double. Tu peux tomber demain, sans avoir eu le temps de récolter les fruits, ou dans deux trois ans. Je tenterais pas :D
 
WRInaute accro
Au dire de certains sur le forum, le "WH" ne suffit pas et ne suffira jamais, et si GG se perfectionne il en est de même pour les spammeurs. C’est le jeu du chat et de la sourie. Et honnêtement j'ai l'impression que GG restera toujours à la traîne. Et comme tu dis même si le BH fini toujours par se faire chopper, reste encore à savoir quand, au bout de combien d'années? Entre temps bon nombre de sites et de sociétés peuvent en souffrir voir couler. Acceptes tu d'attendre 10 ans bouffé par les réseaux ? acceptes tu de devoir bosser 10 fois plus que la normal parce que des réseaux pompent toutes les positions ? Résultat t'en vient au GH, BH... Mais si t'es moins malin (ou que t'a moins les moyens) que les experts BH tu te feras choppé bien avant eux.
 
WRInaute occasionnel
indigene a dit:
En général une page correcte commence à 500 mots. En moyenne 700 je dirais. Elle peut aller jusqu'à 3500 mots (après ça fait trop). En dessous de 500 mots c'est light et en dessous de 200 mots c'est pauvre.
Comme mes collègues: la qualité d'une page n'est pas liée au nombre de mots mais au contenu. Au vue du dernier Pinguin, je pense aussi que les trop grosses pages sont moins bien vues.

noren a dit:
Sur bon nombre de mes mots clés ce n’est pas rare de voir 4-5 pages (sites) d'un même réseau dans les premières positions. malgré mes remontés de positions depuis le dernier pinguin je continu de perdre des visiteurs en bonne partie a cause de ces réseaux
D'abord, les réseaux de site n'existent que sur des recherches spécifiques (genre adresses des entreprises: difficile de positionner plombier + ville sur toutes les villes avec un seul site). Chez moi, c'est tous des gros "bon vieux" sites.
Le dernier Pinguin a de nouveau descendu les pages avec trop de liens dans le contenu: du coup, tes pages descendent en visiteurs par perte des recherches au-tour du mot clé.
 
WRInaute accro
patrick_lejeune a dit:
D'abord, les réseaux de site n'existent que sur des recherches spécifiques (genre adresses des entreprises: difficile de positionner plombier + ville sur toutes les villes avec un seul site)

Désolé mais je ne suis pas d'accord, dans mon secteur, j'ai au moins 2-3 réseaux qui se positionnent très bien sur de nombreux mots clés même concurrentiels et qui ne sont pas spécifique comme tu le sous entend au dessus :wink:
 
WRInaute accro
Stellvia a dit:
Merci beaucoup pour ton message.
Je me sentais si seul :(

Ben non puisque c'est un peu le but de ce sondage car j'en étais arrivé aussi à certaines idées selon lesquelles faire des pages pauvres pouvait être bénéfique
 
WRInaute discret
Une page riche sera toujours mieux vue qu'une page pauvre ... et au final c'est assez logique, qui dit beaucoup de contenu (je précise encore une fois, du contenu PERTINENT, sémantique, contextualisé, tout ça, et non suroptimisé.), dit une meilleure chance de ranker sur de la longue traîne, et sur l'expression clef visée.
 
WRInaute impliqué
Le problème c'est que google ne vois du contenu que dans le texte.

Et parfois, dans des cas précis, tu peux avoir du contenu intéressant sans texte.

A partir de ce paradoxe, au final t'es obligé d'écrire de la merde sans interêt pour que google soit content.
 
WRInaute occasionnel
Bonsoir,
Je pense qu'une page qui ne présente que des liens et peu de contenu intéressant ne sera pas pris en compte par Google.
(A moins d'être placée sur un site de très haute autorité comme Wikipédia, ainsi que le note Indigène.)

Dans le contexte que j'ai mentionné plus haut, (c'est-à-dire créer une page uniquement pour répertorier vingt, trente ou plus de sous-pages avec leur lien, ceci dans le seul but de facilité l'ergonomie de l'internaute quand il reviendra -il sait qu'en allant sur cette page, il aura la liste complète des points qu'il recherche et un lien direct vers la sous-page)... j'ai fait un test.

Sur mon mini-site portant sur les fleuves, j'ai pris une telle page (pas plus de 50 mots de présentation, puis la liste des liens), j'ai copié son url dans la barre de recherche de Google.... surprise ! (ou pas) Google ne l'a pas indexée. Cette url n'existe pas pour lui, alors que les sous-pages que j'y ai greffées par la suite, elles sont bien répertoriées.

D'où ma conclusion. Google sait que cette page existe, il l'a analysée comme une page de liens (ce qui est son but initial) et a décidé de ne pas l'indexée dans le moteur de recherche.

Il ne l'affiche pas pour les internautes, mais doit certainement la conserver dans ses archives.
 
WRInaute occasionnel
Patrick Huet a dit:
Je pense qu'une page qui ne présente que des liens et peu de contenu intéressant ne sera pas pris en compte par Google.

Patrick Huet a dit:
Dans le contexte que j'ai mentionné plus haut, (c'est-à-dire créer une page uniquement pour répertorier vingt, trente ou plus de sous-pages avec leur lien, ceci dans le seul but de facilité l'ergonomie de l'internaute quand il reviendra -il sait qu'en allant sur cette page, il aura la liste complète des points qu'il recherche et un lien direct vers la sous-page)... j'ai fait un test.
Moi aussi :wink:

Patrick Huet a dit:
Google ne l'a pas indexée. Cette url n'existe pas pour lui, alors que les sous-pages que j'y ai greffées par la suite, elles sont bien répertoriées.

Patrick Huet a dit:
D'où ma conclusion. Google sait que cette page existe, il l'a analysée comme une page de liens (ce qui est son but initial) et a décidé de ne pas l'indexée dans le moteur de recherche.
J'ai un peu cassé ton message pour ne pas faire un copier / coller
Ces pages de liens (tant qu'elles sont bien faites) sont visitées par le robot et indexées (le cache page ne fonctionne plus pour beaucoup de pages aléatoirement d'un jour à l'autre). Certaines sont même des pages d'entrées.
Seul truc qui te manque, c'est comment créer ses pages.
1. que des liens (c'est mort).
2. des liens avec un texte explicatifs derrière chaque lien
3. que du texte avec un lien neutre (genre un numéro de page).

En deuxième (et c'est là mon premier message à la suite de ton premier post: pas multiplier le nombre de liens de chaque page vers d'autres), la méthode est d'utiliser ces pages intelligemment: comme liens de navigation. C'est bien comme cela que les sites de vente en ligne procède en gros :wink:
 
WRInaute accro
Dans mon cas c'est un peu différent.

J'ai une page A qui propose un sondage (bidon). Mais google ne sait pas que c'est bidon et pour lui c'est un "plus" pour l'utilisateur, un truc intéressant (enfin je pense). C'est un plus au même titre qu'une illustration ou une vidéo. C'est même mieux car c'est interactif.

Cette page A fait donc un lien vers une page pauvre B qui ne contient qu'une H1, une publicité, une image et un lien retour vers la page A (avec ancre non optimisée, je précise). En plus, il y a aussi tous les liens du menu.

Donc cette page B a quand même une utilité pour le ref puisque :
- elle apporte un lien à la page A
- elle renforce les liens vers toutes les catégories du menu
- elle ajoute une page de plus au site
- elle est visitée puisque chaque gus qui va visiter la page A et répondre au sondage va se retrouver sur la page B

La page est bien indexée pour l'instant et quand on la cherche avec une partie du TITLE elle sort en première page de résultats

Cherchez simplement "sondage maison hantée" et on doit la voir :

Mais pourtant c'est une page tout ce qu'il y a de plus pauvre puisque le sondage est même complètement bidon et que la page affiche toujours la même image (j'avais la flemme de coder un truc débile et c'est pas la priorité pour l'instant, un jour peut-être...)

Pour ce qui est des liens de navigation comme l'entend Patrick Huet j'utilise une autre méthode mais ça revient au même. J'ai dans chaque catégorie une page d'index qui fait des liens vers les articles les plus importants de la catégorie. Et on peut revenir à tout instant à cette page d'index en utilisant le fil d'ariane.

Actuellement je suis en train de tester la publication de pages à petit contenu (150-200 mots). Je pourrais toujours augmenter le contenu de ces pages ultérieurement. C'est juste que j'ai un autre impératif. Mon objectif étant d'atteindre 2000 pages, au rythme où je publie actuellement, il me faudrait encore 4 ans. Donc j'accélère un peu le rythme en publiant plus mais plus court histoire d'atteindre mon objectif dans un an. J'ai déjà pas loin de 300 articles très denses, je pense que ça va occuper google pour un moment. Je peux me permettre d'ajouter une cinquantaine d'articles à petit contenu, histoire de voir comment ça bouge. Et en fonction du résultat du test j'envisagerais de continuer dans cette voie ou de reprendre la publication de longs contenus mais moins souvent. Je ne pense pas que 50 articles de 200 mots vont couler le site.
 
WRInaute occasionnel
indigene a dit:
Donc cette page B a quand même une utilité pour le ref puisque :
- elle apporte un lien à la page A
- elle renforce les liens vers toutes les catégories du menu
- elle ajoute une page de plus au site
- elle est visitée puisque chaque gus qui va visiter la page A et répondre au sondage va se retrouver sur la page B
.

De nouveau, tu réinvente la roue (en plus de n'être pas exactement dans ton sondage).
- Ta page B met un lien très faible, voire négatif, vers la page A
- elle renforce rien du tout sauf rajouter une page sans contenu et ajouter des pages pour ajouter des pages .... sans intérêt pour les moteurs
- belle manœuvre qui peut effectivement augmenter le nombre de pages vues par visiteur (mais qui à ma connaissance n'est pas utilisée par les moteurs).

La recherche "sondage maison hantée" rapporte quoi comme visiteur? A mon avis: rien.

Je sais pas si c'est Pinguin (liens internes ajoutés à outrance) ou Panda (pages avec contenus très faible) qui va faire descendre le site, mais c'est (ou sera) l'un des deux.
Ces techniques "bricolages" sont sanctionnées depuis au moins 8 ans. Ca peut passer par hasard sur une page (la tienne n'est pas très convainquante) mais à terme, plombe le site.
 
Nouveau WRInaute
Faux et pas faux. Ecris un article bourré de stop words, de "ce produit est exceptionnellement magnifique et super génial". Bref, le genre d'article acheté à Mada, alors là qu'il fasse 200 ou 2000 mots, il ne risque pas de ranker. sauf sur "exceptionnellement" et "magnifique"
 
Discussions similaires
Haut