Baffes de Google et structure de nos sites

WRInaute accro
Un petit résumé de https://www.webrankinfo.com/forum/t/pages-grisees-on-y-va.84630/ de décembre 2007, https://www.webrankinfo.com/forum/t/la-google-dance-de-juillet-2008.96505/ Comme quoi les sanctions sont pas nouvelles. je vais essayé également de donner mes tests depuis 6 mois en fonction de deux sites qui recoivent à tour de rôle les petites sanctions sur des parties complètes ou sur des pages (+ généralement les pages internes en dessous).

et peut-être quelques idées des raisons, même si elle n'engagent que moi at quelques autres joints par MP. Elle est liée à la structure de nos sites ....
On sait maintenant que Google semble sacquer net:
. les pages utilisant des flux RSS
. les pages reprenant en majorité des liens par rapport au contenu texte
. les pages en duplicate content, là c'est pas nouveau sauf que je soupconne Google d'avoir NETTEMENT amméliorer son algorythme.
. on oublie l'achat (vérifié ou non) qui est plus spécifiques.

Les sanctions touchent des nouveaux sites (sortis de sandbox quand même :roll: ) comme des vieux, certains de plus de 10 ans, des annuaires comme des sites standards.
Considérer que Google veut supprimer les annuaires me semble faux.

Tous les sites et pages qui subissent des sanctions ont quelques caractéristiques globales.
1. une structure de sites PHP: header, colonne de liens à droite et / ou à gauche + footer et une partie centrale avec le contenu. Quasiment tous reprennent un menu identique sur la majorité de leurs pages avec un nombre important de liens, si pas sur toutes.
2. la partie centrale reprend dans la très grosse majorité des cas un fort % de liens textes par rapport au texte tout court, si pas que des liens. Que les liens soient internes ou externe ne semble pas entrer en considération, les annuaires avec leurs liens externes comme des catégories de petites annonces, ou même des rassemblement de pages de même thématiques. Le nofollow ou le follow n'intervient pas non plus.
3. dans l'autre cas où la partie centrale pose problème, il est en duplicate content avec une ou l'autre page. Pour m'en être fait jeter une sur un site, il est devenu drolement malin, ma fallu m'y reprendre à trois fois pour voire une partie similaire sur mes deux pages (la vieille est restée): 1/10 de l'ancien site pour 1 /10 du nouveau (2 ans tout de même) et encore avec des mots et tournures un peu différentes.

Le PR: .
Google est à mon avis en train de l'utiliser comme moyen de communication depuis des mois en grisant les pages qui ne lui conviennent pas. C'est la majorité des cas des annuaires. Même avec un PR5 en page d'entrée, les pages de second niveau ont le PR grisé. Pour l'instant, un seul site fait exception à la règle -http://www.webstorming.fr lui a gardé son PR4 sur toutes ses pages internes quasiment sauf qu'une grosse partie n'est plus dans le cache de Google pour le moment. La seule fois que j'ai vu ca c'était mon copain blogger pour "achat de liens" https://www.webrankinfo.com/forum/highl ... htm#820054 un peu agressif :lol: mais c'est probablement un délai entre la sanction et la mise à jour du PR, j'ai l'inverse sur des pages internes

Pour le PR grisé d'une page, la page reprend les caractéristiques de structures ci-dessus. c'est déjà une bonne piste de correction pour beaucoup. En gros dans mes constatation et celle d'autres.
-> afflut de liens -> grisé mais pas de pertes de visiteurs -> reprise de PR avec le temps
-> PR grisé mais reste dans le cache, même si elle n'apparaît pas dans les recherches
->PR grisé, n'apparaît pas dans le cache. Généralement elles font du yoyo entre oui ou non avant de se stabiliser en cache.

D'autres diversités pour ces pages:
dans les outils webmasters (on sait que ce n'est pas mis à jour en live). les pages plus dans le cache ne sont généralement plus reprises comme recevant des liens internes ni même comme envoyant des liens vers d'autres pages internes ou externes (j'ai vérifié :oops: ). Celles qui reviennent oui.

Les causes possibles de sanctions ....
je sais que la génération actuelle ne voit que les liens externes pour faire monter un site ou une page :lol: . Ben non, ... avec des liens corrects, textes biens distincts dans les pages, il y a moyen de monter très haut dans des recherches intéressantes. Les liens externes donnent du poids forcément, mais la stratégie de liens internes va permettre à Google de cibler le site (ou des partie d'un site sur une thématique ou un thème particulier).
Prenons un site avec 20 pages de niveau 2 que nous appellerons catégories. Comme la structure des sites actuels est plutôt en arbre, chaque catégorie reprend des sous catégories (disons 10 pour faciliter le calcul). Le site se fait balancer 10 pages de catégories (la moitié). Les pages des sous catégories de celle-ci ne sont quasiment plus reprises dans Google (sauf avec d'autres liens internes ou des liesn externes). Le site perd donc 10 * 10 pages qui envoient des liens internes (plus les pages en dessous généralement) et .... le site se retrouve avec la moitié de liens internes référencées par Google. Moitié de liens internes (aussi de pages référencées) et c'est tout le site qui descend d'un coup.
En gros, si le contenu ne semble plus pertinent pour Google (duplicate, trop de liens), il ne garde que les parties header - gauche - droite de la page et -> duplicate content avec les pages reprenant peu de textes qui se font aussi supprimées de l'index, effet boule de neige ...

En sortir?
C'est là dessus que je bosse depuis des mois sur mes deux sites (un peu) touché. Possible mais pas de recettes miracles.

Pour un site régional, un annuaire principal reprenant tous les sites et des catégories reprenant les sites spécifiques (donc finalement les mêmes mais organisés différament). Pour ceux là, à part 1, aucun problèmes. Les sites sont en Follow s'ils sont intéressants et en nofollow sinon (2/3 - 1/3 environ). Des sous domaines reprenant chaque fois une commune avec un annuaire des sites repris dans la grosse page sur cette commune. C'est là que ca commence: certains passent très bien, d'autres grisés. Commencé mes tests en décembre sur ces pages grisées. Un annuaire de commune passée totalement en Follow, un autre tout en follow.
Laissé comme celà 4 mois, sans rien bougé, aucune des deux n'est revenue (dans le cache, grisée mais invisible). FOLLOW ou pas change rien dans les liens externes pour ce problème.
En mai, j'ai revérifé tous les sites de ces deux sous-annuaires et supprimer quelques uns -> la no follow avec des pages revenues en follow (mais nettoyée) est revenue PR1, l'autre est passée PR0 (et visible corectement dans les recherches). Par contre, une autre pas touchée (follow et no mélangée) est restée grisée mais reprise de nouveau correctement dans les recherches (cache du 4 juillet, peut-être la raison du PR resté grisé).
J'avoue avoir fait quelques modifications, comme augmenté la description pour certains liens. NB: aucun risques de duplicate pour cet annuaire. Il n'y a pas d'inscriptions par des utilisateurs. Les demandes d'inscription se font par mail et c'est moi qui met le titre et la description.
C'est pas la solution pour un annuaire standard puisque pas de risque de duplicate. Pourtant, j'ai aussi bricolé les colonnes de droites et de gauches en reprenant des parties du site principal spécifique à chaque commune (annonces et activités). C'est peut-être une indication, mais ca a nettement rajouté du contenu sur chacune de ces pages et surtout nettement réduit le % de lien par rapport au texte.

Pour d'autres pages sur un autre site, un dictionnaire. De nouveau une structure header, gauche - droite avec contenu au milieu. Dans les 80 liens internes dans ces parties ( :roll: je sais GG en préonise 100 max, mais mon record sur une page est de 1100 externes et sur une autre, plus de 1200 internes + quelques externes).
Pages de lettres (A, B, C, D, ....) toutes grisées il y a trois mois sauf la A (celle qui a le plus de liens mais aussi celle que les visiteurs suivent le plus, elle est la plus à droite). le contenu internes de ces pages reprenanient un titre, quelques mots de descriptions + tous les liens vers les définitions commencant par la lettre. Je vient de récupérer le PR4 sur une bonne dizaine en rajoutant simplement un petit texte de 3 ou 4 mots derrière 1/3 des liens de définitions.

Tout le monde ne sera pas d'accord, mais je pense que quasiment toutes les sanctions actuelles viennent d'une modif de l'algo qui pénalyse non pas des pages ou des sites mais bien des structures de sites.
 
WRInaute accro
Salut,
C'est assez complet mais je crois pas trop à l'idée de "sanction de structure" parce que sinon pourquoi "tous" les annuaires (par exemple) ne sont-ils pas dans ce cas ?
 
WRInaute accro
serval2a a dit:
Salut,
C'est assez complet mais je crois pas trop à l'idée de "sanction de structure" parce que sinon pourquoi "tous" les annuaires (par exemple) ne sont-ils pas dans ce cas ?

vérifie une structure d'annuaire :wink: (à part quelques uns plutôt gros).

header, colonne de gauche généralement identiques. et comme contenu un lien, un petit texte , puis un lien et un petit texte .... souvent en partie dupliacte content avec d'autres annuaires. Retire les parties de contenu en duplicate (même 1 site sur 5). Au moment ou la partie restante pour Google devient trop faible, les parties communes au rubriques passent en duplicate avec en plus % de liens importants par rapport au texte. Même Indexweb passe en grisé en pages de niveau 2 mais les liens de coté sont équvalents sinon identiques (mais lui reste pour l'instant :oops: peut-être) indexé et visible dans ses catégories. Beaucoup d'annuaires moyens sont passés par là.

Ca je pourrait le tester, avec un autre de mes annuaire qui reprend le même développement que le premier sauf que là c'est les webmasers qui inscrivent leur site. Mais me faudra du temps, ce sont tous deux des développements spécifiques.

Mais j'ai bien dit que c'était une théorie.
 
WRInaute discret
Très bonne analyse.
Je suis complètement d'accord avec la stratégie de liens internes. Si ceux ci sont bien faits, on peut positionner son site sur des requêtes intéressantes.
 
WRInaute passionné
merci pour cet article Ybet. +1 reco

au niveau du duplicate, il y a clairement un changement qui permet à Google de repérer des petits bouts de contenus dupliqués même biens mélangés au sein d'une même page, alors qu'avant il y avait une analyse plus "globale" du contenu d'une page.

c'est pourquoi (entre autres), les agrégateurs de flux, même les mieux évolués "techniquement", et les annuaires qui ne contrôlent pas les descriptions dupliquées ont été durement touchés.

il y a bien sûr d'autres facteurs que tu as bien résumés.
 
WRInaute accro
Pour apporter un peu d'eau au moulin, puisque tu cites mon annuaire concernant les pages de niveau 2 en pr grisé, je me permets de préciser:

1. que la structure des URLs de l'annuaire a été récemment modifiée (dir/subdir/subsubdir/subsubsubdir/page#), et que même si un système efficace de redirections a été mis en place, je préfère attendre 2 "MàJ de PR" avant de me prononcer.

2. qu'un gros bug dans la gestion de l'indexabilité (404, noindex & nofollow internes) a passé la quasi-totalité des pages de catégories en "noindex" pendant 36 heures en juillet.

3. que certaines catégories de niveau 2 ont néanmoins chopé du PR:
Code:
http://annuaire.indexweb.info/art-culture/page1
http://annuaire.indexweb.info/internet/page1
http://annuaire.indexweb.info/sports/page1
(pour ne citer que celles-là)


L'exemple est peut-être donc mal choisi :oops:

Par contre, je suis assez d'accord avec la théorie (que j'ai lue en diagonale: fut un temps, les posts aussi longs, ça envoyait directement au bûcher :roll:) ;)
 
Nouveau WRInaute
Bonsoir,

Je crois que je subis les sanctions expliquées ci-dessous de la part de Google...

Site concerné : -www.tourte.org

- Mise à jour du PR fin avril -> PR 5 (youpi c'est mon premier PR 5)
- Mise à jour du PR le 19 mai rien que pour moi -> PR 3 sur la home et toutes les autres pages sans PR, c'est la sanction de google.
- Mise à jour du PR de juillet -> PR 2 (mais ça doit être normal), les autres pages n'ont visiblement pas repris de PR, il y a donc un problème.

Après la sanction, connaissant l'importance actuelle du PR, je ne suis pas inquiété outre mesure, et qu'en plus je n'avais rien perdu en trafic...

Par contre, en lisant l'étude de Ybet, je me reconnais là-dedans et j'aimerais bien corriger mes conneries, même si pour le moment ça n'influe pas sur le trafic. La sanction est surement due à la structure de linking un peu agressive mise en place sur la Tourte, surtout avec le tag cloud un peu énorme et présent sur toutes les pages du site.

Symptômes relevés :
- perte de PR brutale rien que pour moi sur la home
- perte de PR sur les pages intérieures du site
- pages qui font le yoyo dans google (disparition de certaines pages un jour ou deux et réapparition)

Causes possibles :
- trop de liens par rapport au texte ?

Stratégie de correction :
- diminuer le nombre de liens internes sur chaque page
- ventiler le tag cloud en faisant des groupes de tags sur un même thème et en les rattachant à des catégories.

On sait si on est bon seulement à export du PR ? ou alors en étudiant de près les mises à jour dans le webmaster tools ?

++
Mouky
 
WRInaute discret
Très bon résumé de la misère qui nous touche actuellement. Le problème des structures similaires de page en page (cas des annuaires par exemple), le pb de duplicate et le fort % de lien sur une page / au texte, c'est finalement un meme pb aux yeux de GG : c'est à dire des contenus similaires trop pauvres qui n'apportent rien (de son point de vue) et qui ne méritent pas d'être pageranker (voui cé nouveau)

Je vais passer qq jours à modifier certaines pages de mon annuaire, et on verra bien si la petite barre verte reprend des couleurs... bon courage à tous en tout cas... A+ :wink:
 
WRInaute accro
HawkEye a dit:
L'exemple est peut-être donc mal choisi :oops:

Par contre, je suis assez d'accord avec la théorie (que j'ai lue en diagonale: fut un temps, les posts aussi longs, ça envoyait directement au bûcher :roll:) ;)
justement, j'ai pris ton annuaire comme exemple parce qu'il n'est pas pénalisé par Google au niveau trafic :wink: . Par contre, les pages grisées sur iindexweb, c'est plutôt nouveau, justifiée dans ton cas par des problèmes de sites sans doute. Mais la majorité des annuaires sont dans ce cas depuis des mois.
Tiens le PR de l'annuaire de WRI ne semble pas prendre de pages grisées non plus (pas fait tout j'avoue) mais la structure est différente de la majorité:
. une série de liens pour la navigation au dessus cat ->sous-cat->sous-cat2 ... différentes pour chaque page et finalement nombre de liens faibles.
. les sites, annuaire classique
. une indication d'inscription, textes + liens identique sur chaque page
. des liens de navigation différents de chaque page pour des catégories similaires

au total, similarité entre les pages faible, juste l'indication d'inscription et les quelques liens de droite (+ texte DMOZ).

Juste une constatation, c'est pas forcément une solution pour "sauver" les annuaires .

D'un autre coté, dicodunet vient de perdre une large partie des visiteurs de Google alors que le PR des pages internes n'est pas altéré. Il n'y a pas que des généralités.

Mouky a dit:
Stratégie de correction :
- diminuer le nombre de liens internes sur chaque page
Si mes petits tests et mes conclusions sont exactes, la solution serait plutôt de rajouter des textes diversifiés sur chaque page ou au moins groupes de pages. 100 sites dans une catégorie sur une seule page ou les même sur 10 pages va diminuer la proportion de textes par rapport aux liens de la page (lien externes + menus de navigation), donc accentuer le risque.
Remarque que si ton PR5 venait d'inscriptions dans les annuaires, si leur pages internes sont descendues ou passées grisées, normales que tu descende avec.
crughon a dit:
Je vais passer qq jours à modifier certaines pages de mon annuaire, et on verra bien si la petite barre verte reprend des couleurs... bon courage à tous en tout cas... A+ :wink:
Tu ne le verra pas comme celà, à part quelques descendes brusques de PR sur les sites il y a quelques mois, toutes les modifs de la barre vertes se font lors de la GD. Et sur tous mes essais, les modifs de réintégration des pages de la part de GG se sont chaque fois faites lors des GD, pages corrigées ou non. Le moteur n'a pas l'air d'en tenir compte autrement.

Pourtant quelques sites qui avaient descendu sont en train de remonter, mal mais remontent en visiteurs
 
Olivier Duffez (admin)
Membre du personnel
merci de partager tes expériences (en + d'une reco j'ai mis cette discussion en actu)

y'a des trucs intéressants, et d'autres qui m'étonnent un peu. Par exemple, ça fait depuis des lustres que la plupart des pages ont un header, un footer, 1 ou 2 marges et un contenu central. Je n'ai pas compris si tu penses que le simple fait d'avoir cette structure sur un site pose pb ?
Autre question : (j'avoue ne pas regarder le PR des pages que je visite ou analyse) : la toolbar est-elle vraiment un outil fiable pour analyser ces pb ? je veux dire, elle n'est pas mise à jour très souvent non ?
Pour le reste, je suis assez d'accord avec le fait que Google s'est nettement amélioré dans la détection de contenu dupliqué. D'après mes tests, il l'a fait à l'échelle "macro" depuis début 2007 et à l'échelle un peu plus "micro" depuis fin 2007.
 
WRInaute accro
Salut,
Je m'excuse encore mais j'ai beaucoup de mal avec ce point de vue d'une sanction due à la structure des sites.
Il y a vraiment trop de contre exemple pour qu'elle soit fondée amha.
Pour ne reprendre que les agrégateurs et en visant donc HawkEye (victime expiatoire du topic décidément) son news.indexweb.info s'en sort plutôt bien me semble-t-il, de même que journal-du-referencement.com, etc.
De même mon annuaire a été remplacé dans les SERP googliennes par d'autres annuaires donc de structure identiques.
Sinon effectivement il semble que Google se soit amélioré sur la détection de phrases identiques mais une recherche sur des bouts d'articles du figaro renseigne bien vite, je trouve, sur les conséquences de cette évolution.
@+
 
WRInaute accro
WebRankInfo a dit:
merci de partager tes expériences (en + d'une reco j'ai mis cette discussion en actu)

y'a des trucs intéressants, et d'autres qui m'étonnent un peu. Par exemple, ça fait depuis des lustres que la plupart des pages ont un header, un footer, 1 ou 2 marges et un contenu central. Je n'ai pas compris si tu penses que le simple fait d'avoir cette structure sur un site pose pb ?.
Pense pas que c'est la structure en elle-même qui pose problème, c'est plutôt le contenu répétitif au niveau des liens des colonnes et surtout le nombre important de liens qui est repris sur toutes les pages. Un header (sans colonne) reprenant une grosse liste de liens pose probablement le même problème. Les blog utilise aussi une structure de ce type mais la partie droite est souvent différente d'une page à l'autre. Ca leur évite une sorte de duplicate interne.
[EDIT]pas de chance je viens de tomber sur un blog PR 4, idem et une barre de menu identique avec une forte proportion de liens ...[/edit]
WebRankInfo a dit:
la toolbar est-elle vraiment un outil fiable pour analyser ces pb ? je veux dire, elle n'est pas mise à jour très souvent non ?
C'est exact, mais dans ce cas, je n'ai utilisé la toolbar comme "mesure d'un site mais comme moyen de communication de Google pour les webmasters. Pour WRI, GG l'a descendu de PR, pas de classement dans les recherches .... C'était plus un message qu'une sanction.

J'ai simplement utilisé la barre d'outils pour constater les PR d'anciennes pages passés en grisés, pas des descendes ou montées standard +1 ou -1 ... et chaque fois qu'une page descend dans ce niveau (donc pas une nouvelle page, on est bien d'accord), elle pose problème dans les recherches GG, même en reprenant des phrases entières: pas du tout affichée dans les recherches ou très très loin. En plus des pages qui ne recoivent de liens que de ces pages sont automatiquement sanctionnées.

De toute façon, les sites qui sont descendus ont des PR de pages d'entrées très variable de PR6 à PR0 ... Utiliser le PR comme mesure d'un site me semble aussi inutile.
Par contre, une ancienne page qui recoit une vingtaine de liens PR4 et plus et passe de PR4 à grisé ... c'est plus une mesure d'audience mais bien une sanction
 
WRInaute occasionnel
Bonjour Ybet,

sacré boulot sur les pages grisées. j'ai reco!

Je pense également que google identifie assez rapidement les éléments de type bloc et pondère leur importance.
Je ne pense pas que se soit spécialement un nouveau filtre plutôt un serrage de vis d'un filtre déjà existant, i

En ignorant les blocs autres que celui du contenu unique, google se débarrasse des trois quart de liens qui faussent l'algo : blogroll, lien de sympathie, lien seo, lien acheté...

Avec la classique structure en arbre, si google décide d'ignorer un étage, tous les étages inférieurs se retrouvent ignorés faute d'autres chemins pour y accéder.

Si l'on combine ces effets avec un affinage des techniques de détection de contenu dupliqué, on obtient des effets assez boulversants.

Pendant un temps les agrégateurs de contenu étaient un moyen simple de se faire automatiquement des BL vers les pages les plus profondes, générant au passage un maximum de duplicate.
  • La plupart sont gérés par des seo qui visent les mêmes mots clés et utilisent les mêmes flux.
    Les débutants eux, rediffusent le flux tel quel luttant ainsi contre la home du fournisseur et les centaines d'annuaires faisant pareil.

En ignorant en une seule fois de toutes ces pages de contenu automatique identiques, google se débarrasse des trois quart des pages spammy et prive des millions de pages de ces liens externes qui les rendaient accessibles, les liens internes étant ignorés à l'étage du dessus sur le site même.
 
WRInaute accro
Joli taff ybet et hypothèse interessante mais on est sur yag pile poil dans le cas que tu décrits avec des pavés très répétitif a gauche et pas du tout du symptomes que tu décris (sous réserve de verif exhaustive). Ce seul critère ne doit donc pas etre suffisant. Nécéssaire peut etre mais pas suffisant.
 
WRInaute passionné
Ybet a écrit:
sanctions .... liée à la structure de nos sites ....
On sait maintenant que Google semble sacquer net: .... les pages reprenant en majorité des liens par rapport au contenu texte...
et
Le PR: Google est à mon avis en train de l'utiliser comme moyen de communication depuis des mois en grisant les pages qui ne lui conviennent pas.

La question essentielle est, me semble-t-il, est de savoir si les pages devenues grisées ou avec un moindre Pr ont reculé dans les SERP cad si elles ont vu leur" positionnement" reculé.

Si la réponse est NON (c'est mon sentiment), je crois qu'on se trompe complètement ds l'interprétation faite de "cette communication de google" parce que le changement n'est pas alors pas un changement de l'algorithme de google touchant ces sites ni de leur PR réel, mais donc uniquement du PR publié.

Et en l'occurence, ce n'est même pas une sanction, ni un signal dans ce sens, mais simplement le fait que, google publiant un certain PR pour rendre attrayante la google barre et diffuser celle-ci au maximum, il doit bien aussi ( c'est un travail sans fin pour lui) veiller à ce que cette publication ne soit pas utilisée pour obtenir des liens uniquement dans un but de gagner du "PR juice".

En fait, pour les sites concernés, c'est un retour à leur fonction de base, temporairement détournée par la PR mania.

Si , par contre, il y a perte de positionnement, il y a sanction du site ou des pages concernées.
 
WRInaute accro
Willgoto a dit:
devenues grisées ou avec un moindre Pr ont reculé dans les SERP cad si elles ont vu leur" positionnement" reculé.

Si la réponse est NON (c'est mon sentiment), je crois qu'on se trompe complètement ds l'interprétation faite de "cette communication de google" parce que le changement n'est pas alors pas un changement de l'algorithme de google touchant ces sites ni de leur PR réel, mais donc uniquement du PR publié.
ben la mienne est majoritairement oui ... seul des péhénomènes extérieurs (sites inacessibles, ...) grisent les pages sans les bloquer.
 
WRInaute passionné
Pas convaincu non plus par cette sanction de structure, j'ai la même sur les 10.000 et quelques pages de mon site : header et partie gauche (menu) identiques sur toutes les pages et avec beaucoup de liens internes. Et j'ai des pages qui prennent de PR, celles qui ont du contenu différent des autres et avec une majorité de texte.

Tout à fait d'accord sur les sanctions dues à un ratio texte/liens internes ou externes trop faible, c'est le cas dans un pseudo annuaire de petites annonces organisé par pays -> région -> département -> ville. J'ai rajouté un contenu texte sur chacune de ces pages avec une faible partie variable, on verra si fait de l'effet...
 
WRInaute passionné
ok

Bon article mais n'importe quoi pour la structure des sites.

J'ai pas mal de sites, j'en visite pas mal, la plupart ont une structure header, footer et 3 colonnes.
Regarde les blog, CMS, ecommerce, enfin quasiment tous les sites d'ailleurs :wink:

Donc sanction de structure, certainement pas.
 
WRInaute passionné
N'ayant fait aucun test, je ne peux pas trop donner mon avis.
Ceci étant, -je pense- qu'il s'agit juste d'un moyen de communication quand le contenu est inédit.
ça serait sinon paradoxal d'aller chercher à remplir des formulaires pour récupérer des pages non indexable, et d'un autre côté, déclassé des pages accessibles avec un contenu inédit uniquement parce que la page qui lie fait trop de lien.

Pour un annuaire, pour moi, c'est un ensemble de sanction qui font qu'ils sont déclassés et perdent leur PR (peut-etre pour la raison que tu cites que j'estime au dessus être de la com')

PS : sauf la A (celle qui a le plus de liens mais aussi celle que les visiteurs suivent le plus, elle est la plus à droite) < à gauche du voulais dire ? ;)

Accessoirement, comment ferais-tu pour ne pas faire un alphabet A-Z pour présenter des artistes, livres, BD etc. par exemple ? ça me semble être le plus pratique pour le visiteur. Donc même si c'est possible que ce soit du à Google, ça serait une erreur de jugement de sa part.
 
WRInaute accro
serval2a a dit:
Pour ne reprendre que les agrégateurs et en visant donc HawkEye (victime expiatoire du topic décidément) son news.indexweb.info s'en sort plutôt bien me semble-t-il

Héhéhé... le "vicieux" :roll: s'en sort effectivement pas mal pour l'instant.

A noter, dans la "structure" puisque c'est l'objet de cette discussion, qu'il n'est pas du tout du genre qu'on pourrait croire: il n'offre quasiment pas de liens en dur (sauf en homepage...): c'est précisément un outil visant à fournir du trafic, pas à assister le positionnement de sites tiers ;)
 
WRInaute accro
Après quelques MP, le terme structure semble pas être compris dans mon post. C'est pas le fait de mettre un header + navigation + contenu qui pose le problème. C'est plutôt ce qui a dedans mais sutrtout le caractère répétitif des parties de navigation.
D'aillieurs, certain que construction de page header + contenu pourait présenter les mêmes problèmes.
Prenons une structure de page standard utilisée dans les sites PHP - MySQL, donc plutôt répétitif au niveau structure


Jusque là ....

Séparons les parties navigation (header + colonne de gauche) du contenu.

Première partie des sanctions: le contenu. Dans ce cas, deux raisons possibles.
1. duplicate content, et quelques uns sont d'accord pour dire que GG a affiné son analyse
2. % lien trop important, considéré comme page inutile.

Considérons que GG trouve le contenu 'inadéquat';, il vire la page OK, mais peut-être aussi seulement le contenu. Si c'est le cas, il lui reste les deux parties de navigation qu'il considère comme contenu. Et si elles sont trop élevées en nombre de liens, on revient à la partie contenu -> OUT
et du coup ... les pages avec peu de textes dans la partie contenu sautent aussi (qu'il soit correct n'intervient plus). ca pourait expliquer que les "petite" annuaires se font supprimer les catégories avec peu de sites inscrit qui tombe en duplicate avec des pages, mais également des sites de news reprenant pas ou peu d'annonces dans une catégorie, les deuxième victimes des pages san sannonces :evil:

Maintenant la navigation .... Prenons un site avec un header standard, un contenu pas trop étoffé mais un nombre de liens important dans la partie nav .... Qu'elle partie GG va voire le plus?

Dans le raisonnement ci-dessus, le contenu, mais ... mon idée vient d'un article d'Olivier sur un brevet de Google qui jugerait les points importants d'une page ... que j'avais corrigé dans un post en disant "structure de la page". GG serait capable de déterminer quels sont les parties de poids d'une page ... Si c'est le cas .. Pour TOUS les sites qui reprennent beaucoup trop de liens dans les parties navigation IDENTIQUEs sur toutes les pages, GG ne voit plus la partie contenu de mon petit dessin comme le principal mais bien ... la partie navigation. % lien trop important par rapport à la partie texte ... grisé et de nouveau, la majorité des pages du site se ratrouvent en duplicate.

J'espère avoir été un peu plus claire, en partant du principe que la majorité des sites reprennent la même partie de navigation sur toutes les pages.

PS, j'ai pas cité quelques sites dans le premier post pour qu'ils se fassent attaquer sur ce post, ce sont juste des exemples de structure (on va dire navigation :? , soyons prudents), sites qui se sont fait ou non sanctionner avec des caractéristiques propres. D'aillieurs, bizarre que personne ne reprennent mon exemple de l'annuaire de WRI qui lui ne reprend que peu de liens de navigation répétitif (juste le header) mais des liens de navigations différents d'une catégorie ou même d'une page à l'autre :roll:

Faudrait aussi lire avant de répondre et de juger un site. pourtant quelques uns essayent les changements: réductions du nombre de liens dans les parties navigation et / ou augmentation du texte dans les parties contenu.
PS2: dans le post de décembre, j'avais arrêté de donner mes tests tout simplement parceque je trouvais un peu mesquin que ceux qui s'intéressaient étaient plus ceux qui n'étaient pas touché ou ne risquaient pas de l'être (en clair les petits sites) et pas les autres qui me semblaient juste prendre les indications, maintenant que des annuaires standards et des moins gros sites, genre 10.000 visiteurs par jours quand même qui passent à 500 fin juin sont touchés, j'aimerais bien que ceux qui sont sanctionnés et ont trouvé (ou non) des solutions ou ont fait des tests de leur coté participent au moins un peu. Au passage, merci à ceux qui m'ont contacté par MP avant ce post pour leurs tests et leurs sites / pages sanctionnées.

PS3 :oops: désolé d'avoir l'air de me facher mais je viens de rentrer d'animer une soirée qui m'a un peu énervé
 
Olivier Duffez (admin)
Membre du personnel
je pense que ça fait plusieurs années (5 par exemple) que Google découpe chaque page en 2 : ce qui se retrouve sur la plupart des autres pages du site (qu'on appellera zones de navigation), et le reste (qu'on appellera contenu).
C'est principalement sur la zone contenu que la page est évaluée, avec un zeste d'analyse de la zone navigation.
Donc effectivement si dans cette zone il y a très peu de texte, ou qu'il ressemble trop à d'autres pages, Google peut décider de ne pas faire apparaître la page dans les résultats, ou très loin...

désolé si ce que je raconte est des banalités :-(
 
WRInaute discret
WebRankInfo a dit:
... Google découpe chaque page en 2 : ce qui se retrouve sur la plupart des autres pages du site (qu'on appellera zones de navigation), et le reste (qu'on appellera contenu)...
désolé si ce que je raconte est des banalités :-(

au contraire c'est très intéressant, cela signifie que tu penses que Google doit être capable de définir un "masque" pour chaque site et analyser uniquement ce qui filtre à travers ce "masque" pour chaque page
- ce qui semble logique et pertinent
- ce qui expliquerait bien le positionnement de certain de mes concurrents (page "manuelle")

mais alors, peut-on aussi penser que le site (et non la page), lui, bénéficie d'un PR en fonction de la qualité des liens/texte/etc. du dit-"masque"? car si on propose une navigation c'est bien pour nos visiteurs, GG ne peux pas l'ignorer!

or pour mon (www) j'ai beau changer la présentation, augmenter/diminuer les navigations/liens, bref avoir un "masque" énorme ou minime, j'ai toujours un PR 5 depuis 4 ans (j'en suis-même arriver à minimiser les services)

on peut alors en déduire
-soit que mon "masque" importe peu
-soit que j'ai bien minimisé mon masque à ce que GG estime de pertinent.
-soit que mon masque est original.

je penche plus pour une notation de la qualité du "masque" par GG et peut-être un changement de cette notation expliquerait que certains sites soient toujours bien noté, et que d'autres soient pénalisés

et pourquoi pas imaginer un "duplicate-content" du "masque" : le duplicate-mask , ce qui désavantage immédiatement les annuaires clef en main et les sites clef en main en général, mais aussi les e-commerce trop proche de par leur catégorie.

si le masque n'est pas pris en compte, autant faire des sites polymorphiques avec une variable des présentations fonction de l'id de la page/article (pour maintenir la présentation dans une période donnée) pour minimiser le masque enregistrer pour les sites. Cela va transformer nos sites en véritable labyrinthe... mais pas de risque de duplicate-mask (certains de mes concurrents me dépasse ainsi) et GG doit noter autrement le site (donc pas de baisse car on ne lui appliquerait les nouvelles pénalités de "masque")

quelqu'un a-t-il fait un test sur site hiéarchisé (avec masque) adversus site labyrinthe (sans masque et sans hiéarchisation)? (avec le même contenu).
quelqu'un a-t-il fait un test en utilisant des synonymes dans les catégories d'un annuaire clef en main.
 
WRInaute accro
Zecat a dit:
Nécéssaire peut etre mais pas suffisant.
effectivement, nécessaire mais pas suffisant. Quelues gros sites avec le même schémas n'on pas ce problème, seuls beucoup de "petits"

Mais difficile de connaître le seuil ou GG les laisse passer (ton site et beucoup d'autres) ou les supprime. C'est d'aillieurs impossible à tester pour la plupart des "gros", juste une tendance générale pour les sites sanctionnés
 
Nouveau WRInaute
Le problème de structure interne est toujours omniprésent lors de la création d'un site "référençable". Le problème que nous (webmasters) rencontrons souvent est que lorsqu'on débute un site il dispose souvent d'un contenu faible. La navigation interne telle que tu la décrit pour la plupart des sites : header et navigation vertical vers les sous-rubriques de niveau 1 est alors celle qui semble la plus adaptée.

Seulement voilà, avec le temps le site prend de l'ampleur. Un site qui avait une navigation arborescente "simple" dans ses débuts commence à avoir trop de pages enfouient en niveau 2 voir niveau 3 ou plus s'il y a eu des sous-sous-rubriques de créer...

A mon sens, plus l'arborescence est profonde plus Google va avoir du mal à aller chercher les pages en profondeur et à leur donner une importance.

A mon avis, deux moyens peuvent vraisemblablement pallier à ce genre de problème :

- Faire beaucoup de liens et conserver beaucoup de liens interne dans la navigation vers le niveau 1 et 2, ce qui permettrait d'alimenter la popularité des catégories principales et de leurs sous-rubriques respectives. Problème : le linking massif devient de plus en plus risqué et pourrait conduire à des filtres inopinés.
- Redécouper sa navigation de façon à faire en sorte qu'un site ayant beaucoup de contenu soit plus indexable comme plusieurs plus petits sites. Des sites dans le site. Il devient alors obligatoire de référencer chacun de ses "sous-sites" de manière indépendante.

La navigation principale du site sera alors quelques liens répétés sur chaque page : Les rubriques principales ou "sous-sites" et une navigation différente sur chaque "sous-site".

Il conviendra donc de faire évoluer la structure interne du site en fonction de la quantité de contenu à indexer. Et de faire évoluer son netlinking de la même façon, en traitant chacune des rubriques principales comme un site à part entière.
 
WRInaute passionné
Oui mais référencer les sous parties comme un site à part.

Comment faire ?

Des échanges de liens avec des sites sur cette rubrique, c'est pas forcement possible, puisque rare sont les sites qui acceptent un échange de lien de site à rubrique de site.

Et évidemment tout ce qui est annuaire etc... ne référence que le site.

Donc il s'agit d'avoir l'appui d'un gros site ou de jouer sur le côté Flux RSS pour toucher le plus possible les parties en profondeur. Mais comme là aussi, Google verrouille un peu plus l'importance de ces liens, ça aide pas non plus.

C'est pas évident tout ça lol
 
WRInaute passionné
tonguide a dit:
Oui mais référencer les sous parties comme un site à part.

Comment faire ?

Des échanges de liens avec des sites sur cette rubrique, c'est pas forcement possible, puisque rare sont les sites qui acceptent un échange de lien de site à rubrique de site.

Et évidemment tout ce qui est annuaire etc... ne référence que le site.

Donc il s'agit d'avoir l'appui d'un gros site ou de jouer sur le côté Flux RSS pour toucher le plus possible les parties en profondeur. Mais comme là aussi, Google verrouille un peu plus l'importance de ces liens, ça aide pas non plus.

C'est pas évident tout ça lol
un conseil: ne compte plus sur le RSS pour obtenir des liens de qualité vers tes pages internes.

regarde plutôt du côté des partenariats, ainsi que du côté des bons annuaires acceptant les pages internes. en voici une liste intéressante:
https://www.webrankinfo.com/forum/t/liste-dannuaires-ouverts-a-lindexation-de-pages-internes.83753/

;)
 
WRInaute passionné
Oui c'est effectivement ce que je sous entendais, le RSS fonctionne de moins en moins.

Merci pour le lien, j'ai du louper cette liste, favoris avec les autres :).

Par contre ... reste à savoir si ce genre d'annuaire n'aura pas son lot de sanctions par la suite.

Les partenariats dans le sens partenaire de contenu ? (plus que d'échange de lien) tu veux dire ?
 
WRInaute passionné
tonguide a dit:
Les partenariats dans le sens partenaire de contenu ? (plus que d'échange de lien) tu veux dire ?
si je parle bien d'échanges de liens, mais intelligents, càd ciblés thématiquement, et profonds (càd pas home<>home mais page interne<>page interne)
 
WRInaute accro
carole heinz a dit:
tonguide a dit:
Les partenariats dans le sens partenaire de contenu ? (plus que d'échange de lien) tu veux dire ?
si je parle bien d'échanges de liens, mais intelligents, càd ciblés thématiquement, et profonds (càd pas home<>home mais page interne<>page interne)
y a pas d'échange de liens intellignents .... juste un lien qui fait penser à GG que le lien est naturel entre pages internes de mêmes thématiques (et surement pas site vers site) :wink: Attention à ne pas trop jouer entre un petit nombre de webmasters (quelque soit le nombre de sites d'aillieurs), GG le détecte aussi
 
WRInaute passionné
N'ayant jamais testé les sitemap de GG, est-ce que c'est une solution efficace pour, au moins, permettre à Google d'indexer des pages très profondes ?
 
WRInaute accro
Non.

Il ne faut en aucun cas se reposer sur Google Sitemaps pour l'indexation des pages: c'est avant tout une méthode de communication Google <-> webmaster.

L'indexabilité est directement relative au maillage, interne et entrant. Rien d'autre.
 
WRInaute occasionnel
Oui mais pour être efficace, le maillage interne doit reposer sur une multitude d'ancres.

Matt Cutts vient de bloguer sur les plugins "related item", est ce pour favoriser le cheminement du googlebot ou parce que google arrive à gérer ce type d'optimisation ?

Maintenant on peux toujours envisager un plugin qui aléatoirement prenne comme ancre deux mots avant le mot clé + mot clé ou un mot avant puis mot clé puis mots après dans le contenu, au final on aura une multitude de liens au look poulet bon grain élevé en plein air.
 
WRInaute accro
blogger a dit:
Oui mais pour être efficace, le maillage interne doit reposer sur une multitude d'ancres.

Matt Cutts vient de bloguer sur les plugins "related item", est ce pour favoriser le cheminement du googlebot ou parce que google arrive pas à gérer ce type d'optimisation ?

Maintenant on peux toujours envisager un plugin qui aléatoirement prenne comme ancre deux mots avant le mot clé + mot clé ou un mot avant puis mot clé puis mots après dans le contenu, au final on aura une multitude de liens au look poulet bon grain élevé en plein air.
L'idée est bonne (sauf que je dirais pas) , celle de klelugi aussi, lui ais mis une tite reco. Le découpage en sous parties semble mieux fonctionner que l'envoi massif de liens internes vers les pages internes.

envisager un plugin qui aléatoirement

Ca j'oublierais, déjà essayé avec mon petit système 6 canaux en ramdom (5 X sur 6 pub, la dernière lien). Google n'a pas l'air d'apprécier la plaisanterie :lol: ou du mioins n'en tiens pas compte. Une fois sur deux sur un autre site non plus d'aillieurs. Même le coup des annonces de remplacement adsence reprenant des liens minutieusement choisis :p n'a plus l'air d'être pris en compte. Une de mes petite page de remplacement s'était tout de même retrouvée PR3, mais inconnue probablement des visiteurs :?


Pourtant, il semble que rajouter des mots devant ou derrière les liens lors des grosses répétitions de liens (sans le lien) favorise la page. Pourquoi, difficile à dire: diminition du % lien / texte, lien semblant plus naturel, ....
 
WRInaute occasionnel
Quand je dis aléatoire, c'est la première fois, après il faut bien entendu stocker l'url de la page et l'ancre retenue en bdd.

L'an dernier sur un annuaire thématique régional, j'avais un bloc de contenu aléatoire, après quelques crawl google avait identifié le bloc et ne me positionnait plus sur le contenu de ce bloc.
 
WRInaute discret
bleu bite, je me mèle d'une conversation d'adulte qui me parle.

je ressens le même pb concernant la structure du mon site depuis peu qui fonctionne sous wordpress, oui aprés quelques modifications de ma sidebar je constate une amélioration (c'est à dire plus d trafic de façon irrégulière=

les modifications ont été simple j'avais l'habitude de mettre un article dans plusieurs catégories, résultats pour un article la sidebar de wordpress avait trop de lien et surtout trop de mot identique (lien=title= H1, simple et efficace) puisque le theme reprend tous les catégories indexant l'article lorsque l'on lisualise une page.

j'ai donc revisité tous mes articles avec plusieurs catégories (petit travail de "cicrane et de froumi") pour mettre des tags à la place des catégories et j'ai conservé une catégorie principale pour chaque article.

allelouia !!!

j'ai pas votre expérience mais voici la réalité d'un site qui fait une moyenne jour de 450 pages vues (gg analytics)
 
WRInaute accro
tonguide a dit:
Il faut que le bloc aussi soit aléatoire alors lol

sauf que GG aime la stabibité des sites (ou plutôt des pages) et ca ca date pas d'aujourd'hui, c'est ce qui aide les vieux sites .... contenu stable + liens (anciens) stables

Met un page spécifique en ligne, elle passe pas et modife le title + la description, ... même meilleures ... GG détecte et fait decendre la page (déjà qu'elle était pas au top ... :oops: ).

Désolé de ne pas mettre toutes mes petites constatations en ligne (parle petits sites, c'est plutôt eux que j'aide sur WRI :oops: , les autres ont les armes pour se défendre) mais elles sont pas forcément générales puis elles sont peut-être spécifiques.

PS :twisted: je visite peu de forums de référenceurs, mais j'en ais visité quelques uns ces derniers jours (francophones) - y compris une tite critique sur celui-ci, surtout le post, avec le post en PR2 mais ... pas repris dans le cache de Google :wink: , même rencontré un de ceux qui a posté dans ce treat. Pas franchement de réelles réponses, juste une théorie.

Le boulôt de GG (même s'il le fait de plus en plus mal), supprimer les parasites de son index, notre boulot, passer ...

On trouvera bine les petits mécanismes qui ont fait tomber des moyens sites. GG c'est un programme. Connaître ses paramètres est impossible, en testant chacun de son coté, ca donne une idée. D'aillieurs, compare le net est (en partie) revenu en supprimant ses sites "parasites" ou inutiles qui pointaient dessus. (du moins ce que j'ai retenu dans son cas sur ses posts ici et aillieurs). :? Comme quoi, c'est aussi une théorie à prendre en compte.
Pas de solutions miracles mais des solutions sans doute.
 
WRInaute accro
lu


je voudrais pas que tu te dise qu' chaque fois que j'interviens c'est pour te casser mais je ne suis pas d'accord avec toi.

Tu part du principe que vous etes beaucoup a partager ces infos, je le concois car j'ai la meme technique d'info. En fait on travaille a 3 webmasters et a nous 3 on a une jolie collection de site car ca fait des années qu'on bourrine derriere nos ecrans ^^. Il sont pas tous au top mais on a un belle éventail et nous on constate pas ce que tu dis.

Que tu dises que GG pénalise les sites qui ont des liens parasites, c'et vrai dans le cas de A -> B et B -> A, masi ca toujours été le cas !! C'est pour ca que les annuaires se sont pris une raclé car gg avait bien prévenu depuis des mois que les liens thematiques devenait important, donc la bascule se fait en se moment et plein de site plonge car ils ont un netlink pourri

Si un site pointe un lien parasite sur le mien et moi rien, je te jure que je risque rien.

Ce qu'on a constater avec mes poteaux c'est d'un autre coté une nette amelioration du duplicate content et une mega analyse des nom des NDD.
On dirait plus une guerre contre les domaineurs qui utilises des sites a des pas tres clair, une bataille contre les afficheurs intensif de flux qu'une petite bataille sur des BLs counts.
 
WRInaute occasionnel
Re bonjour à tous,

j'ai passé hier un peu de temps à analyser une vingtaine de sites qui ont perdu une partie de leur visiteurs organiques ces derniers temps.
Quand je dis analyser, ça n'a rien de scientifique, je n'ai pas spécialement le temps de creuser beaucoup plus profond.

Un truc qui m'a interpellé c'est que sur les sites rencontrés, toutes les pages ont le même poids, que l'on parle de la reproduction des crevettes grises dans le désert d'Australie ou de l'art du pliage des serviette en papiers lors d'une communion, toutes les pages font le même poids en contenu.
 
WRInaute discret
Que les sites faisant un lien vers un site A arrivent à pénaliser ce site A serait une nouveauté et plutôt dangereux (ou intéressant selon le côté où l'on se trouve).

Une autre hypothèse: Google arriverait à reconnaître les sites récupérant les flux RSS des moteurs - style les RSS de MSN - et aurait dévaloriser les liens venant de ces sites.
 
WRInaute discret
klelugi a dit:
- Redécouper sa navigation de façon à faire en sorte qu'un site ayant beaucoup de contenu soit plus indexable comme plusieurs plus petits sites. Des sites dans le site. Il devient alors obligatoire de référencer chacun de ses "sous-sites" de manière indépendante.

La navigation principale du site sera alors quelques liens répétés sur chaque page : Les rubriques principales ou "sous-sites" et une navigation différente sur chaque "sous-site".

La question est vaut-il mieux alors continuer à référencer ce sous-site? ou plutôt envisager de passer ce sous-site en petit site avec son propre nom de domaine?
 
WRInaute accro
Djoudje a dit:
klelugi a dit:
- Redécouper sa navigation de façon à faire en sorte qu'un site ayant beaucoup de contenu soit plus indexable comme plusieurs plus petits sites. Des sites dans le site. Il devient alors obligatoire de référencer chacun de ses "sous-sites" de manière indépendante.

La navigation principale du site sera alors quelques liens répétés sur chaque page : Les rubriques principales ou "sous-sites" et une navigation différente sur chaque "sous-site".

La question est vaut-il mieux alors continuer à référencer ce sous-site? ou plutôt envisager de passer ce sous-site en petit site avec son propre nom de domaine?

Tu imagine déjà faire passer un site de 5000 pages en 5 sites de 1000 pages avec les conséquences directes au niveau positionnement? Et les liens internes, tu les renvois entre tes 5 sites. Faudra pas deux passages de boot pour que GG détecte les liaisons et sacque les 5. je suis en train d'adapter l'idée de klelugi sur un site qui décole pas, ... c'est de toute façon mon idée de ce qui se passe.

De toute façon, un site de 5000 pages a plus de chance de passer que 5 petits.

Puis les visiteurs viennent pas que des moteurs mais aussi en direct. On fait pas des sites que pour les moteurs ...
 
WRInaute discret
D'accord avec toi si ce petit site fait déjà 5000 pages.
Ce sera dur de refaire le référencement et tout ce qui suit.

Mais si tu sens le vent venir sur une thématique de niche, et tu t'aperçois qu'avec une dizaine de pages sur le gros site, cela draine 50% des visiteurs, il peut être intéressant de scinder ce petit site.
Le gros site peut alors servir de pourvoyeur de trafic au petit par de bons backlinks. Et pas l'inverse.

Bon, on s'écarte de la discussion là :)
 
Nouveau WRInaute
Remarque

Le 5 juin, j'ai eu droit comme tout le monde à la "baffe" de GG et même l'aller et reour mais j'ai remarqué un truc bizarre, tous les x jours GG restitue l'indexation d'avant la date fatidique. L'ancienne indexation dure exactement 3 jours puis retour dans le profondeurs ...
Ca fait 3 fois que cela se produit, est-ce un hasard ?

courbe-gg.jpg
 
WRInaute occasionnel
tu as voulu devenir independant ?

et google est ton patron....

sans commentaire...
 
WRInaute accro
V a dit:
tu as voulu devenir independant ?

et google est ton patron....

sans commentaire...
enfin une idée constructive ... et on se demande pourquoi une partie des commentaires (intéressants) se font par MP.
sans commentaires ... surtout vu le site -http://meow-prod.com/ (te jure pour ce type de suite, il y des forums nettement plus intéressants: parking.com, rien.net ...)
et on va encore dire que j'ai une mauvaiese gueule (c'est pas nouveau) :roll:
 
WRInaute occasionnel
tu savais que google deteste la redondance de balise table :p ?
tu devrais mettre ton site à jour avec des css, et quand on te dira que le css c'est pas bon, qu'a celà ne tienne, d'ici la le must sera le flash...

Sinon mon traffic ne vient pas du tout de google et exploiter mes stats pour meow-prod est sans interet.


tu vois j'ai meme pas peur d'ecrire meow-prod est sans interet dans une phrase sans avoir peur que ca devalorise mon site.
Pas plus que meow-prod et parking dans la meme phrase.
 
WRInaute accro
V a dit:
tu savais que google deteste la redondance de balise table :p ?
tu devrais mettre ton site à jour avec des css, et quand on te dira que le css c'est pas bon, qu'a celà ne tienne, d'ici la le must sera le flash...

...dire que google naime pa la redondance de table est faux, en fait il sen cale. Par contre ce que lon sait, c'est quon a droi a max 300 caracteres de code avant le contenu si on veut quil soit visible par le moteur, que le code soit css ou html

c'est vrai que 2-3 tables imbriqués et on a vite fait de griller les 300 caracterers si on est pas un peu astucieux

qui a dit que webmaster était un metier simple?! :wink:
 
WRInaute accro
j'ai lu ce thread en travers (trop long, j'arrive trop tard), mais comme le sujet des structures de liens internes m'intéresse particulièrement je me permettrais de paratager avec vous quelques unes de mes réflexions personnelles sur le sujet ...

Tout d'abord j'ajouterais à ce qu'a dit Olivier sur la zone de navigation et la zone de contenu, une zone "footer' (souvent blindée de liens) qu'il s'empresse de mettre à la corbeille.

Concernant les liens, désolée de me répéter mais google ne s'intéresse qu'à la structure logique et se fiche de la structure physique (localisation des liens sur les pages). 3 catégorie de structure de liens sont à mon avis à prendre en compte :

- Structure descendante : elle doit permettre d'atteindre toutes les pages du site en maximum 3 ou 4 clics depuis la page d'accueil. La structure arborescente est celle qui répond le mieux à cette exigence, et il s'avère que c'est celle qui est la plus utilisée. L'idéal est que cette arborescence soit le plus plate possible et la PLUS STRUCTUREE POSSIBLE. Il ne faut pas voir peur d'avoir un niveau de structure qui debouche sur 15 ou 20 branches (voyez les grands sites de vente en ligne, ils ne s'en privent pas).

- Structure ascendante : elle est essentielle, c'est elle qui permet de dessiner des sous-thématiques. Par exemple si vous avez 200 modèles d'imprimantes à votre catalogue, chacune d'entre elle doit pointer vers la rubrique qui les fédère (la rubrique IMPRIMANTES par exemple :roll: ) avec les ancres qui vont bien ("imprimante + le modèle). Idem pour les écrans plats, etc ... vous remarquerez que beaucoups de sites ont qq part sur la page l'arborescence parcourue jusqu'à la page, c'est un excellent moyen de contribuer à la structure ascendante (par ex : Accueil > informatique > Imprimantes > HP Laserjet xxx).

- Structure transversale : elle est essentielle et prend du poids auprès de google (par exemple une zone produits similaires). Elle permet de lier des pages de la même sous-thématique dans du texte depuis de pages de même sous thématique. Il faut bien sûr bien travailler les ancres.

voili voila ...
 
WRInaute passionné
ouai

1, 2, 3, 4 click par rapport à quoi ? à quelle page ? Je dirais que ça dépend de où arrive le visiteur :)
Si on travail pour aumenter la "puissance" d'une page précise (échange de liens, articles etc...) afin que celle ci apparaisse bien placé dans un moteur de recherche pour un ou des mots clés, c'est pas pour rien.

Donc pour moi la notion de "à combien de click est une page" (je suppose par rapport à la page d'accueil) me semble flou et inexacte, car le visiteur n'arrive pas forcément sur la page d'accueil, et si le visiteur arrive à chaque fois sur la page d'accueil, alors le travail à mal été fait.

Une fois de plus, exemple de Wikipédia, je l'utilise beaucoup sur des requêtes via un moteur de recherche, et je ne suis jamais tombé sur la page d'accueil.
 
WRInaute passionné
Re: ouai

sim100 a dit:
1, 2, 3, 4 click par rapport à quoi ? à quelle page ? Je dirais que ça dépend de où arrive le visiteur
bien sûr! 2 clics depuis n'importe quelle page. (la page d'accueil étant souvent accessible depuis n'importe quelle page d'un site) ;)
 
Olivier Duffez (admin)
Membre du personnel
2 clics n'est pas toujours réalisable (exemple : un site avec 2 ou 3 millions de pages) mais ce qu'il faut retenir de ces derniers posts c'est qu'effectivement il faut chercher à limiter la distance entre 2 pages du site (2 pages quelconques, la distance étant mesurée en nombre de liens ou clics)
 
WRInaute accro
Cendrillon a dit:
- Structure descendante : elle doit permettre d'atteindre toutes les pages du site en maximum 3 ou 4 clics depuis la page d'accueil. La structure arborescente est celle qui répond le mieux à cette exigence, et il s'avère que c'est celle qui est la plus utilisée. L'idéal est que cette arborescence soit le plus plate possible et la PLUS STRUCTUREE POSSIBLE. Il ne faut pas voir peur d'avoir un niveau de structure qui debouche sur 15 ou 20 branches (voyez les grands sites de vente en ligne, ils ne s'en privent pas).
C'est ce qui me semble logique aussi. Pourtant, tout se passe comme si les sites qui reprennent trop de liens de navigation sur les pages se font déclassés. A moins que ca soit la structure répétitive que GG n'apprécie pas (c'est plutôt mon idée). C'est comme si dans les liens de navigation, GG déciderai un nombre en fonction du site, au-dessus, GG a l'air de considérer qu'il y a un surplus et casse litéralement les pages.

Cendrillon a dit:
- Structure ascendante
...

Cendrillon a dit:
- Structure transversale : elle est essentielle et prend du poids auprès de google (par exemple une zone produits similaires). Elle permet de lier des pages de la même sous-thématique dans du texte depuis de pages de même sous thématique. Il faut bien sûr bien travailler les ancres.

voili voila ...
Apparament, mes pages qui tiennent le mieux respectent effectivement ce shémas. Pourtant, dès que j'essaye d'en faire un peu trop dans la partie contenu (donc hors liens de navigation, ce qui appuyerais ton commentaire sur les liens physiques), .... ca descend.
 
WRInaute accro
Un petit résumé des idées me semble intéressant à ce stade. Tous n'est pas forcément juste (sinon, on serait pas en train d'essayer de comprendre, on aurait déjà compris :wink: ), mais je pense que les directions des sanctions actuelles, mais surtout futures (c'est ce qui m'inquiète le plus) sont là. Désolé de ne pas avoir repris tout le monde.

On retrouver différentes parties:
1. le duplicate
2. les liens

1. le duplicate
carole heinz a dit:
Google de repérer des petits bouts de contenus dupliqués même biens mélangés au sein d'une même page, alors qu'avant il y avait une analyse plus "globale" du contenu d'une page.

c'est pourquoi (entre autres), les agrégateurs de flux, même les mieux évolués "techniquement", et les annuaires qui ne contrôlent pas les descriptions dupliquées ont été durement touchés.
ca c'est, à mon avis une des raison de la dégringolade de certaions annuaires. Idée également acceptée par Olivier.

blogger a dit:
Je pense également que google identifie assez rapidement les éléments de type bloc et pondère leur importance.
Je ne pense pas que se soit spécialement un nouveau filtre plutôt un serrage de vis d'un filtre déjà existant,

En ignorant les blocs autres que celui du contenu unique, google se débarrasse des trois quart de liens qui faussent l'algo : blogroll, lien de sympathie, lien seo, lien acheté...

Avec la classique structure en arbre, si google décide d'ignorer un étage, tous les étages inférieurs se retrouvent ignorés faute d'autres chemins pour y accéder.

Si l'on combine ces effets avec un affinage des techniques de détection de contenu dupliqué, on obtient des effets assez boulversants.

Pendant un temps les agrégateurs de contenu étaient un moyen simple de se faire automatiquement des BL vers les pages les plus profondes, générant au passage un maximum de duplicate.


2. les liens
klelugi a dit:
A mon sens, plus l'arborescence est profonde plus Google va avoir du mal à aller chercher les pages en profondeur et à leur donner une importance.

A mon avis, deux moyens peuvent vraisemblablement pallier à ce genre de problème :
...

- Redécouper sa navigation de façon à faire en sorte qu'un site ayant beaucoup de contenu soit plus indexable comme plusieurs plus petits sites. Des sites dans le site. Il devient alors obligatoire de référencer chacun de ses "sous-sites" de manière indépendante.

La navigation principale du site sera alors quelques liens répétés sur chaque page : Les rubriques principales ou "sous-sites" et une navigation différente sur chaque "sous-site".

Par contre, là ...

Cendrillon a dit:
Tout d'abord j'ajouterais à ce qu'a dit Olivier sur la zone de navigation et la zone de contenu, une zone "footer' (souvent blindée de liens) qu'il s'empresse de mettre à la corbeille.

- Structure descendante : elle doit permettre d'atteindre toutes les pages du site en maximum 3 ou 4 clics depuis la page d'accueil. La structure arborescente est celle qui répond le mieux à cette exigence,
et il s'avère que c'est celle qui est la plus utilisée
. L'idéal est que cette arborescence soit le plus plate possible et la PLUS STRUCTUREE POSSIBLE.
- Structure ascendante : elle est essentielle, c'est elle qui permet de dessiner des sous-thématiques. Par exemple si vous avez 200 modèles d'imprimantes à votre catalogue, chacune d'entre elle doit pointer vers la rubrique qui les fédère (la rubrique IMPRIMANTES par exemple :roll: ) avec les ancres qui vont bien ("imprimante + le modèle).
l'idée de sous-thématique a finalement été retenue aussi par klelugi. Plus j'avance dans mes tests sur mes sites grisés, plus je commence à regarder du coté de mes autres sites ... et mon site principal WWW, vestige du référencement de fin des années 90 reprend finalement ce shémas: groupes bien distincts avec les liens "par hasard" entre les pages internes des différents groupes quand ils sont dans un sujet similiare. Par contre, me semble que la majorité des sitres pénalisés avaient tendance à essayer le maximum de liens en pages d'entrées et sous pages (la majorité des annuaires présentent une page d'entrée ne reprenant finalement que des liens, les sites de vente en ligne également (les gros sont tros ... gros pour être pénalisé). Mon OScommerce vient également de prendre une baffe ( :lol: mais mes concurrents passent désormais derrière mes pages de contenu sur le sujet qui renvoit vers ... l'OScommerce de vente en ligne).
Pourtant

Zecat a dit:
Ce seul critère ne doit donc pas etre suffisant. Nécéssaire peut etre mais pas suffisant.

une petite idée également intelligente, mais en contradiction avec la limitation de liens entre pages.
WebRankInfo a dit:
2 clics n'est pas toujours réalisable (exemple : un site avec 2 ou 3 millions de pages) mais ce qu'il faut retenir de ces derniers posts c'est qu'effectivement il faut chercher à limiter la distance entre 2 pages du site (2 pages quelconques, la distance étant mesurée en nombre de liens ou clics)


On pourrait retenir

crughon a dit:
Le problème des structures similaires de page en page (cas des annuaires par exemple), le pb de duplicate et le fort % de lien sur une page / au texte, c'est finalement un meme pb aux yeux de GG : c'est à dire des contenus similaires trop pauvres qui n'apportent rien (de son point de vue) et qui ne méritent pas d'être pageranker (voui cé nouveau)

Finalement, on est parti pour découper nos pages en deux parties: les liens de navigation et le contenu.
Trop de liens de navigation, GG ne voit plus que la partie navigation et duplicate pour toutes les pages à faible contenu, effet boule de neige et toutes les pages internes "faibles" sautent. Du coup, ce sont les liens internes plus pris en compte qui font chuter le site.
Pas assez de liens de navigation, GG ne tient plus compte des pages de niveau 3 ou 4 (surtout s'il détecte un genre de duplicate dans un niveau supérieur au niveau des liens) et de nouveau c'est le site qui descend.

:lol: je vais reconstruire mes site avec un bête éditeur HTML et utiliser le copier / coller avec la commande edit ... :twisted:
 
WRInaute impliqué
ybet a dit:
Finalement, on est parti pour découper nos pages en deux parties: les liens de navigation et le contenu.
Trop de liens de navigation, GG ne voit plus que la partie navigation et duplicate pour toutes les pages à faible contenu, effet boule de neige et toutes les pages internes "faibles" sautent. Du coup, ce sont les liens internes plus pris en compte qui font chuter le site.
Pas assez de liens de navigation, GG ne tient plus compte des pages de niveau 3 ou 4 (surtout s'il détecte un genre de duplicate dans un niveau supérieur au niveau des liens) et de nouveau c'est le site qui descend.

Je suis assez d’accord avec cette analyse.
D’une façon générale, je pense que vous avez tendance à considérer que GG utilise une grande multitude de critères tous plus compliqués les uns que les autres. Je dirai simplement que si il utilisait vraiment tous les trucs que l’on peut lire sur Wri, il aurait besoin de tellement de ressources qu’il y a longtemps qu’il aurait appliqué l’analyse sémantique. ( la technique est connue et utilisée à petite et moyenne échelle)
Si il ne l’a pas fait, c’est justement pour une histoire de ressources qu’il est impossible de mettre en œuvre au niveau de l’ensemble du web.

Partant de là, on peut se dire que la vérité est ailleurs, que ses méthodes sont beaucoup plus terre à terre.
Je pense qu’il applique au web un certain nombre d’outils qu’il a développé pour le fonctionnement de GG Actu et que les claques que vous évoquez ne viennent nullement d’un problème de structure récurrente d’un site.
Pour ceux qui ont un site sur ce système, vous ne devez pas être sans savoir qu’il est tout à fait capable de repérer le vrai contenu par rapport au reste de la page.
Il est par exemple capable de dire qu’un contenu est trop court par rapport à la page ( d’ailleurs il le dit vraiment dans les « outils webmaster » lorsque c’est le cas et la page est zappée).

Si on considère l’idée que le volume en octets des liens et autres trucs divers soient trop importants par rapport au volume du vrai texte, il n’est pas utopique de penser que ce soit pénalisant. C’est peut-être cela qui plombe beaucoup d’annuaires. On parle souvent de nombre de liens dans une page mais pas de ce cas de figure.

Alors oui, adapter l’environnement du vrai contenu par rapport au vrai contenu lui-même me paraît de plus en plus indispensable. L'environnement doit être adapté autant en volume qu'en pertinence.
GG ne sait pas lire, il mesure, il compte et il compare. C'est un mathématicien pas un littéraire.
 
WRInaute discret
En tout cas, il y en a un qui s'en sort bien depuis la baffe du 26/06 : chauffeurdebuzz.com
L'extension webdevelopper de firefox sort plus de 300 liens sur la page d'accueil et plus de 200 en allant sur une rubrique.
Le contenu texte ne semble pas prédominant par rapport aux liens dans ce cas. Et c'est le cas de beaucoup de pages.
 
WRInaute accro
Djoudje a dit:
En tout cas, il y en a un qui s'en sort bien depuis la baffe du 26/06 : chauffeurdebuzz.com
L'extension webdevelopper de firefox sort plus de 300 liens sur la page d'accueil et plus de 200 en allant sur une rubrique.
Le contenu texte ne semble pas prédominant par rapport aux liens dans ce cas. Et c'est le cas de beaucoup de pages.
Je viens de télécharger cette extension. Comment tu obtiens ces nombres (c'est quelle ligne des menus ?)
 
WRInaute discret
Menu "Information", option "view link information"

Autre utilisation sympa: voir les H1,H2... avec l'option "view document outline"
 
WRInaute accro
Djoudje a dit:
Menu "Information", option "view link information"

Autre utilisation sympa: voir les H1,H2... avec l'option "view document outline"
Merci.

arfff : 1190 sur cette page : -http://annuaire.yagoort.org/mots/C.html :lol:
 
WRInaute passionné
Cendrillon a dit:
[...] une zone "footer' (souvent blindée de liens) qu'il s'empresse de mettre à la corbeille.

Je dirais qu'il la met de côté, mais pas directement à la poubelle. De toute façon, à moins d'interpréter le CSS, il n'a aucune manière de savoir que les liens se trouvent dans le footer.
 
Olivier Duffez (admin)
Membre du personnel
dadovb a dit:
Cendrillon a dit:
[...] une zone "footer' (souvent blindée de liens) qu'il s'empresse de mettre à la corbeille.

Je dirais qu'il la met de côté, mais pas directement à la poubelle. De toute façon, à moins d'interpréter le CSS, il n'a aucune manière de savoir que les liens se trouvent dans le footer.
peut-être mais une zone HTML bourrée de liens, souvent externes, souvent hors thématique, c'est quand même assez facile à détecter ;-)
et puis je crois que tu sous-estimes un peu les chercheurs chez les moteurs (Google, Yahoo, MSN). Il y a eu des papiers ou brevets là-dessus.
 
WRInaute accro
Zecat a dit:
Djoudje a dit:
Menu "Information", option "view link information"

Autre utilisation sympa: voir les H1,H2... avec l'option "view document outline"
Merci.

arfff : 1190 sur cette page : -http://annuaire.yagoort.org/mots/C.html :lol:

ca aussi j'ai remarqué, certaines de mes pages fon aussi plus de mille liens et passent, d'autres avec quelques malheureux liens non. A croire qu'à partir d'une certaine limite, ca passe . :evil: Va t'en comprendre.

https://www.google.be/search?sourceid=na ... formatique

mon WW avait dispau depuis des lustres et ... le revoila avec même deux pages.

WebRankInfo a dit:
peut-être mais une zone HTML bourrée de liens, souvent externes, souvent hors thématique, c'est quand même assez facile à détecter ;-)
et puis je crois que tu sous-estimes un peu les chercheurs chez les moteurs (Google, Yahoo, MSN). Il y a eu des papiers ou brevets là-dessus.

même pas en footer, y compris les liens internes de navigation apparament.
 
WRInaute accro
ybet a dit:
Zecat a dit:
Djoudje a dit:
Menu "Information", option "view link information"

Autre utilisation sympa: voir les H1,H2... avec l'option "view document outline"
Merci.

arfff : 1190 sur cette page : -http://annuaire.yagoort.org/mots/C.html :lol:

ca aussi j'ai remarqué, certaines de mes pages fon aussi plus de mille liens et passent, d'autres avec quelques malheureux liens non. A croire qu'à partir d'une certaine limite, ca passe . :evil: Va t'en comprendre.
C'ets peut etre juste l'illustration que ton analyse n'est pas pertinente et que tu analyses ce nombre comme un facteur jouant un rôle alors que non ... du coup des fois oui des fois non ...
 
WRInaute accro
Zecat a dit:
C'ets peut etre juste l'illustration que ton analyse n'est pas pertinente et que tu analyses ce nombre comme un facteur jouant un rôle alors que non ... du coup des fois oui des fois non ...
Où plutôt que l'algo juge qu'à partir d'un seuil, il laisse passer. Ce qui dans certains cas il ne faisait plus depuis des mois. Chauffeurdebuzz n'est pas un exemple, il est trop gros ... (parle du site pas de son anatomie :oops: ) et là dans un sens les liens externes vers ses pages jouent certainement (j'ai aussi tester :wink: )

... mes pages avec beaucoup de liens en contenu + navigation qui repassent sont comme par hasard les pages souvent visitées par les visiteurs hors GG, liens internes importants en pleins textes (j'en conclut merci à la google barre).
 
WRInaute impliqué
ybet a dit:
Où plutôt que l'algo juge qu'à partir d'un seuil, il laisse passer. Ce qui dans certains cas il ne faisait plus depuis des mois. Chauffeurdebuzz n'est pas un exemple, il est trop gros ... (parle du site pas de son anatomie :oops: ) et là dans un sens les liens externes vers ses pages jouent certainement (j'ai aussi tester :wink: )

Perso, je serai plus catégorique en disant que GG n'applique pas les mêmes restrictions à tout le monde de façon identique. Pour cela, l'arme absolue est le degré de confiance. Ce critère n'est pas définissable par un algo mais par la visite humaine, donc un critère très subjectif.
Vous allez dire que je me réfère toujours à GG Actu mais son observation est une bonne école.
Juste un exemple comme valeur de preuve:
GG Actu a horreur des doublons. Généralement, les articles doublons sont éliminés des résulats "normaux", seul reste celui qu'il l'a publié le premier (ou celui dont GG est allé le prendre en premier, ce qui revient à peu près au même)
Or, me concernant, j'ai constaté à plusieurs reprises qu'un article considéré en "premium" apparaissait bien normalement jusqu'à ce que..... deux jours plus tard, un journal régional reprenne ce même article et devienne premium à ma place, me reléguant de fait comme un doublon.

Moralité: ne comparez pas un petit ou moyen site avec un site très gros concernant la façon dont il est construit, GG n'a pas du tout la même approche.
 
WRInaute discret
salut les arraignées

L'idee d'une qualification de la structure me parait interessante.

Donc, si je resume grossierement les axes probables d'indexation, on pourrait retenir :

- La structure
- l'historique (evolution du nb de pages, evolution du nb de BL)
- les types de liens
- le contenu sémantique

sauf que, indépenament du site, ces paramètres parmis tant d'autres varient en fonction :

- de la geolocalisation du serveur
- de la geolocalisation de l'internaute
- du mot clef (pas meme traitement suivant les mots à concurrence ou non)
- etc.

a cela s'ajoute la possibilité d'une appreciation humaine ...

Pour la question de la structure, j'attire votre attention sur ce que cela presuppose au niveau du principe :

Autrement dit, si la structure d'un site est un critere important, alors un site ne pourra plus depasser une taille critique TC étant donné que seul un nombre maximum de liens est indexé par GG .

En d'autres termes : si GG refuse (pénalise) les pages de plus de 100 liens par pages alors votre site de 100*100*100 pages ne pourra pas avoir une structure avec menu sur le coté car des le deuxieme clic votre menu fera 200 liens (il y a bien evidement d'autres moyens)

ce n'est qu'un exemple, l'important est le principe qu'une structure imposée implique des limitations , et donc des sanctions, et donc une base de ce qui est bien et ce qui est mal.


Enfin, pour ma part, je penche de plus en plus sur une autre approche de l'algo, plus simple et plus rapide : A savoir le MeanShift (ou un algo global du meme genre) appliqué à un espace de pages de n dimensions , chaque dimension etant un critere qualifié . (je vous laisse le soin de chercher la description de cet algo)
En effet, je ne m'expliquai pas pourquoi sur certains mot clef, il sort parfois les home des gros sites et au milieu (dans les 5 premiers) une pages toute seule fin fond de structure. Or, le MeanShift pourrait bien expliquer ce phénomène :
l'algo trouve le "barycentre" (là où il est le plus "dense" selon les N dimensions) d'un mot clef dans un espace de pages comprenant toutes les pages concernées par le mot clef


Enfin, notez que j'apprecie que le nombre de gars qui se prennent une grosse baffe sur leur site grossisse chaque jour, non pas que le malheur des autres me fasse plaisir, mais plutot qu'en parallele, il y a de moins en moins de gars qui viennent dire " Fallait pas tout miser sur GG"

Je vous le dis du haut de mon tabouret à vache : GG n'aime pas les gros sites trop généraliste (annuaires, portails etc), à terme, il les tuera.
 
WRInaute accro
Pservolex a dit:
.... En d'autres termes : si GG refuse (pénalise) les pages de plus de 100 liens par pages alors votre site de 100*100*100 pages ne pourra pas avoir une structure avec menu sur le coté car des le deuxieme clic votre menu fera 200 liens (il y a bien evidement d'autres moyens)

Pense pas qu'il y a une limitation du nombre de liens dans l'esprit que tu donne, plutôt un rapport entre le nombre de liens de la page (partie navigation) et son contenu, ou même que les différents liens soient dans la même thématique.
C'est claire que les pages reprenant beaucoup de liens ne sont pas forcément les meilleurs pour le référencement (je dois bien en avoir 3 ou 4 qui dépassent à l'aise les 1000). Par contre, certaines sont pénalisées et d'autres non.
https://www.google.fr/search?hl=fr&q=dic ... seau&meta= la troisième est de mon WWW (en plus elle est géolocalisée sur la Belgique et devrait être nettement plus bas sur GG.fr, je sais pas le nombre de liens mais nettement au-dessus des 500 probablement et ... elle s'est repositionnée sur sa requête avec les modifs de l'algo de GG. Pourtant, tous les liens sont dans la même thématique.

Pour beaucoup de pages reprenant beaucoup de liens, le simple fait d'avoir rajouter des petits textes à coté des liesn dans le contenu a repositionné la page (ou au moins dégrisé).
 
WRInaute accro
Pservolex a dit:
Enfin, pour ma part, je penche de plus en plus sur une autre approche de l'algo, plus simple et plus rapide : A savoir le MeanShift (ou un algo global du meme genre) appliqué à un espace de pages de n dimensions , chaque dimension etant un critere qualifié . (je vous laisse le soin de chercher la description de cet algo)
:lol: :lol: Réduirais-tu le travail des SEO à un simple bruit gaussien ? :lol:

Plus sérieusement, il convient de ne pas confondre les traitements algorithmiques servant à déterminer la pertinence d'une page / mots clés avec tout ce qui relève de la détection des éventuelles tricheries ou "actions de gens comme nous", qui vu de Google ne font que fausser les modèles et perturber les traitements ("l'historique (evolution du nb de pages, evolution du nb de BL)" en fait partie) ... Le problème est sans doute aujourd'hui la place (l'occupance CPU dans leur cas) que ces traitements (que j'appelle "verrues SEO") commence à prendre dans l'algorithme global ...

Enfin et pour finir une arborescence à 3 niveaux avec 100 liens par niveau cela permet 1 million de pages, c'est déjà pas mal. D'autant qu'en passant à 4 niveaux on arrive à 100 millions de pages, tu en connais beaucoup de sites de 100 millions de pages ?
 
WRInaute passionné
bon je viens de faire le ménage dans un de mes annuaires (celui de mon -www).

eh bien les seules pages grisées étaient celles qui contenaient ne serait-ce qu'une seule description "dupliquée" (càd déjà présente sur un autre annuaire/site).

c'est le seul facteur qui différenciait ces pages des autres pages non-grisées.
 
WRInaute passionné
en résumé, c'est la mise à mort définitive des logiciels et autres astuces de référencement automatique mais aussi des annuaires acceptant ces descriptions dupliquées. :mrgreen:
 
WRInaute discret
Réduirais-tu le travail des SEO à un simple bruit gaussien ?

yep ! :D

Enfin et pour finir une arborescence à 3 niveaux avec 100 liens par niveau cela permet 1 million de pages, c'est déjà pas mal. D'autant qu'en passant à 4 niveaux on arrive à 100 millions de pages, tu en connais beaucoup de sites de 100 millions de pages

Non évidement, ce n'etait qu'un exemple limite,, mais je suis certain que la barre de prise en compte est nettement plus basse que 100

bon je viens de faire le ménage dans un de mes annuaires (celui de mon -www).

eh bien les seules pages grisées étaient celles qui contenaient ne serait-ce qu'une seule description "dupliquée" (càd déjà présente sur un autre annuaire/site).

c'est le seul facteur qui différenciait ces pages des autres pages non-grisées.


Je ne crois pas une seule seconde que GG soit en mesure CPU de se taper toutes les pages et de comparer des blocs de textes

Par contre, en reflechissant comment je ferais à leur place, je me suis dis que je ferais une moyenne du nombre de caracteres (a verifier si qqun veut tester)
ex: cette page( table ou div ?) contient 230 a , 12 b, 26 c, etc
et cette autre page contient à peu près la meme chose donc duplicate

Je suis en train de reflechir à comment insérer des caracteres aleatoire pour moduler cette reconnaissance , quand j'aurais du temps evidement

en résumé, c'est la mise à mort définitive des logiciels et autres astuces de référencement automatique mais aussi des annuaires acceptant ces descriptions dupliquées

Ils ont été mis à mort des la naissance de GG
Et notez que la naissance de sociétés de SEO "validées et recommendées" par GG est aussi la mise à mort des SEO , attendez qu'il y ait la mise en place d'un label...
Pire, un SEO est de base , depuis que GG a 85 % des parts de marché, un ennemi de GG .

Mais pour revenir à la question de la structure, franchement, je ne sais pas, car meme si theoriquement tout est possible, dans la realité de la charge CPU , ca me parait trop, meme si l'apparition des DIV facilite certainement les choses.
 
WRInaute passionné
Pservolex a dit:
Je ne crois pas une seule seconde que GG soit en mesure CPU de se taper toutes les pages et de comparer des blocs de textes

il semblerait que si, d'autre part je ne vois pas en quoi cela poserait un problème "technique"?

il est évident que depuis la fin juin, le filtre duplicate est dorénavant capable de repérer le duplicate de manière analytique (en décomposant la page et même les parties de pages) et non plus de manière globale.
 
WRInaute discret
Pservolex a dit:
GG n'aime pas les gros sites trop généraliste (annuaires, portails etc), à terme, il les tuera.

Bin voilà qui va me foutre le moral à zéro pour la journée 8O

Par rapport au duplicate content, je pense qu'effectivement il va falloir éduquer les foules pour que les sites inscrits dans les annuaires aient des descriptions uniques et originales. Ce qui va poser pb aux outils de soumission automatique, et aux webmasters qui vont trouver fastidieux d'etre obligé de rédiger des descriptions differentes pour chaque annuaire.

Me d'mande bien à quoi va ressembler l'avenir...
 
WRInaute accro
crughon a dit:
Pservolex a dit:
GG n'aime pas les gros sites trop généraliste (annuaires, portails etc), à terme, il les tuera.

Bin voilà qui va me foutre le moral à zéro pour la journée 8O

Je pense franchement pas que Google en ait à ce point contre les annuaires. C'est en forcant un peu plus une partie de l'algo qu'il les déclasse actuellement, mais d'autres types de sites sont touchés, les sites de vente en ligne annonces, ....
Apparament les gros semblent moins touchés que les moyens et surtout les petits. Lgique dans un sens, y a t'il besoin de 50 annuaire de 100 pages (en plus souvent en duplicate), alors qu'un gros de 3000 pages reprend les mêmes infos, couplés probablement avec un meilleur trustrank.

>crughon: c'est pour te remettre le moral au beau fixe avant ce long week-end :lol:
 
WRInaute accro
Pservolex a dit:
Et notez que la naissance de sociétés de SEO "validées et recommendées" par GG est aussi la mise à mort des SEO , attendez qu'il y ait la mise en place d'un label...
as tu un peu d'infos sur ces validations et recommandations ?
 
WRInaute discret
as tu un peu d'infos sur ces validations et recommandations ?

non, je suis juste tombé sur une liste de sociétés que GG recommendais en tant que SEO, je n'ose pas imaginer comment cela s'obtient et en echange de quoi . Dans tous les cas, les consequences a moyen et long terme d'une telle facon de faire sont parfaitement logiques et evidentes me semble-t-il

(je retrouverais la page GG en question )
 
Nouveau WRInaute
Pour info car je ne suis pas aussi doué que la plupart d'entre vous mais je trouve cela peut être important à signaler, après avoir cherché les raisons de la grosse baffe prise par mon forum j'ai remarqué en me basant sur la dernière actualisation de google trends que tous les sites utilisants le script IP.Board (moin de problème ou pas du tout pour les phpbb dirait-on) ont chuté ces derniers mois: webmaster-hub, geekzone, rentabilisez.com, mon site, etc...

Donc c'est bien une histoire de structure, à voir quoi exactement comparé à des forum phpbb, mais je penche pour le portail en index généralement indépendant du script sur phpbb, ce qui est rarement le cas pour IP.Board qui s'intègre et reprend en général le header et footer sur toutes les pages ...
 
WRInaute accro
carole heinz a dit:
bon je viens de faire le ménage dans un de mes annuaires (celui de mon -www).

eh bien les seules pages grisées étaient celles qui contenaient ne serait-ce qu'une seule description "dupliquée" (càd déjà présente sur un autre annuaire/site).

c'est le seul facteur qui différenciait ces pages des autres pages non-grisées.

Très bonne nouvelle, je m'en vais vérifier tout ceci :)
 
WRInaute accro
C'est peut-être que tous les forums IPB font du cloacking par défaut ? Je ne sais plus ce qu'il en est maintenant mais les liens en signature étaient bels et bien cachés aux yeux de google. Le webmaster-hub s'en était rendu compte et l'a viré mais ça doit être le seul.
 
WRInaute accro
carole heinz a dit:
bon je viens de faire le ménage dans un de mes annuaires (celui de mon -www).

eh bien les seules pages grisées étaient celles qui contenaient ne serait-ce qu'une seule description "dupliquée" (càd déjà présente sur un autre annuaire/site).

c'est le seul facteur qui différenciait ces pages des autres pages non-grisées.
suis en train de vérifier ... idem. Dommage que l'annuaire de WRI et d'autres sont pas plus petits que le miens ... sinon ils auraient pris une baffe aussi, mais on retrouve compare le net, indexweb, ... :lol:
Incroyable le nombre de crétin qui lisent WRI, connaissent le duplicate content et mettent la même description dans 200 annuaires .... ou pire reprennent quarément la meta description de leur site.

Quelques farceurs qui proposent du référencement manuel et ... mettent la même description de leur site dans tous les annuaires (ceux-là j'ai viré tout simplement), les autres j'ai supprimé ou modifié manuellement suivant le site .... C'est pourtant une des bases de référencement ... et on se demande pourquoi GG fait le ménage (maintenant qu'il a les moyens logiciels apparament ...)

un petit exemple https://www.google.be/search?hl=fr&rlz=1 ... C%22&meta= 469 résultats ... sans commentaires.

J'en arriverais presque à faire comme sur l'annaire DMOZ dans ma catégorie: vérifier le site et créer une description (le titre aussi parfois) en fonction de ce que je vois ... En plus un petit annuaire local, sans formulaire marche pas mal (au niveau des inscriptions mais surtout des visiteurs envoyés) et devinez ... ce sont les webmasters qui m'envoient un mail pour les inscrire (avec mon titre et ma description).
J'aurais presque envie de me dire que poster sur WRI pour "fait comme ca" sert pas à grand chose ....
PS un petit coup de gueule, ca m'arrive :wink:
 
WRInaute passionné
WRInaute impliqué
Je pense comprendre les pages grisées de mon site. Dans mon site, Ce sont celles où j'ai les mêmes images (pages en anglais et français, répetition dans les archives. :twisted:
Je vais me moquer de ses pages grisées et continuer à organiser le site comme il me plaît. Je commence à en avoir assez déessayer d'obéir à un moteur. :p
 
WRInaute discret
Je pense qu'il faut éduquer les foules. Le duplicate content partiel n'est pas très connu des webmasters. Je pense qu'il faut mettre en gros dans nos annuaires : merci de ne pas faire une description faite dans d'autres annuaires, sous peine de rejet du site (y compris rétro activement). Ca devrait déjà avoir un impact sur la qualité des inscriptions dans les annuaires et etre aussi utile aux webmasters qui se pénalisent eux-memes actuellement en dupliquant leur description un peu partout...
 
WRInaute discret
Bellegarde-webb a dit:
Je commence à en avoir assez déessayer d'obéir à un moteur. :p

Beaucoup pense comme toi. Mais il faudrait aussi se demander comment la planète en est arrivée là, c'est-à-dire avec un outil unique de recherche qui détient un si grand monopole et un si grand pouvoir. GG est formidablement utile, mais on commence à réaliser que nous ne sommes plus maitre du destin de nos sites et de leur popularité. Les états français, allemand, britannique, russe... auraient du créer un moteur de recherche indépendant depuis longtemps à destination de leurs citoyens. Une forme de service publique nationale... Ce qui aurait rendu service à tout le monde... Peut-être l'avenir ? 8O
 
Nouveau WRInaute
YoyoS a dit:
C'est peut-être que tous les forums IPB font du cloacking par défaut ? Je ne sais plus ce qu'il en est maintenant mais les liens en signature étaient bels et bien cachés aux yeux de google. Le webmaster-hub s'en était rendu compte et l'a viré mais ça doit être le seul.
j'avais reglé aussi ce problème de cloacking IPB :twisted: après reflexion je suis casi sûr qu'il sagit de duplicate content qui n'était pas repris en tant que tel avant il me semble, sur des liens du genre:

‎/lien-t101485.html
‎/lien-t101485.html&mode=linearplus
‎‎/lien-t101485.html&mode=threaded&pid=478132
‎‎/lien-t101485.html&p=477932
‎‎/lien-t101485.html&p=478115
‎‎/lien-t101485.html&p=478132

... je vais virer tous les mode=, p=, etc dans mon robot.txt
 
WRInaute accro
bongasolar a dit:
YoyoS a dit:
C'est peut-être que tous les forums IPB font du cloacking par défaut ? Je ne sais plus ce qu'il en est maintenant mais les liens en signature étaient bels et bien cachés aux yeux de google. Le webmaster-hub s'en était rendu compte et l'a viré mais ça doit être le seul.
j'avais reglé aussi ce problème de cloacking IPB :twisted: après reflexion je suis casi sûr qu'il sagit de duplicate content qui n'était pas repris en tant que tel avant il me semble, sur des liens du genre:

‎/lien-t101485.html
‎/lien-t101485.html&mode=linearplus
‎‎/lien-t101485.html&mode=threaded&pid=478132
‎‎/lien-t101485.html&p=477932
‎‎/lien-t101485.html&p=478115
‎‎/lien-t101485.html&p=478132

... je vais virer tous les mode=, p=, etc dans mon robot.txt
Sais pas pour les IPB, mais il y a la même chose pour les OScommerce. J'ai réglé ce problème depuis des lustres mais grisé tout de même sur mes deux sites. Possible que ce soit quand même le problème.
 
WRInaute occasionnel
Je pense qu'il faut essayer de voir ce qu'a historiquement apporté google: c'est à dire un moteur qui fait apparaitre en premier les pages qui interessent l'utilisateur.
Avant google, internet etait une plaie sans bookmarks.
Malgré tout internet n'est pas google, quand je lis vos theories sur l'organisations des données, celles ci sont sans interet si cette organisation ne presente pas un interet pour l'utilisateur.

Il y a un glissement dangeureux entre bon pour l'utilisateur et bon pour google. Un bon site meme avec 100 visites par jour que l'on a envie de bookmarker et sur lequel on revient finira par devenir plus gros qu'un site optimisé à mort pour google.
Par ailleurs il faut que le site serve a quelque chose.

Pour ceux qui parlent d'une baffe de google, c'est stupide: ca revient à dire que le nombre de visiteur sur internet a tout d'un coup baissé, car autrement cette baffe ne fut pas une baffe pour ceux à qui elle a profité.
Vous etes vicitme de votre optimisation ?
 
Nouveau WRInaute
si j'ai bien compris, j'ai sur un de mes sites sur toutes les pages "les derniers articles" et "les articles les plus lus" avec 10 liens (internes) pour chaque; et donc parfois des liens en double puisqu'un des derniers articles peu aussi être un des articles les plus lus !!

C'est donc une erreur ?

Pourtant le site est jeune (3 mois) et il a déjà un PR de 1 et beaucoup de pages sont biens référencés et même positionnées en première page dans google.

Je me demande vraiment si je dois garder ce système ou l'enlever
Et presque impossible de savoir s'il avantage ou désavantage le référencement du site...
 
WRInaute accro
bobomazo a dit:
si j'ai bien compris, j'ai sur un de mes sites sur toutes les pages "les derniers articles" et "les articles les plus lus" avec 10 liens (internes) pour chaque; et donc parfois des liens en double puisqu'un des derniers articles peu aussi être un des articles les plus lus !!

C'est donc une erreur ?

Pourtant le site est jeune (3 mois) et il a déjà un PR de 1 et beaucoup de pages sont biens référencés et même positionnées en première page dans google.

Je me demande vraiment si je dois garder ce système ou l'enlever
Et presque impossible de savoir s'il avantage ou désavantage le référencement du site...

Déjà lr PR affiché ... on s'en fout un peu.

En deux, ca va dépendre de la manière dont les liens sont faits. Tout va dépendre si Google va le voire comme partie navigation ou contenu. Dans le deuxième cas, il va bloquer toutes les pages à faible contenu.

Pour tes liens, 1 ou 2 identique sur la même page vers une page ne change pas grand chose. Il ne tient compte apparament que du premier, dès lors les derniers et les plus lus ensemble ne changent rien. Cette situation se retrouve sur la page d'entrée de WRI en ne pose pas de problème. Pour la répétition des liens de navigation sur les pages, deux solutions, soit uniquement le lien, soit le lien avec un début de texte. Sans, c'est de la navigation, avec (beaucoup) ca devient du contenu et duplicate possible.
 
Nouveau WRInaute
ybet a dit:
En deux, ca va dépendre de la manière dont les liens sont faits. Tout va dépendre si Google va le voire comme partie navigation ou contenu. Dans le deuxième cas, il va bloquer toutes les pages à faible contenu.

merci ybet pour cette explication très intéressante. Dans mon cas, les liens sont les titres des articles; je pense donc que google doit les voir comme du contenu...

Tiens, à l'heure ou j'écris cette réponse, le site en question a disparu d'un coup d'un seul de google. Je suis passé de 150 visites/jour à 8 !!! c'est la deuxième fois que ça arrive sur ce site. La première fois, il est revenu après 10 jours !!?? Mais cela semble être fréquent avec les jeunes sites... apparu... disparu...
 
Discussions similaires
Haut