Bilan de référencement 2008 - stratégie 2009

WRInaute discret
Ces derniers temps, ça bouge beaucoup dans les SERPS, des gros disparaissent, d’autres sont déclassés et en retour, certains gagnes des positions !

On a vu beaucoup d’agitations dans les forums, sur les blogs…on entend parler de tout et de rien un peu partout, mais sans trop savoir. Beaucoup de questions, d’incompréhensions… alors on cherche, on veut pouvoir tirer de nouvelles conclusions sur les cause de ces changements - et là c’est un peut le parcours du combatant. Y en a dans tous les sens !

Mais qu’est ce qui a VRAIMENT changer ?

Difficile de dire que rien a changer ces derniers temps. Des changements il y en a eu c’est certain, et pas des moindres. Mais alors lesquels ? Il ne peut pas non plus y en avoir eu 50 ! 1, 2, ou 3 peuvent suffire et avoir de lourdes conséquences. Le tout est de se concentrer sur ceux là, les vrais changements.

Après pas mal de recherches et de lectures, en tirer une conclusion est tout sauf simple. Je n’ai pas la science infuse et le but du post est au contraire de faire réagir des membres de ce forum qui pour la plus part sont plus avancés que moi sur la chose.

Dans ce que j’ai pu lire sur différentes sources, je ne vois réellement que 4 grands changements, qui à mon avis expliquent les mouvements des SERPS de ces derniers temps et la politique de GG.

1) L’évolution et le durcicement du filtre DUPLICATE CONTENT

Merci à Ybet pour son étude géante sur la question et d’ailleur sur les points qui vont suivrent également.
GG semble ne plus rien laisser passer sur ce point. Bien que comme tout dans le référencement, il faille l’intégrer à « un tout » et qu’il ne joue pas seul, la moindre détection de contenu dupliquée semble fatale. Ce qui peut se comprendre avec l’avènement des blogs, des wikis et autres qui peuvent être d’excellentes sources de contenu, mais également une vrai plaie pour les SERPS.

2) L’application d’un filtre sur les pages avec peu ou pas de contenu, qui ne comprennent que des liens.

Là encore, se sont les études d’Ybet qui sont les plus poussées à ma connaissance, mais elles sont confirmées en d’autres termes par d’autres conclusions sur beaucoup de blogs SEO.
Une page ne contenant que des liens aurait donc de moins en moins de poids pour GG, ce qui se comprend et se retrouve en point n°3 et expliquerait en partie les problèmes que rencontrent les annuaires.

3) Un fort changement sur l’algo du PR

Certainement le plus important avec le point n° 1. La prise en compte des liens a plus qu'été bousculée ces derniers temps. De nouveaux critères rentrent dans le calcul du poids de ces liens.
A mon avis il n’y en a pas 50.

Dans ce que je peux conclure d’après ce que j’ai lu sur la chose, les points importants se résument aux suivants :

a- Ils doivent être intégrer à du contenu et ne plus être isolés, ou en footer. Ce contenu doit être de la même thématique que la page vers laquelle le lien renvoi. Mais pour moi ce n’est pas le plus gros des changements, ou ajustement puisque c’était déjà vrai en partie il y a quelques temps.

b- Ils doivent être cliqués et utilisés par les visiteurs. C’est pour moi la plus importantes des évolutions. Et la encore on s’y retrouve dans ce que vivent les annuaires ces derniers temps, mais également dans le discours sur les échanges de liens et les pages partenaires. On le sait, peut d’annuaires nous apportent du trafic. Leurs liens ne sont pas cliqués tout simplement. Les pages partenaires idem.

D’où les discours sur la création de contenu vraiment intéressant, avec des liens sans retour mais fait par obligation vers d’autres sites pertinents pour améliorer le score de sa propre page.
On entre en plein dedans, le « tout pouvoir au visiteur ».
Vos liens internes ou externes ne sont pas cliqués, pas utilisez ? donc pas pertinents, donc n’ont aucun poids.

GG n’en avait pas les moyens hier, mais les a bel et bien aujourd’hui. Il peut suivre parfaitement les chemins empruntés par les internautes, via ces toolbar, analytics et autres.

Jusqu'ou ça va ou ça ira ? on peut se poser des questions.

Liens suivi, comportement sur la page ciblée, temps sur la page, suivi d’un nouveau lien… les possibilités sont énormes.
Avec cette méthode on éradique et fait le ménage sur les liens cachés, les liens mal placés et non pertinents, les envois vers des pages creuses…bref on règle pas mal des pb que gg doit avoir envie de régler.

4) Une meilleure optimisation d’une seule page sur plusieurs mots-clés en utilisant des synonymes

A l’époque on créait et optimisait une page par mot-clé. Ce n’est plus vrai aujourd’hui. La long tail devrait être une stratégie beaucoup plus payante à terme.

Pour moi tout est là, je ne vois pas d’autres changements importants. Tout ce qui était vrai hier l’est toujours aujourd’hui, avec un durcissement sur le point n° 1 et l’ajout de nouveaux calques sur les points 2 et 3.

Quelles sont pour vous les points sur lesquels GG a réellement apporter des changements ? vos conclusions persos ou tests…vous en pensez quoi ?
 
WRInaute passionné
c'est un bon résumé.

au niveau du tracking, je ne suis toujours pas persuadé que GG utilise analytics pour cela : prendra t-il un tel risque ? à mon avis, la seule chose qui peut couler le géant GG sera un problème administratif ou judiciaire : se donnera t-il le baton pour se faire battre ?

pour la gg bar, pas convaincu qu'un panel assez représentatif l'utilise (en ayant permis l'envoi de données)...


sinon je suis ok avecc toi :-)
 
WRInaute discret
+1

Excellent post, je suis d'accord avec toi.

C'est pourquoi, il est plus sur d'avoir peu de partenaires, mais avec lesquels on bâti des liens propres et sur du contenu.

Et le mot d'ordre comme plusieurs le disent ici :
CONTENU ! CONTENU ! CONTENU !!!
 
WRInaute accro
+1

mickyserv a dit:
Et le mot d'ordre comme plusieurs le disent ici :
CONTENU ! CONTENU ! CONTENU !!!
il faut arrêter de scander "contenu, contenu" comme un leitmotiv: c'est valable (et très valable) dans certains cas et pour certains types de requetes, mais de très nombreux sites corporate n'ont par exemple pas vocation à publier du contenu en masse... Idem pour certains sites d'information thématique (plutôt que site de publication de news..).

"Contenu...!"... qu'est-ce que cela veut dire du nouveau contenu? --> OK... mais? du contenu additionnel, ou du renouvellement? S'il s'agît de renouvellement, quid du référencement de l'existant, dans ces cas là?

Je ne peux pas croire qu'il y ait un seul chemin... valable pour tout le monde !
 
Nouveau WRInaute
L’évolution et le durcicement du filtre DUPLICATE CONTENT

en tant qu'utilisateur (et non en tant que webmaster) les resultats google n'ont jamais été autant pollués de contenu dupliqués, c'est une horreur.

expérience personnelle (donc à mon petit niveau) : en faisant une recherche sur des pans entier de texte issus d'une de mes pages 100% originale j'obtiens :

10 résultats dont 1 ignoré
celui qui est ignoré c'est l'original, ma page --> 1ère faillite
les 10 autres renvoient tous sur des pages merdiques toutes identiques -> 2ème faillite
et bien sur ces pages balancent des redirections véreuse et font s'exciter tous les anti virus, google ne nous a pas prévenu --> 3eme faillite

2) L’application d’un filtre sur les pages avec peu ou pas de contenu, qui ne comprennent que des liens.

en tant qu'utilisateur je tombe de plus en plus souvent sur des pages styles forum avec juste un titre accrocheur, le contenu etant soit nul soit rempli de kikoolol ou pire de cyber-connards ("google est ton ami") mais sans la réponse que je cherchais.

expérience personnelle sur un de mes sites:
une page avec du contenu original interessant fourni et sur des mots clé précis non concurrentiels --> indexée mais ne ressort sur aucun de ces mots clé (j'ai parcouru toutes pages de résultats!)
une autre page avec juste un titre (meme thématique que l'autre, mais sujet et mots clé differents), et zéro contenu --> indexé et classé sur la 1ere page pour ses mots clés.

Un fort changement sur l’algo du PR
peut être, j'en sais rien, avec cette connerie de nofollow il y a bien longtemps que je n'ai plus obtenu un backlink juicy.

Une meilleure optimisation d’une seule page sur plusieurs mots-clés en utilisant des synonymes
pourquoi pas, mais je crois plus à un algo crétin qu'à un algo subtil et doué en français

expérience: suite à une erreur j'avais laissé une page avec un grand nombre d'images qui possédaient toutes le même alt, alt contenant des mots clés inutiles et hors thématique, et bien sûr, je me suis retrouvé super bien classé sur ces mots clés sans intéret. bravo la pertinence.


conclusion, aucune parce que mes tests et expériences sont sans valeur à grande échelle, mais une intime conviction que l'algo google est au bout du rouleau, et que la pertinence il y a bien longtemps qu'elle n'est plus là, et que les voleurs de contenus et les bourrins du link ont encore de beaux jours devant eux.
 
Olivier Duffez (admin)
Membre du personnel
il y a encore énormément de gens qui ne sont pas conscients des problèmes générés par les duplications entières de sites (je le vois en discutant avec pas mal de monde). Du côté des moteurs le pb est difficile à résoudre et ça ne m'étonne qu'à moitié de voir les résultats avec parfois des doublons

pour la notion de synonymes, ça fait en fait très longtemps que c'est une bonne idée, mais la plupart des gens pensent encore que la meilleure stratégie est de répéter leur mot-clé fétiche le plus possible (ou d'atteindre ce fameux indice de densité idéal)

Olivier

PS : Billy, pour tes prochaines posts, tu pourras nous épargner des "crétins", "connerie" et autres "connards" ? Merci d'avance au nom de tous les WRInautes.
 
WRInaute accro
rudddy a dit:
c'est un bon résumé.

au niveau du tracking, je ne suis toujours pas persuadé que GG utilise analytics pour cela : prendra t-il un tel risque ? à mon avis, la seule chose qui peut couler le géant GG sera un problème administratif ou judiciaire : se donnera t-il le baton pour se faire battre ?

pour la gg bar, pas convaincu qu'un panel assez représentatif l'utilise (en ayant permis l'envoi de données)...


sinon je suis ok avecc toi :-)

Pour Analytic, moi si. On peut très bien organisé un petit test pour voire. Quand au problème administratif et judiciaire ... :roll: Xiti utilise aussi les stats de nos sites pour ses communiqués. Ce sont des outils gratuits, et que recoivent ces sites en échanges: des liens en footer peut-être, voire un beau lien dans la page partenaire?
 
WRInaute discret
Merci pour vos retours.

ybet a dit:
Pour Analytic, moi si. On peut très bien organisé un petit test pour voire. Quand au problème administratif et judiciaire ... :roll: Xiti utilise aussi les stats de nos sites pour ses communiqués. Ce sont des outils gratuits, et que recoivent ces sites en échanges: des liens en footer peut-être, voire un beau lien dans la page partenaire?

Je suis preneur, mais comment mettre en place le test, ça me semble compliqué. De plus va falloir venir cliquer sur les liens pour voir si c'est pris en compte. Et même si ça positionne la page ciblée, on n'est pas certain que se soit du aux nombres de clics.

Cela dit je pense à tes test en tapant ces lignes. On pourrait organiser une clic partie sur l'une de tes page donc un lien n'est pas pris en compte actuellement et dont la page ciblée est grisée. Tu ne fais aucune autre modif et on voit si elle revient ?

Une nouvelle compétence à intégrer à la SEO >> cliqueur pro !
 
WRInaute occasionnel
je trouve ces évolutions tout a fait normal. C'est clair que des annuaires qui n'ont aucun contenus ne servent strictement à rien.
De plus, un internaute quand, il cherche des infos, il veut en général soit tombé sur un produit, soit du contenu NON
 
WRInaute impliqué
2) L’application d’un filtre sur les pages avec peu ou pas de contenu, qui ne comprennent que des liens.

Là encore, se sont les études d’Ybet qui sont les plus poussées à ma connaissance, mais elles sont confirmées en d’autres termes par d’autres conclusions sur beaucoup de blogs SEO.
Une page ne contenant que des liens aurait donc de moins en moins de poids pour GG, ce qui se comprend et se retrouve en point n°3 et expliquerait en partie les problèmes que rencontrent les annuaires.

Je l'ai effectivement + ou - ressenti récemment. Ce qui est dommage dans un certain sens. Imaginons un produit banal, des lecteurs DVD. Je recense sur ma page tous les lecteurs DVDs différents existants sur le marché, qui m'amène pour chaque lien vers la page produit. et pkoi ma page aurait moins d'importance parce qu'il n'y a quasi que des liens ? sur le coup c'est un peu bidon je trouve.
 
WRInaute discret
C'est sûr Kanon ça peut sembler bidon. Mais ce point comme tout en SEO ça fait partie d'un tout.
Certaines pages utiles ne peuvent contenir que des liens dans certains cas. Je pense que si ces liens sont utilisé et que les pages ciblées sont pertinentes par rapport à la thématique où à un tas d'autres critères, ça ne pose pas de problème.
Mais encore une fois GG c'est pas un humain, il ne fait que des calculs qui au passage virent certainement de très bonnes pages. On ne fait pas d'omelette sans casser des oeufs.

Pour moi leurs ingés sont conscient qu'à chaque mise à jour de l'algo, une partie de résultats pertinents vont sauter. Mais si le jeu en vaut la chandelle et qu'au final ils estiment que pour la majorité ça va passer dans le bon sens, ils appliquent. Le tout pour nous étant se trouver dans "cette majorité".
G= traitement en masse, pas de cas par cas donc ça génère forcément des pertes !
 
WRInaute accro
xibo a dit:
Merci pour vos retours.

ybet a dit:
Pour Analytic, moi si. On peut très bien organisé un petit test pour voire. Quand au problème administratif et judiciaire ... :roll: Xiti utilise aussi les stats de nos sites pour ses communiqués. Ce sont des outils gratuits, et que recoivent ces sites en échanges: des liens en footer peut-être, voire un beau lien dans la page partenaire?

Je suis preneur, mais comment mettre en place le test, ça me semble compliqué. De plus va falloir venir cliquer sur les liens pour voir si c'est pris en compte. Et même si ça positionne la page ciblée, on n'est pas certain que se soit du aux nombres de clics.

Cela dit je pense à tes test en tapant ces lignes. On pourrait organiser une clic partie sur l'une de tes page donc un lien n'est pas pris en compte actuellement et dont la page ciblée est grisée. Tu ne fais aucune autre modif et on voit si elle revient ?

Une nouvelle compétence à intégrer à la SEO >> cliqueur pro !

Je vais y réfléchir ... mais une page bloquée, ca doit pas être difficile à trouver.
A mon avis, l'intérêt serait même de mettre trois pages en parralèle, toutes avec analytic dessus.
1. Une page sans liens vers elle :wink: mais visitée (la petite barre verte au-dessus)
2. une page avec quelques liens méchament cachés mais des clics réguliers vers elle via ces liens
3. la troisième normale pour des visiteurs.
Je regarde ce soir comment organiser le bidule et quelles requêtes à intégrer dans ces pages, un trucs logigiques avec quelques centaines de résultats et sans perturber d'autres sites (j'aime pas les dégâts collatéraux sur les sites des amateurs).
 
WRInaute passionné
xibo a dit:
b- Ils doivent être cliqués et utilisés par les visiteurs. C’est pour moi la plus importantes des évolutions. Et la encore on s’y retrouve dans ce que vivent les annuaires ces derniers temps, mais également dans le discours sur les échanges de liens et les pages partenaires. On le sait, peut d’annuaires nous apportent du trafic. Leurs liens ne sont pas cliqués tout simplement. Les pages partenaires idem.

D’où les discours sur la création de contenu vraiment intéressant, avec des liens sans retour mais fait par obligation vers d’autres sites pertinents pour améliorer le score de sa propre page.
On entre en plein dedans, le « tout pouvoir au visiteur ».
Vos liens internes ou externes ne sont pas cliqués, pas utilisez ? donc pas pertinents, donc n’ont aucun poids.

GG n’en avait pas les moyens hier, mais les a bel et bien aujourd’hui. Il peut suivre parfaitement les chemins empruntés par les internautes, via ces toolbar, analytics et autres.

Les utilisateurs de la GG toolbar ne représentent pas un panel des interanutes (tout au plus un panel des webmasters et encore). Un panel (au sens statistiques du terme), suppose que chaque utilisateur soit qualifié, hors ce n'est pas le cas. Les informations obtenues avec la toolbar sont donc trés, mais alors trés peu représentatifs du comportement des internautes.

Je dirais exactement la même chose pour Analytics. D'ailleurs, qui utilise Analytics ? Je serais curieux d'avoir vos estimations par exemple pour le top 1000 français :mrgreen:

Tout cela est pour moi de la science-fiction tendence parano :wink:

Par contre, et je le dis depuis plus de 2 ans, Google dispose d'un bien meilleur moyen de mesurer l'interêt des internautes utilisant son moteur de recherche pour tel ou tel site, où plus exactement de vérifier la pertinance des résultats de recherche. Il lui suffit de comptabiliser les click sur ses pages de résultat et d'intégrer ce paramètre dans son algo de classement.

C'est le meilleur moyen à sa disposition pour mesurer la pertinance de ses résultats en ragard avec l'attente du visiteur. :wink:
 
WRInaute discret
ybet a dit:
Je vais y réfléchir ... mais une page bloquée, ca doit pas être difficile à trouver.
A mon avis, l'intérêt serait même de mettre trois pages en parralèle, toutes avec analytic dessus.
1. Une page sans liens vers elle :wink: mais visitée (la petite barre verte au-dessus)
2. une page avec quelques liens méchament cachés mais des clics réguliers vers elle via ces liens
3. la troisième normale pour des visiteurs.
Je regarde ce soir comment organiser le bidule et quelles requêtes à intégrer dans ces pages, un trucs logigiques avec quelques centaines de résultats et sans perturber d'autres sites (j'aime pas les dégâts collatéraux sur les sites des amateurs).

Héhé très bon tout ça, ça me semble complet comme test.
Après il faut recruter des cliqueurs avec et sans toolbar pour que les ip et les localisations soit variées.

@Fandecine
Ce ne sont en effet que des suppositions, et c'est vrai qu'elles semblent compliquées à mettre en place pour GG. D'une comme tu le dis par manque d'infos, de toolbar installées et de sites sous analytics et de deux par la puissance de calcul hyper consommateur que cela demande.

Mais c'est toujours bon de faire des tests pour avoir plus d'infos, mêmes si les résultats ne peuvent être garantis.

Je pense aussi que GG n'a pas besoin de tous les utilisateurs du web avec toolbar pour faire ressortir des tendances ou autre. Les retour de ce mouchard doivent lui en apprendre plus qu'on ne le pense.

Pour les clics dans les SERPS, pour moi la question ne se pose même plus. Ok à 100 % et ça semble être évident. D'où la prime de fraicheur qui permet lui permet également de tester la pertinence d'une nouvelle page.
 
WRInaute discret
Jusqu'ou ça va ou ça ira ? on peut se poser des questions.

Liens suivi, comportement sur la page ciblée, temps sur la page, suivi d’un nouveau lien… les possibilités sont énormes.
Avec cette méthode on éradique et fait le ménage sur les liens cachés, les liens mal placés et non pertinents, les envois vers des pages creuses…bref on règle pas mal des pb que gg doit avoir envie de régler.



quand je lis tes conclusions sur les liens de qualité et c'est pertinent

je vois un effet pervers a tout cela possible

on va certainnement voir apparaitre "des sites satellites" avec des articles qui pointent vers un site principal et le lien sera dans le corps du texte.
[/quote]
 
Olivier Duffez (admin)
Membre du personnel
Google ne fait du tracking sur les résultats que pour un échantillon d'internautes (j'ai pas dit un panel :-) ). C'est sans doute utilisé pour améliorer l'algo mais je doute que ce soit pour des ajustements sur les sites concernés par ces clics. En particulier, je ne vois pas ce que Google peut déduire d'un internaute qui clique sur un lien et ne revient pas sur la page de résultats : l'internaute a-t-il trouvé ce qu'il cherchait ? difficile à deviner.
 
A
Anonymous
Guest
JanoLapin a dit:
+1

mickyserv a dit:
Et le mot d'ordre comme plusieurs le disent ici :
CONTENU ! CONTENU ! CONTENU !!!
il faut arrêter de scander "contenu, contenu" comme un leitmotiv: c'est valable (et très valable) dans certains cas et pour certains types de requetes, mais de très nombreux sites corporate n'ont par exemple pas vocation à publier du contenu en masse... Idem pour certains sites d'information thématique (plutôt que site de publication de news..).

"Contenu...!"... qu'est-ce que cela veut dire du nouveau contenu? --> OK... mais? du contenu additionnel, ou du renouvellement? S'il s'agît de renouvellement, quid du référencement de l'existant, dans ces cas là?

Je ne peux pas croire qu'il y ait un seul chemin... valable pour tout le monde !

Ben si, le seul chemin c'est le contenu, c'est criant et évident. Le référencement artificiel de ces dernières années (construction d'une popularité mécanique basé sur une analyse nombre de BL /Qualité du BL) est révolu ou en passe d'être un axe bien moins prioritaire dans les SERP.

Un site corporate DOIT produire du contenu.
Un site corporate n'a de toute façon qu'à se positionner sur sa marque, les stratégies de référencement corporate sont inspirées de la stratégie de branding (promotion de la marque). Le reste c'est de la poésie.

Ce qui intéresse les clients, c'est la fonction de prospection de leur site et leur taux de transformation quand ils vendent sur ce site.

Pour le reste ma foi, ils écoutent poliment l'expert SEO déblatérer sur le backlink le web 2 mes deux et tout ça, mais ils s'en tapent.
Créer du contenu ça leur parle et ils voient les résultats de façon plus tangible.
Je ne vais dire à un client sérieux (200 salariés par ex.) que je vais l'inscrire dans 10 annuaires de qualité.
Je l'inscrirai dans 5. Maxi. Et encore.

Le webmaster qui réussit lui, ben il crée du Contenu par contre. Pour drainer du trafic vers son service.

Le webmaster annuaire quant à lui (je distingue les deux), a une vie moins rigolote en ce moment je pense.


Donc en 2009 YALLA !! CONTENU CONTENU CONTENU !!
DU SENS ! DU SENS ! DU SENS !
Duplicate sucks, definitely.
 
WRInaute passionné
WebRankInfo a dit:
Google ne fait du tracking sur les résultats que pour un échantillon d'internautes (j'ai pas dit un panel :-) ). C'est sans doute utilisé pour améliorer l'algo mais je doute que ce soit pour des ajustements sur les sites concernés par ces clics. En particulier, je ne vois pas ce que Google peut déduire d'un internaute qui clique sur un lien et ne revient pas sur la page de résultats : l'internaute a-t-il trouvé ce qu'il cherchait ? difficile à deviner.

Je suis d'accord, perso j'ouvre souvent plusieurs onglets dans un résultat de recherche et je vais les voir en détail au bout d'un moment, comment google interprète-t-il le rebond dans ce cas ?
 
Nouveau WRInaute
WebRankInfo a dit:
Google ne fait du tracking sur les résultats que pour un échantillon d'internautes (j'ai pas dit un panel :-) ). C'est sans doute utilisé pour améliorer l'algo mais je doute que ce soit pour des ajustements sur les sites concernés par ces clics. En particulier, je ne vois pas ce que Google peut déduire d'un internaute qui clique sur un lien et ne revient pas sur la page de résultats : l'internaute a-t-il trouvé ce qu'il cherchait ? difficile à deviner.
Pourtant Google indique qu'il utilise le CTR sur les SERPs dans le classement :roll:
 
WRInaute accro
D'abord merci pour cette idée de récapituler les changements nombreux (une reco.)

JanoLapin a dit:
+1
mickyserv a dit:
Et le mot d'ordre comme plusieurs le disent ici :
CONTENU ! CONTENU ! CONTENU !!!
il faut arrêter de scander "contenu, contenu" comme un leitmotiv: c'est valable (et très valable) dans certains cas et pour certains types de requetes, mais de très nombreux sites corporate n'ont par exemple pas vocation à publier du contenu en masse... Idem pour certains sites d'information thématique (plutôt que site de publication de news..).

"Contenu...!"... qu'est-ce que cela veut dire du nouveau contenu? --> OK... mais? du contenu additionnel, ou du renouvellement? S'il s'agît de renouvellement, quid du référencement de l'existant, dans ces cas là?

Je ne peux pas croire qu'il y ait un seul chemin... valable pour tout le monde !

Justement au niveau du contenu, ce n'est pas tant l'ajout de nouveau contenu dans un site, que le fait que les pages du site aient du contenu.

et cqfd :
trop de liens et peu de contenu (ex. annuaires) --> sanction
pas de contenu ou dupliqué --> sanction

Il faut donc rajouter aux modifications de l'année :
stérilisation du pagerank des pages (link juice)
;)
 
WRInaute accro
dadovb a dit:
WebRankInfo a dit:
Google ne fait du tracking sur les résultats que pour un échantillon d'internautes (j'ai pas dit un panel :-) ). C'est sans doute utilisé pour améliorer l'algo mais je doute que ce soit pour des ajustements sur les sites concernés par ces clics. En particulier, je ne vois pas ce que Google peut déduire d'un internaute qui clique sur un lien et ne revient pas sur la page de résultats : l'internaute a-t-il trouvé ce qu'il cherchait ? difficile à deviner.

Je suis d'accord, perso j'ouvre souvent plusieurs onglets dans un résultat de recherche et je vais les voir en détail au bout d'un moment, comment google interprète-t-il le rebond dans ce cas ?
@dadovb -> tu ne représente vraiment pas le visiteur lambda car son attitude est bien loin de tes pratiques.

@WebRankInfo->"un internaute qui clique sur un lien et ne revient pas sur la page de résultats" de celui la, on peut supposer pleins de choses mais de celui qui reviens de suite cliquer sur le lien suivant on peut déduire qu'il n'a pas trouvé ce qu'il cherche et ça c'est important.

fandecine a dit:
Par contre, et je le dis depuis plus de 2 ans, Google dispose d'un bien meilleur moyen de mesurer l'interêt des internautes utilisant son moteur de recherche pour tel ou tel site, où plus exactement de vérifier la pertinance des résultats de recherche. Il lui suffit de comptabiliser les click sur ses pages de résultat et d'intégrer ce paramètre dans son algo de classement.:
très vrai a mon avis en sachant ce que cherche le visiteur, en ayant une méthode de classement qui lui est propre et en pondérant les résultats par le système liens suivant donc pas pertinent, google a tout ce qu'il lui faut pour affiner son classement et ceci sur un échantillon vraiment significatif d'utilisateurs.
 
WRInaute accro
zeb a dit:
@WebRankInfo->"un internaute qui clique sur un lien et ne revient pas sur la page de résultats" de celui la, on peut supposer pleins de choses mais de celui qui reviens de suite cliquer sur le lien suivant on peut déduire qu'il n'a pas trouvé ce qu'il cherche et ça c'est important.

Exactement ;)
 
Olivier Duffez (admin)
Membre du personnel
Obeliks a dit:
WebRankInfo a dit:
Google ne fait du tracking sur les résultats que pour un échantillon d'internautes (j'ai pas dit un panel :-) ). C'est sans doute utilisé pour améliorer l'algo mais je doute que ce soit pour des ajustements sur les sites concernés par ces clics. En particulier, je ne vois pas ce que Google peut déduire d'un internaute qui clique sur un lien et ne revient pas sur la page de résultats : l'internaute a-t-il trouvé ce qu'il cherchait ? difficile à deviner.
Pourtant Google indique qu'il utilise le CTR sur les SERPs dans le classement :roll:
tu peux me redonner l'URL STP ?
 
WRInaute impliqué
Duplicate Content; vous êtes sûr que ce soit pénalisant ?
Comment se fait il alors que des sites comme Wikio ou http://fr.wasalive.com pour ne citer que cela brassent autant de trafic alors qu'il n'y a quasi aucun boulot derrière ... ???
 
WRInaute discret
rudddy a dit:
c'est un bon résumé.

au niveau du tracking, je ne suis toujours pas persuadé que GG utilise analytics pour cela : prendra t-il un tel risque ?

Moi aussi surtout ça pénaliserais un site qui refuse les outilles googles, et la on peux parler d'abus de position dominante et limite bien pire que ce qu'as pue fair MS dans sont histoire.
 
Discussions similaires
Haut