http://eval.google.com/

WRInaute passionné
C'est bizarre ça, à première vu, on dirai une sorte de "My Yahoo!", je savais même pas que ce service existait, quelqu'un peut confirmer ?
 
Olivier Duffez (admin)
Membre du personnel
j'ai essayé de me connecter mais voilà ce que j'obtiens :
You are not authorized to view this page.
:-(
ceci dit, le compte Google existe depuis très longtemps, notamment pour participer à Google Groups
 
WRInaute occasionnel
moi il met aussi la meme chose.
Faut juste trouvé la clé et l'autorisation !

dans la série des non-autorisation, j'ai aussi trouvé dans le cache de Google une page
movies.google.com ! Bizarre Non ?
 
WRInaute discret
Apparement ce serait le "laboratoire secret de Google", le site qui permet aux évaluateurs d'identifier les spam et de noter la qualité des résultats de recherche.

Voir cet article... (via SlashDot)

Ben
 
WRInaute impliqué
Ce système est l'essence même du TrustRank et qu'il y a 99.9% de chances que ce système ait été mis en place pour lancer cet algorithme prochainement.
A ce titre je vous conseille cette documentation : http://www.vldb.org/conf/2004/RS15P3.PDF

Pour les non anglophones je suis actuellement en train de rédiger un article que vous retrouverez prochainement sur [lien supprimé par cendrillon]
 
Olivier Duffez (admin)
Membre du personnel
juste pour info eval.google.com semblait déjà exister il y a 1 an...

par ailleurs TrustRank se base sur une liste de bons sites, tandis que le système décrit ici semble majoritairement se baser sur des séries de jugements de la qualité des 10 premiers résultats.

Donc j'ai un peu de mal à y voir ce fameux TrustRank, peux-tu t'expliquer ?
 
WRInaute impliqué
C'est très simple, le trustrank [lien supprimé par cendrillon] va, à partir d'une base de connaissance humaine, attribuer de manière intelligente une note de confiance à l'ensemble des sites de la toile. La répartition de cette note se fera de par la structure de liens que possède le site (pour plus de détails consultez les schémas inclus dans le PDF ci-dessus).

Pour que ce système fonctionne, il leur faudra élaborer une base de connaissance suffisamment conséquente pour que le taux d'erreur soit minime.

Ce qui est expliqué dans ton article rentre donc complètement dans le cadre de la mise en place d'un tel système, car cette dernière leur permettra de déterminer de nombreux sites douteux et non douteux.

Décidement ils sont très forts chez Google ...

Ceci peut parfois vous amener à qualifier une page de spam ("offensive") alors que d'autres pages du même site peuvent être notées positivement. Par exemple si sur un site de comparaison de prix vous trouvez des pages n'ayant que des liens affiliés et aucun autre contenu (pas d'analyse du produit, pas de comparaison de prix, rien du tout), alors cette page doit être notée comme offensive, même si d'autres pages du même site contiennent un contenu réel (information, aide, etc.).

Exemple 1 : Exemple typique de page d'hôtel "spam" : -http://i-hotels.iagora.com/hotels-in-Cambridge.htm La page d'accueil -http://www.iagora.com de ce site peut pourtant offrir des informations intéressantes sur le tourisme.

Exemple 2 : page d'entrée avec de nombreux textes cachés : -http://www.anthonycalleja.com Cette page est du spam (sélectionnez tout avec CTRL+A) La présence de liens cachés semble mener systématiquement le "reviewer" à cataloguer la page comme spam.
 
WRInaute passionné
Pour le rapport avec le Trust Rank, c'est me semble-t-il qu'il y a évaluation humaine des pages, avec des critères et des recommandations pour ce faire (cf. articles searchbistro et PRWeaver).
Or, disposer d'évaluations sur une quinzaine de pages "top 10" potentielles par requete est non seulement un moyen de voir la qualité des réponses, mais aussi d'avoir une base pour le PR.

Ceci dit, reste à savoir si les évaluateurs regardent juste les pages de résultats ou les pages retournées. Il semble que c'est le 2e cas (c'est logique, il peut y avoir du "bon spam" sur une page de résultats, qui se se voit pas juste avec le snippet mais en visitant)
 
WRInaute impliqué
Olivier (WRI) a raison, s'il s'agissait d'utiliser ces données pour construire le "seed set" du Trustrank, cela fonctionnerait différemment.

Il s'agit probablement d'un système d'évaluation de type "relevance feedback" (retour de pertinence) plus général, dont la vocation est d'évaluer la qualité des résultats obtenu avec des réglages différents des filtres, ou des versions différentes des algos.

Par contre, j'ai tendance à penser que le trustrank est déjà utilisé sous une forme ou sous une autre, car l'article a un an déjà, et correspond aussi à des idées développées par Monika Henzinger depuis deux ou trois ans...

Voire plus longtemps, j'ai retrouvé trace d'un article de Monika datant de 1999 dont le contenu rappelle étrangement celui du Trustrank : même idée, même approche.
 
WRInaute passionné
La question est trés simple, comment empêcher la magouille (pot de vin) en sachant qu'un site gagne des fois 100 plus de l'heure (voir plus), que les pauvres petits employés de Google ?

aie, c'est vrai que rien n'est plus corruptible qu'un humain !
 
WRInaute occasionnel
e-atlantide a dit:
A priori, ce site n'est plus accessible (erreur DNS.)

il nous prennent pour des cons chez Google.
http://eval.google.com devient http://eval2.google.com

Recherche dans Google
https://www.google.fr/search?hl=fr&lr=&c ... gle.com%22

Sur le rapport statistique de ces sites, on découvre eval2.google.com :
http://www.hotel-online.com/Logs/ref_200310.html
http://66.102.9.104/search?q=cache:heNH ... m%22&hl=fr
http://www.applelinks.com/sitestats/ref_200310.html
http://gostats.com/gogi/rr.pl?mn=Dancinglush&all=2

Qui nous conduit à une erreur d'un serveur de GG (erreur 500, ???, ça plante chez Google ???)
http://eval2.google.com/happier/quest/altcache
http://eval2.google.com/happier/quest/a ... cache.html

Et le mail pour en savoir plus sur Eval
eval-support@google.com ! => j'ai pas eu de réponse, mais le mail existe bien !)
 
Olivier Duffez (admin)
Membre du personnel
j'ai lu que l'accès au site eval.google.com est réservé à certains. Peut-être qu'ils se basent sur l'IP, et pour ceux qui n'ont pas l'accès : erreur 500 ? Je sais c'est pas trop classiques...

sinon effectivement octobre 2003 ça remonte loin. Ca confirme mon idée que le rapport avec TrustRank, s'il existe, est très faible.
 
WRInaute occasionnel
Oui, d'après moi, il y a eu deux vagues eval google :

- 1 en octobre-novembre 2003 (voir post précédents)

- 1 en mars-avril-mai et aout 2004
http://216.239.59.104/search?q=cache:DW ... -web&hl=fr
http://margaretsoltan.phenominet.com/us ... 00408.html
http://216.239.59.104/search?q=cache:1D ... -web&hl=fr
http://216.239.59.104/search?q=cache:R- ... -web&hl=fr
http://216.239.59.104/search?q=cache:Lz ... -web&hl=fr

ce qui m'étonne :
- comben d'évluateurs vu le nombre de langues sur les différents sites ?
- pourquoi en parler maintenant alors qu'aucun rapport de stats ne fait état d'éval google en 2005 ?
 
Olivier Duffez (admin)
Membre du personnel
on en parle parce qu'un allemand s'est mis à raconter beaucoup de choses assez précises, captures d'écran à l'appui.

mais je partage tes interrogations...
 
WRInaute occasionnel
la seule chose qui est sûre, c'est qu'avec les rapports statistiques et les refferers, google eval existe, qu'étant donné son faible nombre de visites, c'est un humain et pas un robot.

cela fait bien longtemps que Google utilisait eval google.
donc, on peut considérer les bugs actuels de Google (PR...) comme la mise au point de ce nouveau rank sur l'ensemble de l'index de Google.
les révélations ne donc que office de marketing car Google est content de nous annoncer ce nouveau système !
 
WRInaute occasionnel
google changerais son algo automatique par une reevaluation humaine?
mais quid des pages 2, 3 et autres si ils n'est question que d'evaluer la premiere pages? parfois aucun liens n'est bon ou d'interet reel sur la premiere pages, et c'est en 2 voir 3eme page qu'on trouve ce qu'on cherche ...
 
WRInaute occasionnel
zehunter a dit:
google changerais son algo automatique par une reevaluation humaine? ...

non, mais Google aurait fini de mettre un point un algo humain permettant d'éliminer les parasites et sites publicitaires.

Si 100 employés travaillent dans le projet eval pendant 1 an, ce sont des millions et des millions de sites qui sont réévalués !

Et si on associe le programme eval à la commande \****, on observe que les résultats avec le filtres ne contiennent plus de parasites.

La commande \***** serait-elle liée à Google Eval ?

Exemple pour la requête "hotel" :
Avec \*****
Sans \*****

Les sites commes hotel-france.com; hotels.com; all-hotel.com ont disparus !!!!
 
WRInaute occasionnel
d_vid a dit:
zehunter a dit:
google changerais son algo automatique par une reevaluation humaine? ...

non, mais Google aurait fini de mettre un point un algo humain permettant d'éliminer les parasites et sites publicitaires.

Si 100 employés travaillent dans le projet eval pendant 1 an, ce sont des millions et des millions de sites qui sont réévalués !

Et si on associe le programme eval à la commande \****, on observe que les résultats avec le filtres ne contiennent plus de parasites.

La commande \***** serait-elle liée à Google Eval ?

Exemple pour la requête "hotel" :
Avec \*****
Sans \*****

Les sites commes hotel-france.com; hotels.com; all-hotel.com ont disparus !!!!

C'est possible d'avoir plus d'infos sur la commande \***** stp ?
 
WRInaute accro
Vous délirez un peu quand vous parlez "d'algorithme humain", faut imaginer la quantité de sites et de pages à évaluer qui changent en permance... les éditeurs dmoz en savent quelquechose et dmoz n'est qu'une infime partie du web.

Moi je crois plutot que c'est juste des moyens humains pour controler les algos et la qualité des résultats de manière à faire évoluer des filtres par ex.... mais pas une "évaluation" des sites comme j'ai l'impression que certains le croient.

:wink:
 
WRInaute passionné
C'est possible d'avoir plus d'infos sur la commande \***** stp ?
https://www.webrankinfo.com/forum/t/la-fameuse-commande-logiciel-pour-tests.28464/

Vous délirez un peu quand vous parlez "d'algorithme humain", faut imaginer la quantité de sites et de pages à évaluer qui changent en permance...

Algorithme humain non, mais correction apporté par des humains aux résultats d'un algorithme informatique peut-être !

Moi je crois plutot que c'est juste des moyens humains pour controler les algos et la qualité des résultats de manière à faire évoluer des filtres

D'accord avec toi.
 
WRInaute passionné
Que google utilise des moyens lui permetant de combattre le spam est très bien en soit.

Ceci dit, il serait je pense très instructif et constructif pour tout le monde (webmasters et internautes lambda) que le coefficient de spam soit rendu public lors de résultat de recherche.

Un peu comme si le site était noté (puisque c'est un peu ça dans le fond).
que l'on etablisse une note de 0 à 1 ou de 0 à 10 c'est idem.

Bien sur, tout le web dans son intégralité ne pourra pas être noté vue le nombre de page existant, mais cela permettrait de rectifier le tir pour un site qui a été "contrôlé" négativement. Au final, cela pourrait assainir petit à petit le web.

Par contre, il peut y avoir un effet pervers, si le positionnement des sites varie en fonction du contenu et de la pertinence bien sur mais aussi de cette note. Car rappelons qu'un avis humain, peut varier suivant les individus ! et ce malgré des critères de notation drastiques.

Pour résumer : Evaluer oui, mais le mentionner clairement !
 
Discussions similaires
Haut