Les posteurs les plus actifs de la semaine
Eric Wajnberg
 
droopy
 
Pierre-Louis
 
CC_05_2018
 
c@ssoulet
 
DIA
 
laura138
 
Pascalou
 
DocRe
 
oulachzhar
 


Mesure d’accord entre 3 "juges"

Aller en bas

Mesure d’accord entre 3 "juges"

Message par AdrienC le Mer 2 Mai 2018 - 8:53

Bonjour, j'ai un tableau de données qualitatifs où j'ai classifié mes individus selon 3 méthodes de classifications différentes (j'ai donc une table de contingence tri-dimensionnelle). Afin de voir si ces classifications ont classifié de la même façon. J'ai utilisé une "mesure d'accord entre les juges", ou plus simplement le Kappa de Cohen.

Cependant cette mesure ne permet de voir l'accord entre (et uniquement) 2 classifications. Lorsque l'on passe à 3 je ne peux plus l'utiliser.

Est-ce que vous connaissez une mesure qui s'adapterait à ce cas ? C'est le célèbre exemple qu'on donne en cours où 3 juges ont noté les mêmes 5 vins et l'on veut savoir s'ils ont noté de la même façon ou non.


Merci Smile


Ps : J'ai vu qu'il existait le Kappa de Fleiss, mais on m'a dit que cette mesure n'était pas vraiment reconnue par la communauté car si ce Kappa est proche de 1, ça ne veut pas pour autant dire que les 3 juges sont d'accord ... Sad
avatar
AdrienC

Nombre de messages : 31
Date d'inscription : 15/03/2018

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Mesure d’accord entre 3 "juges"

Message par cmoi le Jeu 3 Mai 2018 - 6:54

Bonjour,

A creuser, mais peut-être que l'ICC (intra-class correlation coefficient) pourrait faire le job.
https://en.wikipedia.org/wiki/Intraclass_correlation

HTH,
Bastien

cmoi

Nombre de messages : 19
Date d'inscription : 08/03/2012

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Revenir en haut


 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum