Les posteurs les plus actifs de la semaine
Aucun utilisateur |
Sujets les plus vus
Boostrap 0.632
2 participants
Page 1 sur 1
Boostrap 0.632
Bonjour,
j'ai quelques difficulté pour comprendre le but de l'estimateur 0.632 bootstrap. Comme certains ici sont des as en bootstrap je me suis dit que j'aurai surement des réponses!
Je bloque donc sur certains points.
Par exemple, ont peut lire des choses comme (concernant le biais sur l'estimateur leave-one-out bootstrap)
"The bias is due to non-distinct observations in the bootstrap samples that result from sampling with replacement. The average number of distinct observations in each sample is about 0.632N"
0.632 vient du fait qu'il y ait une probabilité de 1/e de ne pas être tiré dans N échantillons différents (tirage avec remise) d'un panel de N individus.
C'est là où je ne comprends plus car ce biais est également présent dans un bootstrap "normal"?? Mais il disparaît peut-être quand on prend beaucoup plus que N échantillons? Ce qui signifie que pour un bootstrap classique il faut prendre beaucoup beaucoup plus d'échantillon que de nombre d'individus à disposition. Y'a-t-il une règle pour ça? Et pourquoi ne pas l'appliquer à cet estimateur leave-one-out bootstrap?
Ensuite, si j'ai bien compris l'estimateur 0.632 est une somme pondérée de l'erreur d'apprentissage et de l'erreur de l'estimateur leave-one-out bootstrap. J'ai du mal à voir comment on en arrive là, quel est la logique derrière ça.
Merci pour votre aide!
Niaboc
j'ai quelques difficulté pour comprendre le but de l'estimateur 0.632 bootstrap. Comme certains ici sont des as en bootstrap je me suis dit que j'aurai surement des réponses!
Je bloque donc sur certains points.
Par exemple, ont peut lire des choses comme (concernant le biais sur l'estimateur leave-one-out bootstrap)
"The bias is due to non-distinct observations in the bootstrap samples that result from sampling with replacement. The average number of distinct observations in each sample is about 0.632N"
0.632 vient du fait qu'il y ait une probabilité de 1/e de ne pas être tiré dans N échantillons différents (tirage avec remise) d'un panel de N individus.
C'est là où je ne comprends plus car ce biais est également présent dans un bootstrap "normal"?? Mais il disparaît peut-être quand on prend beaucoup plus que N échantillons? Ce qui signifie que pour un bootstrap classique il faut prendre beaucoup beaucoup plus d'échantillon que de nombre d'individus à disposition. Y'a-t-il une règle pour ça? Et pourquoi ne pas l'appliquer à cet estimateur leave-one-out bootstrap?
Ensuite, si j'ai bien compris l'estimateur 0.632 est une somme pondérée de l'erreur d'apprentissage et de l'erreur de l'estimateur leave-one-out bootstrap. J'ai du mal à voir comment on en arrive là, quel est la logique derrière ça.
Merci pour votre aide!
Niaboc
niaboc- Nombre de messages : 1001
Age : 37
Localisation : Paris
Date d'inscription : 05/05/2008
Re: Boostrap 0.632
Bonjour,
j'ai trouvé ce topic assez intéressant :
https://stats.stackexchange.com/questions/96739/what-is-the-632-rule-in-bootstrapping
cdlt
j'ai trouvé ce topic assez intéressant :
https://stats.stackexchange.com/questions/96739/what-is-the-632-rule-in-bootstrapping
cdlt
droopy- Nombre de messages : 1156
Date d'inscription : 04/09/2009
Re: Boostrap 0.632
Salut,
oui c'est sur cette page que j'ai trouvé la pupart des infos les plus intéressantes sur la méthode... mais qui m'ont justement emmené à mes questions :-).
Niaboc
oui c'est sur cette page que j'ai trouvé la pupart des infos les plus intéressantes sur la méthode... mais qui m'ont justement emmené à mes questions :-).
Niaboc
niaboc- Nombre de messages : 1001
Age : 37
Localisation : Paris
Date d'inscription : 05/05/2008
Page 1 sur 1
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum
|
|