Les posteurs les plus actifs de la semaine
Aucun utilisateur |
Sujets les plus vus
lecture odds ratio
4 participants
Page 1 sur 1
lecture odds ratio
Bonjour,
J'ai réalisé une regression multiple: la variable réponse est "abandon" (c'est-à-dire les sujets qui abandonnent la thérapie en cours) et les variables explicatives sont "ralentissement dépressif" (bdi.ralen1) et le "niveau d'études" (niv.scol2).
Pourriez-vous m'aider à lire ce tableau et à l'interprèter SVP?
odds ratio Lower 95%CI Upper 95%CI p.value
(Intercept) 0.00524 0.000312 0.088 0.000263
bdi.ralen1 1.68000 1.170000 2.420 0.004670
niv.scol2[T.SEC] 20.30000 2.230000 185.000 0.007600
vif(GLM.17)
bdi.ralen1 niv.scol2
1.050357 1.050357
Call:
glm(formula = Aband ~ bdi.ralen1 + niv.scol2, family = binomial(logit),
data = Dataset)
Deviance Residuals:
Min 1Q Median 3Q Max
-1.5698 -0.9066 -0.2875 0.9284 2.3292
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -5.2508 1.4389 -3.649 0.000263 ***
bdi.ralen1 0.5214 0.1843 2.829 0.004670 **
niv.scol2[T.SEC] 3.0098 1.1275 2.669 0.007599 **
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 96.804 on 74 degrees of freedom
Residual deviance: 75.183 on 72 degrees of freedom
(2 observations deleted due to missingness)
AIC: 81.183
Number of Fisher Scoring iterations: 5
Merci par avance!!!
Marion
J'ai réalisé une regression multiple: la variable réponse est "abandon" (c'est-à-dire les sujets qui abandonnent la thérapie en cours) et les variables explicatives sont "ralentissement dépressif" (bdi.ralen1) et le "niveau d'études" (niv.scol2).
Pourriez-vous m'aider à lire ce tableau et à l'interprèter SVP?
odds ratio Lower 95%CI Upper 95%CI p.value
(Intercept) 0.00524 0.000312 0.088 0.000263
bdi.ralen1 1.68000 1.170000 2.420 0.004670
niv.scol2[T.SEC] 20.30000 2.230000 185.000 0.007600
vif(GLM.17)
bdi.ralen1 niv.scol2
1.050357 1.050357
Call:
glm(formula = Aband ~ bdi.ralen1 + niv.scol2, family = binomial(logit),
data = Dataset)
Deviance Residuals:
Min 1Q Median 3Q Max
-1.5698 -0.9066 -0.2875 0.9284 2.3292
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -5.2508 1.4389 -3.649 0.000263 ***
bdi.ralen1 0.5214 0.1843 2.829 0.004670 **
niv.scol2[T.SEC] 3.0098 1.1275 2.669 0.007599 **
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
(Dispersion parameter for binomial family taken to be 1)
Null deviance: 96.804 on 74 degrees of freedom
Residual deviance: 75.183 on 72 degrees of freedom
(2 observations deleted due to missingness)
AIC: 81.183
Number of Fisher Scoring iterations: 5
Merci par avance!!!
Marion
marion far- Nombre de messages : 13
Date d'inscription : 26/12/2013
Re: lecture odds ratio
Vu la tête de ton tableau sur les OR il semblerait que tes variables explicatives soient continues? Si c'est le cas la lecture des OR n'a pas vraiment de sens, ils supposent que tu as une pente constante en tout point ce qui reste à vérifier avec l'hypothèse de log-linéarité elle-même compliquée à vérifier. L'idéal serait que tu catégorises tes variables continues en les découpant (par exemple selon un modèle boxplot si tu as assez de données), à ce moment là tes OR auront tout leur sens.
Re: lecture odds ratio
Merci pour ta réponse.
Le niveau scolaire est deja catégorisé par contre le ralentissement ne l'est pas et je souhaitais garder ces résultats avec leur nuance (scores à l'échelle de dépression). Ce n'est pas possible de déduire avec ce test stat si ces variables expliquent bien l'abandon de la thérapie (variable également categorisée)?
Le niveau scolaire est deja catégorisé par contre le ralentissement ne l'est pas et je souhaitais garder ces résultats avec leur nuance (scores à l'échelle de dépression). Ce n'est pas possible de déduire avec ce test stat si ces variables expliquent bien l'abandon de la thérapie (variable également categorisée)?
marion far- Nombre de messages : 13
Date d'inscription : 26/12/2013
Re: lecture odds ratio
Hé bien le plus concret et simple reste encore d'afficher la matrice de confusion pour comparer prédictions et valeurs réelles et ainsi avoir sous les yeux les différents taux de classification correcte aux classes respectives.
Les critères comme le AIC, le BIC ou encore la log vraisemblance servent surtout à comparer ton modèle à un autre pour choisir lequel des deux est le meilleur.
Pour ce qui est des tests de type III de Wald ils rejettent tous l'hypothèse nulle donc on en déduit que les coefficients associés à tes deux variables sont bien non nul au sens statistique du terme, ce qui implique directement que toutes deux ont bien une influence significative dans le modèle.
Concernant les OR, pour la variable qualitative niv.scol2, il faut lire qu'un individu de la classe qui n'est pas de référence (ce qui dépend donc de ton codage) à 20 fois plus de chance qu'une de la classe de référence d'être dans le groupe qui n'est pas de référence (là aussi c'est flou je sais mais je ne connais pas ton code) de la variable réponse "abandon". Pour l'autre variable, en supposant une pente constante, si on fait un pas de 1 (respectif à ton échelle) alors on a 1.6 fois plus de chance d'être dans le groupe qui n'est pas de référence de la variable réponse "abandon".
Bon, tous ces résultats se vérifient après de ton coté, mais c'est l'idée en gros.
Les critères comme le AIC, le BIC ou encore la log vraisemblance servent surtout à comparer ton modèle à un autre pour choisir lequel des deux est le meilleur.
Pour ce qui est des tests de type III de Wald ils rejettent tous l'hypothèse nulle donc on en déduit que les coefficients associés à tes deux variables sont bien non nul au sens statistique du terme, ce qui implique directement que toutes deux ont bien une influence significative dans le modèle.
Concernant les OR, pour la variable qualitative niv.scol2, il faut lire qu'un individu de la classe qui n'est pas de référence (ce qui dépend donc de ton codage) à 20 fois plus de chance qu'une de la classe de référence d'être dans le groupe qui n'est pas de référence (là aussi c'est flou je sais mais je ne connais pas ton code) de la variable réponse "abandon". Pour l'autre variable, en supposant une pente constante, si on fait un pas de 1 (respectif à ton échelle) alors on a 1.6 fois plus de chance d'être dans le groupe qui n'est pas de référence de la variable réponse "abandon".
Bon, tous ces résultats se vérifient après de ton coté, mais c'est l'idée en gros.
Re: lecture odds ratio
ok je comprends mieux merci pour ton aide!
marion far- Nombre de messages : 13
Date d'inscription : 26/12/2013
Re: lecture odds ratio
Bonjour,
Cdlt.
Je ne partage pas cet avis. Une augmentation d'une unité entraine exp(coefficient) fois plus de chance de succès. Voila à quoi correspond l'odds ratio d'une variable quantitative.variables explicatives soient continues? Si c'est le cas la lecture des OR n'a pas vraiment de sens
Cdlt.
droopy- Nombre de messages : 1156
Date d'inscription : 04/09/2009
Re: lecture odds ratio
Ce qui est vrai exclusivement si la pente est régulière (hypothèse de log-linéarité), ce qui est rarement le cas est surtout difficile à vérifier (test d'adéquation à une loi uniforme?), ceci dit si je me plante je te remercie d'avance de corriger mes propos.
Sinon je suis entièrement d'accords avec toi, d'ailleurs (même si tu le dis bien mieux que moi):
Sinon je suis entièrement d'accords avec toi, d'ailleurs (même si tu le dis bien mieux que moi):
Une augmentation d'une unité entraine exp(coefficient) fois plus de chance de succès = en supposant une pente constante, si on fait un pas de 1 (respectif à ton échelle) alors on a 1.6 fois plus de chance d'être dans le groupe qui n'est pas de référence
Re: lecture odds ratio
C'est vrai si la relation est linéaire sur le lien, ce qui est l'hypothèse de base des modèles linéaires généralisées. C'est tout aussi vrai quand tu fais une relation linéaire. Si tu as Y =2*x +1, tu supposes que Y varie linéairement avec x.
Cdlt
Cdlt
droopy- Nombre de messages : 1156
Date d'inscription : 04/09/2009
Re: lecture odds ratio
d'accord avec Droopy, d'autant plus que si ça n'est pas vrai pour un modèle logit, alors ça n'est pas vrai pour aucun modèle initialement non linéaire (poisson lien log par exemple). ça serait un petit peu problématique...
Mais il est vrai que l'hypothèse de linéarité par la fonction de lien est une hypothèse assez forte.
Nik
Mais il est vrai que l'hypothèse de linéarité par la fonction de lien est une hypothèse assez forte.
Nik
Nik- Nombre de messages : 1606
Date d'inscription : 23/05/2008
Page 1 sur 1
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum