Les posteurs les plus actifs de la semaine
Aucun utilisateur |
Sujets les plus vus
Colinéarité de facteur en régression multiple
2 participants
Page 1 sur 1
Colinéarité de facteur en régression multiple
Bonjour, j'avais une question.
Beaucoup de sujets traitent de l'effet de la corrélation de variables explicatives pouvant être négatif si il est trop élevée et on parle de multicolinéarité.
En effet ceci peut gonfler les p.value ou en tout cas rendre les coefficients de pentes des regresseurs peu stable.
Ma question est la suivante:
Je vous explique le contexte:
Je fais une régression linéaire multiple avec 1 variable expliquée quantitative et 2 variables explicatives quantitatives corrélées à 0.57. Donc sur r : lm(y~X1+X2).
Quelqu'un saurait m'expliquer pourquoi lorsque je permute l'ordre d'entrée des variables comme ceci:
lm(y~X1+X2)
lm(y~X2+X1)
les coefficients estimés sont identiques et ne bougent pas alors qu'on s'attendrait à ce qu'ils fluctuant à cause de la colinéarité des facteurs X1 et X2?
Merci beaucoup
Beaucoup de sujets traitent de l'effet de la corrélation de variables explicatives pouvant être négatif si il est trop élevée et on parle de multicolinéarité.
En effet ceci peut gonfler les p.value ou en tout cas rendre les coefficients de pentes des regresseurs peu stable.
Ma question est la suivante:
Je vous explique le contexte:
Je fais une régression linéaire multiple avec 1 variable expliquée quantitative et 2 variables explicatives quantitatives corrélées à 0.57. Donc sur r : lm(y~X1+X2).
Quelqu'un saurait m'expliquer pourquoi lorsque je permute l'ordre d'entrée des variables comme ceci:
lm(y~X1+X2)
lm(y~X2+X1)
les coefficients estimés sont identiques et ne bougent pas alors qu'on s'attendrait à ce qu'ils fluctuant à cause de la colinéarité des facteurs X1 et X2?
Merci beaucoup
Grendel26- Nombre de messages : 2
Date d'inscription : 02/03/2018
Re: Colinéarité de facteur en régression multiple
Parce que permuter les deux variables explicatives ne change pas leur colinéarité.
La réponse me semble tellement simple que j'ai peur de ne peut-être pas avoir saisi le sens réel de cette question..
HTH, Eric.
La réponse me semble tellement simple que j'ai peur de ne peut-être pas avoir saisi le sens réel de cette question..
HTH, Eric.
Eric Wajnberg- Nombre de messages : 1238
Date d'inscription : 14/09/2012
Re: Colinéarité de facteur en régression multiple
Merci pour ton aide
Enfaite, je pense que j'ai besoin d'une explication concernant la nature du summary lorsqu’on fait un lm sur R.
Car lorsqu’on fait une analyse de variance, on observe effectivement que lorsqu’il y a une colinéarité entre les variables explicatives, l'ordre d'entrée des variables dans l'analyse aov sur modèle de régression a son importance car les SCE sont calculés séquentiellement, ainsi la première variable entrée va capturer toute la variance et les autres moins.
Pour le coup, le summary du modèle de régression multiple renvois les estimations de coeficients de pente mais pourquoi n'y a t-il pas le même genre de problème que l'aov?
Merci
Enfaite, je pense que j'ai besoin d'une explication concernant la nature du summary lorsqu’on fait un lm sur R.
Car lorsqu’on fait une analyse de variance, on observe effectivement que lorsqu’il y a une colinéarité entre les variables explicatives, l'ordre d'entrée des variables dans l'analyse aov sur modèle de régression a son importance car les SCE sont calculés séquentiellement, ainsi la première variable entrée va capturer toute la variance et les autres moins.
Pour le coup, le summary du modèle de régression multiple renvois les estimations de coeficients de pente mais pourquoi n'y a t-il pas le même genre de problème que l'aov?
Merci
Dernière édition par Grendel26 le Sam 3 Mar 2018 - 10:27, édité 1 fois
Grendel26- Nombre de messages : 2
Date d'inscription : 02/03/2018
Re: Colinéarité de facteur en régression multiple
La réponse est dans la question. L'ANOVA décompose la variance totale entre les différents effets. Du coup, si on rentre un variable qui absorbe une partir de la variance, les suivantes "se contente de ce qui reste".
Dans la régression, on estime les pentes, et les pentes reste les mêmes avec ou sans colinéarité.
La distinction est dans l'estimation d'un effet (régression) et son test statistique (ANOVA), ce qui n'est pas la même chose.
Eric.
Dans la régression, on estime les pentes, et les pentes reste les mêmes avec ou sans colinéarité.
La distinction est dans l'estimation d'un effet (régression) et son test statistique (ANOVA), ce qui n'est pas la même chose.
Eric.
Eric Wajnberg- Nombre de messages : 1238
Date d'inscription : 14/09/2012
Sujets similaires
» régression multiple
» Regression et colinéarité
» régression et colinéarité
» Colinéarité variables qualitatives (pour régression logit)
» régression multiple et régression logistique
» Regression et colinéarité
» régression et colinéarité
» Colinéarité variables qualitatives (pour régression logit)
» régression multiple et régression logistique
Page 1 sur 1
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum