Les posteurs les plus actifs de la semaine
lenny868
 
Simple_ingenieur
 


Colinéarité de facteur en régression multiple

Aller en bas

Colinéarité de facteur en régression multiple

Message par Grendel26 le Ven 2 Mar 2018 - 18:33

Bonjour, j'avais une question.
Beaucoup de sujets traitent de l'effet de la corrélation de variables explicatives pouvant être négatif si il est trop élevée et on parle de multicolinéarité.
En effet ceci peut gonfler les p.value ou en tout cas rendre les coefficients de pentes des regresseurs peu stable.
Ma question est la suivante:

Je vous explique le contexte:
Je fais une régression linéaire multiple avec 1 variable expliquée quantitative et 2 variables explicatives quantitatives corrélées à 0.57. Donc sur r : lm(y~X1+X2).

Quelqu'un saurait m'expliquer pourquoi lorsque je permute l'ordre d'entrée des variables comme ceci:
lm(y~X1+X2)
lm(y~X2+X1)
les coefficients estimés sont identiques et ne bougent pas alors qu'on s'attendrait à ce qu'ils fluctuant à cause de la colinéarité des facteurs X1 et X2?

Merci beaucoup

Grendel26

Nombre de messages : 2
Date d'inscription : 02/03/2018

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Colinéarité de facteur en régression multiple

Message par Eric Wajnberg le Sam 3 Mar 2018 - 8:58

Parce que permuter les deux variables explicatives ne change pas leur colinéarité.

La réponse me semble tellement simple que j'ai peur de ne peut-être pas avoir saisi le sens réel de cette question..

HTH, Eric.
avatar
Eric Wajnberg

Nombre de messages : 950
Date d'inscription : 14/09/2012

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Colinéarité de facteur en régression multiple

Message par Grendel26 le Sam 3 Mar 2018 - 9:34

Merci pour ton aide
Enfaite, je pense que j'ai besoin d'une explication concernant la nature du summary lorsqu’on fait un lm sur R.
Car lorsqu’on fait une analyse de variance, on observe effectivement que lorsqu’il y a une colinéarité entre les variables explicatives, l'ordre d'entrée des variables dans l'analyse aov sur modèle de régression a son importance car les SCE sont calculés séquentiellement, ainsi la première variable entrée va capturer toute la variance et les autres moins.
Pour le coup, le summary du modèle de régression multiple renvois les estimations de coeficients de pente mais pourquoi n'y a t-il pas le même genre de problème que l'aov?

Merci


Dernière édition par Grendel26 le Sam 3 Mar 2018 - 10:27, édité 1 fois

Grendel26

Nombre de messages : 2
Date d'inscription : 02/03/2018

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Colinéarité de facteur en régression multiple

Message par Eric Wajnberg le Sam 3 Mar 2018 - 15:04

La réponse est dans la question. L'ANOVA décompose la variance totale entre les différents effets. Du coup, si on rentre un variable qui absorbe une partir de la variance, les suivantes "se contente de ce qui reste".

Dans la régression, on estime les pentes, et les pentes reste les mêmes avec ou sans colinéarité.

La distinction est dans l'estimation d'un effet (régression) et son test statistique (ANOVA), ce qui n'est pas la même chose.


Eric.
avatar
Eric Wajnberg

Nombre de messages : 950
Date d'inscription : 14/09/2012

Voir le profil de l'utilisateur

Revenir en haut Aller en bas

Re: Colinéarité de facteur en régression multiple

Message par Contenu sponsorisé


Contenu sponsorisé


Revenir en haut Aller en bas

Revenir en haut

- Sujets similaires

 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum