Forum de Statistiques
Vous souhaitez réagir à ce message ? Créez un compte en quelques clics ou connectez-vous pour continuer.
Les posteurs les plus actifs de la semaine
Aucun utilisateur

Le Deal du moment : -38%
Ecran PC gaming 23,8″ – ACER KG241Y P3bip ...
Voir le deal
99.99 €

Colinéarité de facteur en régression multiple

2 participants

Aller en bas

Colinéarité de facteur en régression multiple  Empty Colinéarité de facteur en régression multiple

Message par Grendel26 Ven 2 Mar 2018 - 18:33

Bonjour, j'avais une question.
Beaucoup de sujets traitent de l'effet de la corrélation de variables explicatives pouvant être négatif si il est trop élevée et on parle de multicolinéarité.
En effet ceci peut gonfler les p.value ou en tout cas rendre les coefficients de pentes des regresseurs peu stable.
Ma question est la suivante:

Je vous explique le contexte:
Je fais une régression linéaire multiple avec 1 variable expliquée quantitative et 2 variables explicatives quantitatives corrélées à 0.57. Donc sur r : lm(y~X1+X2).

Quelqu'un saurait m'expliquer pourquoi lorsque je permute l'ordre d'entrée des variables comme ceci:
lm(y~X1+X2)
lm(y~X2+X1)
les coefficients estimés sont identiques et ne bougent pas alors qu'on s'attendrait à ce qu'ils fluctuant à cause de la colinéarité des facteurs X1 et X2?

Merci beaucoup

Grendel26

Nombre de messages : 2
Date d'inscription : 02/03/2018

Revenir en haut Aller en bas

Colinéarité de facteur en régression multiple  Empty Re: Colinéarité de facteur en régression multiple

Message par Eric Wajnberg Sam 3 Mar 2018 - 8:58

Parce que permuter les deux variables explicatives ne change pas leur colinéarité.

La réponse me semble tellement simple que j'ai peur de ne peut-être pas avoir saisi le sens réel de cette question..

HTH, Eric.
Eric Wajnberg
Eric Wajnberg

Nombre de messages : 1238
Date d'inscription : 14/09/2012

Revenir en haut Aller en bas

Colinéarité de facteur en régression multiple  Empty Re: Colinéarité de facteur en régression multiple

Message par Grendel26 Sam 3 Mar 2018 - 9:34

Merci pour ton aide
Enfaite, je pense que j'ai besoin d'une explication concernant la nature du summary lorsqu’on fait un lm sur R.
Car lorsqu’on fait une analyse de variance, on observe effectivement que lorsqu’il y a une colinéarité entre les variables explicatives, l'ordre d'entrée des variables dans l'analyse aov sur modèle de régression a son importance car les SCE sont calculés séquentiellement, ainsi la première variable entrée va capturer toute la variance et les autres moins.
Pour le coup, le summary du modèle de régression multiple renvois les estimations de coeficients de pente mais pourquoi n'y a t-il pas le même genre de problème que l'aov?

Merci


Dernière édition par Grendel26 le Sam 3 Mar 2018 - 10:27, édité 1 fois

Grendel26

Nombre de messages : 2
Date d'inscription : 02/03/2018

Revenir en haut Aller en bas

Colinéarité de facteur en régression multiple  Empty Re: Colinéarité de facteur en régression multiple

Message par Eric Wajnberg Sam 3 Mar 2018 - 15:04

La réponse est dans la question. L'ANOVA décompose la variance totale entre les différents effets. Du coup, si on rentre un variable qui absorbe une partir de la variance, les suivantes "se contente de ce qui reste".

Dans la régression, on estime les pentes, et les pentes reste les mêmes avec ou sans colinéarité.

La distinction est dans l'estimation d'un effet (régression) et son test statistique (ANOVA), ce qui n'est pas la même chose.


Eric.
Eric Wajnberg
Eric Wajnberg

Nombre de messages : 1238
Date d'inscription : 14/09/2012

Revenir en haut Aller en bas

Colinéarité de facteur en régression multiple  Empty Re: Colinéarité de facteur en régression multiple

Message par Contenu sponsorisé


Contenu sponsorisé


Revenir en haut Aller en bas

Revenir en haut

- Sujets similaires

 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum