Les posteurs les plus actifs de la semaine
Aucun utilisateur |
Sujets les plus vus
Régression linéaire et multiple
5 participants
Page 1 sur 1
Régression linéaire et multiple
Bonjour,
Je suis un peu en train de m'embrouiller, j'aimerais savoir quelles sont les conditions à respecter pour utiliser une régression linéaire ou multiple et comment adapter mes données dans le cas où celles-ci ne sont pas respectées.
Pouvez-vous m'aider?
Je suis un peu en train de m'embrouiller, j'aimerais savoir quelles sont les conditions à respecter pour utiliser une régression linéaire ou multiple et comment adapter mes données dans le cas où celles-ci ne sont pas respectées.
Pouvez-vous m'aider?
Gamaliel- Nombre de messages : 4
Date d'inscription : 07/07/2010
Re: Régression linéaire et multiple
Bonjour,
Dans le cas de la régression linéaire, il y a deux types d'hypothèses à vérifier : les hypothèses portant sur le jeu de données et les hypothèses sur le modèle créé.
Si ma mémoire est bonne voici les hypothèses à vérifier :
_ variables explicatives non colinéaires entre elles (sinon rique de modèle instable)
_ variable à expliquer Y suit une loi normale
_ résidus sont indépendants entre eux
_ résidus ont une moyenne nulle
_ résidus ont la même variance (homoscédasticité)
_ résidus suivent une loi normale
Et bien évidemment, il faut qu'il y ait plus d'observations que de variables explicatives pour que l'on puisse trouver un modèle de régression.
Pour ce qui est des transformations, il est par exemple possible d'appliquer des transformations à la variable à expliquer Y (par exemple prendre le logarithme...) afin de la normaliser et on effectuera ensuite la régression linéaire sur cette variable modifiée.
J'espère que ceci te donne une première idée, et sinon je pense qu'en tapant simplement : "régression linéaire" (éventuellement "multiple") dans google, tu trouveras pas mal d'infos sur le sujet.
Cordialement,
A.D.
Dans le cas de la régression linéaire, il y a deux types d'hypothèses à vérifier : les hypothèses portant sur le jeu de données et les hypothèses sur le modèle créé.
Si ma mémoire est bonne voici les hypothèses à vérifier :
_ variables explicatives non colinéaires entre elles (sinon rique de modèle instable)
_ variable à expliquer Y suit une loi normale
_ résidus sont indépendants entre eux
_ résidus ont une moyenne nulle
_ résidus ont la même variance (homoscédasticité)
_ résidus suivent une loi normale
Et bien évidemment, il faut qu'il y ait plus d'observations que de variables explicatives pour que l'on puisse trouver un modèle de régression.
Pour ce qui est des transformations, il est par exemple possible d'appliquer des transformations à la variable à expliquer Y (par exemple prendre le logarithme...) afin de la normaliser et on effectuera ensuite la régression linéaire sur cette variable modifiée.
J'espère que ceci te donne une première idée, et sinon je pense qu'en tapant simplement : "régression linéaire" (éventuellement "multiple") dans google, tu trouveras pas mal d'infos sur le sujet.
Cordialement,
A.D.
Re: Régression linéaire et multiple
Merci beaucoup pour ces éléments de réponse. J'ai déjà fait pas mal de recherche mais je ne trouve rien de bien utilisable pratiquement.
Pour rendre la distribution des résidus normale, y a-t-il d'autres moyens que l'utilisation d'un logarithme parce que c'est le plus connu mais il ne fonctionne pas à chaque fois.
Encore une question mais les hypothèses que la regression doit respecter sont-elles aussi nécessaire lorsqu'on utilise une ACP dont on se sert des résultats pour une régression?
Pour rendre la distribution des résidus normale, y a-t-il d'autres moyens que l'utilisation d'un logarithme parce que c'est le plus connu mais il ne fonctionne pas à chaque fois.
Encore une question mais les hypothèses que la regression doit respecter sont-elles aussi nécessaire lorsqu'on utilise une ACP dont on se sert des résultats pour une régression?
Gamaliel- Nombre de messages : 4
Date d'inscription : 07/07/2010
Re: Régression linéaire et multiple
pour rendre les résidus normales mis a part l'utilisation d'un logarithme c'est d'ajouté/enlevé des variables explicatives, ou d'ajouté des observations, ou si non ajouté la variable a expliquée comme une variables explicatives avec une décalage temporaire (Y(-1)), ou si non estimer la régression avec d'autre technique d'estimation mis a part MCO ( par exemple MCG dans le cas d'héteroscédasticité, ou maximum de vraisemblance MV) enfin bref c'est tout dépend du phénomène étudier .
pour l'application d'une ACP ,ya pas d'hypothèses a respecter, du moment que vos variables explicatives sont quantitatives vous pouvez appliquée une ACP directe pour décrire la liaison entre ces variables ( si les variables sont fortement corrélé entre eux vous aurez du mal a expliquée les axes a cause de l'effet d'échelle )
pour l'application d'une ACP ,ya pas d'hypothèses a respecter, du moment que vos variables explicatives sont quantitatives vous pouvez appliquée une ACP directe pour décrire la liaison entre ces variables ( si les variables sont fortement corrélé entre eux vous aurez du mal a expliquée les axes a cause de l'effet d'échelle )
virus- Nombre de messages : 7
Date d'inscription : 29/06/2010
Re: Régression linéaire et multiple
Tu peux essayer ces transformations
Transformation formula chi2(2) P(chi2)
------------------------------------------------------------------
cubic ageinc~r^3 . 0.000
square ageinc~r^2 46.16 0.000
identity ageinc~r 21.55 0.000
square root sqrt(ageinc~r) 24.81 0.000
log log(ageinc~r) 33.09 0.000
1/(square root) 1/sqrt(ageinc~r) . 0.000
inverse 1/ageinc~r . 0.000
1/square 1/(ageinc~r^2) . 0.000
1/cubic 1/(ageinc~r^3) . 0.000
et voir ici: http://www.ats.ucla.edu/stat/stata/examples/alsm/
Transformation formula chi2(2) P(chi2)
------------------------------------------------------------------
cubic ageinc~r^3 . 0.000
square ageinc~r^2 46.16 0.000
identity ageinc~r 21.55 0.000
square root sqrt(ageinc~r) 24.81 0.000
log log(ageinc~r) 33.09 0.000
1/(square root) 1/sqrt(ageinc~r) . 0.000
inverse 1/ageinc~r . 0.000
1/square 1/(ageinc~r^2) . 0.000
1/cubic 1/(ageinc~r^3) . 0.000
et voir ici: http://www.ats.ucla.edu/stat/stata/examples/alsm/
c@ssoulet- Nombre de messages : 925
Date d'inscription : 05/05/2008
Re: Régression linéaire et multiple
Merci pour ces réponses je vais regarder à ça aujourd'hui pour vous donner un feedback rapidement.
Dans la plupart des cas, cela fonctionne, il y a juste un gros souci s'il y a des 0 dans la distrubution et que exp, carré et cube ne fonctionne pas... J'ai essayé quelques combinaisons mais Shapiro wilk les admet pas...
Dans la plupart des cas, cela fonctionne, il y a juste un gros souci s'il y a des 0 dans la distrubution et que exp, carré et cube ne fonctionne pas... J'ai essayé quelques combinaisons mais Shapiro wilk les admet pas...
Gamaliel- Nombre de messages : 4
Date d'inscription : 07/07/2010
Re: Régression linéaire et multiple
Je remonte ce topic car j'avais une question sur l'interprétation des résultats après le passage au log de la variable expliquée: Comment fait on pour interpréter dans ce cas?
Merci d'avance!
Merci d'avance!
Grama- Nombre de messages : 5
Date d'inscription : 28/01/2011
Sujets similaires
» Régression linéaire multiple
» validation régression linéaire multiple
» Régression linéaire multiple ?
» Régression linéaire multiple
» Regression lineaire multiple
» validation régression linéaire multiple
» Régression linéaire multiple ?
» Régression linéaire multiple
» Regression lineaire multiple
Page 1 sur 1
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum