Les posteurs les plus actifs de la semaine
Aucun utilisateur |
Sujets les plus vus
explication d'un paramètre de régression
2 participants
Page 1 sur 1
explication d'un paramètre de régression
Bonjour,
Je travaille actuellement sur une série temporelle à laquelle j'ai ajusté un modèle de régression avec erreurs ARIMA. Les tests d'absence d'autocorrélation des résidus (Ljung-Box par exemple) sont bon mais il s'avère que ces résidus ne suivent pas une loi normale mais plutôt une loi Student... La validité du modèle devrait être remise en cause complètement, c'est vrai, mais ce modèle contient des coefficients MA non-saisonniers (et éventuellement saisonniers) et je pense que de ce fait, modifier la fonction en calculant la vraisemblance basée sur la loi Student risque d'être délicat. Qu'en pensez-vous? Auriez-vous une autre idée?
Bref. Je décide de faire abstraction de ce problème pour le moment et de m'intéresser à déterminer si les paramètres beta de régression que j'ai introduits expliquent bien les données ou non. C'est-à-dire, je veux tester si on peut rejeter l'hypothèse beta =0. (Je pense que chercher à faire cette analyse malgré le fait que le modèle ne soit pas idéalement ajusté pourrait quand même avoir un sens, non?)
Quel serait le test qui conviendrait pour ceci? Je connais un test simple (comparaison du coefficient avec son écart-type) basé sur la loi normale mais je me demande si cela n'entre pas en conflit avec le fait que mes résidus ne sont pas gaussiens. Y a-t-il un lien? Que me proposez-vous?
Merci d'avance pour votre aide!
Je travaille actuellement sur une série temporelle à laquelle j'ai ajusté un modèle de régression avec erreurs ARIMA. Les tests d'absence d'autocorrélation des résidus (Ljung-Box par exemple) sont bon mais il s'avère que ces résidus ne suivent pas une loi normale mais plutôt une loi Student... La validité du modèle devrait être remise en cause complètement, c'est vrai, mais ce modèle contient des coefficients MA non-saisonniers (et éventuellement saisonniers) et je pense que de ce fait, modifier la fonction en calculant la vraisemblance basée sur la loi Student risque d'être délicat. Qu'en pensez-vous? Auriez-vous une autre idée?
Bref. Je décide de faire abstraction de ce problème pour le moment et de m'intéresser à déterminer si les paramètres beta de régression que j'ai introduits expliquent bien les données ou non. C'est-à-dire, je veux tester si on peut rejeter l'hypothèse beta =0. (Je pense que chercher à faire cette analyse malgré le fait que le modèle ne soit pas idéalement ajusté pourrait quand même avoir un sens, non?)
Quel serait le test qui conviendrait pour ceci? Je connais un test simple (comparaison du coefficient avec son écart-type) basé sur la loi normale mais je me demande si cela n'entre pas en conflit avec le fait que mes résidus ne sont pas gaussiens. Y a-t-il un lien? Que me proposez-vous?
Merci d'avance pour votre aide!
plocq- Nombre de messages : 3
Date d'inscription : 20/11/2011
Re: explication d'un paramètre de régression
Salut,
non...notamment la distribution des résidus. Si ton modèle ne respecte pas les hypothèses de base nécessaires à son utilisation comment veux tu que les paramètres soient pertinents ?
Il faut ajuster le modèle différemment.
Nik
Je pense que chercher à faire cette analyse malgré le fait que le modèle ne soit pas idéalement ajusté pourrait quand même avoir un sens, non?
non...notamment la distribution des résidus. Si ton modèle ne respecte pas les hypothèses de base nécessaires à son utilisation comment veux tu que les paramètres soient pertinents ?
Il faut ajuster le modèle différemment.
Nik
Nik- Nombre de messages : 1606
Date d'inscription : 23/05/2008
Re: explication d'un paramètre de régression
Merci pour ta réponse. Je comprends bien le problème. Mais je me demande quand même : serait-il possible par exemple qu'une variable explicative soit très significative dans le cadre de ce modèle 'faux' et plus du tout dans le cadre d'un modèle correct? C'est plus à la question de savoir si ces variables pourraient éventuellement bien expliquer mes données qu'à celle de la validité des coefficients associés que je m'intéresse. Mais peut-être pourrais-je vérifier cela sans passer par l'utilisation de ce modèle peu adapté ?
Mon problème est que je ne vois pas comment améliorer la qualité de mon modèle existant... Il semblerait que R ne propose pas de modèle ARIMA avec erreurs non-normales. J'ai essayé d'utiliser une stabilisation Box-Cox au préalable mais l'amélioration n'est pas significative du point de vue de la loi des résidus.
Merci encore!
Mon problème est que je ne vois pas comment améliorer la qualité de mon modèle existant... Il semblerait que R ne propose pas de modèle ARIMA avec erreurs non-normales. J'ai essayé d'utiliser une stabilisation Box-Cox au préalable mais l'amélioration n'est pas significative du point de vue de la loi des résidus.
Merci encore!
plocq- Nombre de messages : 3
Date d'inscription : 20/11/2011
Sujets similaires
» anova
» Explication de notion statistique calculée
» Analyser l'influence d'un paramètre sur mon algo
» Paramètre de dispersion
» estimation de paramètre glm
» Explication de notion statistique calculée
» Analyser l'influence d'un paramètre sur mon algo
» Paramètre de dispersion
» estimation de paramètre glm
Page 1 sur 1
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum