Les posteurs les plus actifs de la semaine
Aucun utilisateur |
Sujets les plus vus
nipals
2 participants
Page 1 sur 1
nipals
bonjour,
j'essaye de comprende cette algorithme. Je vais j'espere ds pas trop longtemps recevoir un bouquin sur ce sujet mais cela traine....
Si kkun a de la doc sur le sujet ou peux me parler un peu de ça cela m'interesserait
bon je retourne faire des recherche sur le net
j'essaye de comprende cette algorithme. Je vais j'espere ds pas trop longtemps recevoir un bouquin sur ce sujet mais cela traine....
Si kkun a de la doc sur le sujet ou peux me parler un peu de ça cela m'interesserait
bon je retourne faire des recherche sur le net
Basaran- Nombre de messages : 24
Date d'inscription : 23/01/2006
Re: nipals
Salut basaran,
C'est marrant que tu parles de ça parce que récemment, j'ai fait un programme qui calcule des composantes PLS (cas linéaire et cas utilisant des kernels).
L'algorithme est assez "vieux" et il existe aujourd'hui de nombreuses versions "déterministes" de cet algorithme. Ceci evite la partie "répéter jusqu'à convergence " de nipals.
Par exemple, dans le cas de la régression, le calcul des composantes PLS se présente comme suit :
- centrer réduire les données.
- calculer cov(Y,Xi) pour tout i (Xi est une var explicative et Y la variable expliquée)
- normaliser le vecteur contenant les cov(Y,Xi) --> on obtient w
- calculer la première composante PLS t1 = Xw
-etc.
L'algorithme NIPALS (et toutes ses différentes versions) constitue un outil très intéressant dès lors que l'on veut établir un modèle sur des données en très forte dimensionnalité et/ou les Xi sont très corréléls entre eux.
Il existe une théorie qui englobe le cas de PLS (régression continuum). A partir de celle-ci, on montre qu'une régression sur composantes PLS est un "compromis" entre une régression sur données brutes et régression sur composantes principales. Autrement dit, on cumule les avantages de la régression sur données brutes (bon ajustement) et de la reg sur composantes principales (peu de bruit dans les données et prédicteurs indépendants).
D'un point de vue implémentation maintenant, la programmation est très simple (ce n'est qu'une succession de régression linéaire simples et de calcul de covariances). L'algorithme est fait de telle sorte qu'il requiert très peu d'espace mémoire et permet donc de traiter de très gros volumes de données (c'est la même chose pour le cas non linéaire et ça c'est très avantageux!!).
Ca devient de plus en plus facile de trouver des références sur le sujet sur le net. Il y a qulques mois, les articles se faisaient beacoup plus rares. Concenrant les références, il y en a plusieurs, mais les deux principales étant selon moi :
- la régression PLS (Tenenhaus) : bouquin très complet, mais personnellement, j'ai trouvé que certains passages étaient assez difficiles...(je pense que c'est le bouquin que tu attends )
- ensuite tous les articles de Rosipal (mais là, c'est pour le cas non linéaire et celui de l'adapatation au cas de la classification supervisée)
Il y aurait beaucoup de choses à dire encore...si tu as des questions, remarques...
D'ici là
a+
C'est marrant que tu parles de ça parce que récemment, j'ai fait un programme qui calcule des composantes PLS (cas linéaire et cas utilisant des kernels).
L'algorithme est assez "vieux" et il existe aujourd'hui de nombreuses versions "déterministes" de cet algorithme. Ceci evite la partie "répéter jusqu'à convergence " de nipals.
Par exemple, dans le cas de la régression, le calcul des composantes PLS se présente comme suit :
- centrer réduire les données.
- calculer cov(Y,Xi) pour tout i (Xi est une var explicative et Y la variable expliquée)
- normaliser le vecteur contenant les cov(Y,Xi) --> on obtient w
- calculer la première composante PLS t1 = Xw
-etc.
L'algorithme NIPALS (et toutes ses différentes versions) constitue un outil très intéressant dès lors que l'on veut établir un modèle sur des données en très forte dimensionnalité et/ou les Xi sont très corréléls entre eux.
Il existe une théorie qui englobe le cas de PLS (régression continuum). A partir de celle-ci, on montre qu'une régression sur composantes PLS est un "compromis" entre une régression sur données brutes et régression sur composantes principales. Autrement dit, on cumule les avantages de la régression sur données brutes (bon ajustement) et de la reg sur composantes principales (peu de bruit dans les données et prédicteurs indépendants).
D'un point de vue implémentation maintenant, la programmation est très simple (ce n'est qu'une succession de régression linéaire simples et de calcul de covariances). L'algorithme est fait de telle sorte qu'il requiert très peu d'espace mémoire et permet donc de traiter de très gros volumes de données (c'est la même chose pour le cas non linéaire et ça c'est très avantageux!!).
Ca devient de plus en plus facile de trouver des références sur le sujet sur le net. Il y a qulques mois, les articles se faisaient beacoup plus rares. Concenrant les références, il y en a plusieurs, mais les deux principales étant selon moi :
- la régression PLS (Tenenhaus) : bouquin très complet, mais personnellement, j'ai trouvé que certains passages étaient assez difficiles...(je pense que c'est le bouquin que tu attends )
- ensuite tous les articles de Rosipal (mais là, c'est pour le cas non linéaire et celui de l'adapatation au cas de la classification supervisée)
Il y aurait beaucoup de choses à dire encore...si tu as des questions, remarques...
D'ici là
a+
Enzo- Nombre de messages : 33
Date d'inscription : 13/10/2006
Re: nipals
Merci pour ces pécisons Enzo!
effectivement tu as vu juste c'est le bouquin que j'attends
Qd je me serais un peu plongé dedans si on peux échanger sur le sujet cela pourrait être sympa.Les qq démonstrations que j'ai pu voir mon déja convaincu sur l'interet de la régression pls,je regrette de ne pas en avoir entendu parlé avant...^^
++
effectivement tu as vu juste c'est le bouquin que j'attends
Qd je me serais un peu plongé dedans si on peux échanger sur le sujet cela pourrait être sympa.Les qq démonstrations que j'ai pu voir mon déja convaincu sur l'interet de la régression pls,je regrette de ne pas en avoir entendu parlé avant...^^
++
Basaran- Nombre de messages : 24
Date d'inscription : 23/01/2006
Re: nipals
Qd je me serais un peu plongé dedans si on peux échanger sur le sujet cela pourrait être sympa
Oui avec plaisir.
++
Enzo- Nombre de messages : 33
Date d'inscription : 13/10/2006
Page 1 sur 1
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum