Equipe Machine Learning and Data Mining
Pour estimer la fonction de régression à partir de mesures du vecteur des entrées, et de mesures des valeurs correspondantes de la grandeur à modéliser, il convient en premier lieu, de faire une hypothèse sur la forme de la fonction régression. La plus simple est l’hypothèse linéaire : on suppose que, dans le domaine de variation des variables, un modèle linéaire par rapport à ces dernières peut rendre compte, d’une manière satisfaisante, du comportement de la grandeur à modéliser. Si cette hypothèse ne conduit pas à un modèle satisfaisant, il faut avoir recours à un modèle non linéaire par rapport aux variables, par exemple à un réseau de neurones artificiels, support vectors machines (SVM), flou, … etc.
Donc la conception d’un modèle non linéaire « boite noire » comprend plusieurs tâches :
-
La sélection des entrées du modèle, c’est-à-dire des composantes du vecteur x qui apparait dans g(x,w) :
- La réduction de la dimension des données d’entrée x,
- L’élimination des variables non pertinentes dont l’influence sur la grandeur à modéliser est inférieure à celle des facteurs non mesurables (bruits, perturbations),
-
L’estimation des paramètres w du modèle non linéaire g(x,w), c’est-à-dire l’apprentissage d’un modèle :
- Le choix d’une famille de fonctions non linéaire dans laquelle on cherche le meilleur modèle pour une application donnée,
- L’apprentissage d’un ou de plusieurs modèles dans la famille choisie,
- La sélection du meilleur modèle et l’estimation des performances des modèles.
Les trois étapes font respectivement l’objectif de l’équipe de recherche machine learning and data mining. Il est important de noter qu’une grande partie de cette méthodologie s’applique à tout modèle non linéaire (Neuronal, flou ou autre).