Vincent | GINOT | |
Hervé | MONOD | |
Robert | FAIVRE | Juin 2006 |
Enjeux
La mission "modélisation" de l'INRA, entre autres, a clairement mis en évidence qu'un enjeu méthodologique clef en modélisation portait sur la complexité croissante des systèmes étudiés et sur les méthodes informatiques et mathématiques à développer pour leur étude. Parmi ces méthodes, les méthodes exploratoires fondées sur les plans d'expérience et la simulation sont appelées à jouer un rôle important. En effet, la modélisation s'attaque à des processus spatio-temporels pour lesquels l'étude analytique des solutions est de plus en plus délicate sinon impossible à mettre en œuvre. Parallèlement, de nouvelles techniques se développent, comme les simulations individu-centrées et multi-agents, pour lesquelles la notion même de formalisme et donc de solution analytique se heurte à la complexité des interactions entre entités modélisées. Dans ce contexte, l'analyse des propriétés d'un modèle ne peut plus se faire sur la seule base de son écriture mathématique. Analyses de sensibilité, analyses de stabilité, propagation d'erreurs, surfaces de réponses, identifiabilité des paramètres, comparaisons modèle / données, voire même objectifs de la modélisation et prise en compte de points de vue différents sur une même réalité complexe, c'est pratiquement toute la méthodologie de construction, de compréhension et d'utilisation de ces modèles qu'il faut en partie repenser, et cela souvent sur la seule base toujours disponible : la répétition des simulations dans des plans d'expériences (ou d’échantillonnage) raisonnés et leur traitement statistique. C'est pourquoi le programme proposé repose essentiellement sur l’exploitation des résultats numériques de simulations, le modèle étant alors considéré comme une boîte noire.
Un corollaire de la complexité croissante des modèles est que leurs sorties sont elles-mêmes plus complexes. Là où un modèle calculait quelques variables d'état à valeurs scalaires dans le temps, il produit aujourd'hui communément des variables d'état plus nombreuses, et de plus en plus souvent sous forme de vecteurs ou de matrices multidimensionnelles mélangeant variables qualitatives et quantitatives. Résumer les énormes quantités de données produites par les modèles actuels, et essayer de traiter des données non scalaires, en entrée comme en sortie des modèles, doit donc également faire partie d'un programme d'exploration numérique de ces derniers.
Mais l'expérience montre que si les biologistes / modélisateurs consacrent beaucoup de temps et d'énergie à l'écriture conceptuelle et informatique de leurs modèles, ils en réservent trop peu à l'analyse de leurs propriétés. Une première raison tient peut-être à la fatigue ou à un excès d'optimisme : on a déjà passé beaucoup de temps à construire un modèle, et pourquoi diable ce modèle aurait-il un comportement différent de ce pourquoi il a été programmé ? Une deuxième raison tient sans doute au fait que les modélisateurs ne sont pas toujours mathématiciens ou statisticiens. Or caractériser les propriétés d'un modèle demande soit de rechercher des solutions analytiques (mathématiques), soit de conduire des plans d'expériences couplés à des traitement statistiques. Une dernière raison est peut-être à rechercher dans la relative faiblesse de l'offre logiciel dans ce domaine : si de nombreux outils permettent de construire des modèles, notamment dans le domaine des systèmes dynamiques à base d'équations différentielles ordinaires, bien peu proposent des outils d'exploration des propriétés des modèles produits dignes de ce nom. Un programme d'exploration numérique des propriétés des modèles doit donc posséder un volet opérationnel, et aider le modélisateur à utiliser les méthodes proposées.