Les grands thèmes méthodologiques

Les grands thèmes méthodologiques hrichard

Comprendre les propriétés d'un modèle est un terme très vague. Sachantque l'imagination reste de mise dans ce domaine, un certain nombre dequestions sont récurrentes. Pour certaines, les méthodes existent déjà,notamment pour des sorties scalaires. Pour d'autres, elles sont peut-être àinventer :

  • La cohérence numérique. Avant même de chercher à explorer les propriétés du modèle il faut s'assurer que les choix techniques liés à sa résolution numérique n'influencent pas les résultats, et si c'est le cas vérifier que ces choix ont un sens vis-à-vis de la question posée et qu'ils sont bien inclus dans le descriptif du modèle. Car ils en font alors partie intégrante. Un exemple classique est le choix du pas de temps ou d'espace dans les modèles discrets. Mais dans la pratique, l'analyse de la cohérence numériques est difficile à mener car on touche à la structure même du modèle.
  • Les analyses de sensibilité : il s’agit de déterminer l'influence des paramètres sur les sorties du modèle. [mentionner la distinction entre sensibilités locale et globale ?] Il est surprenant de voir à quel point il n'est pas si aisé de désigner a priori le tiercé des paramètres les plus influents, même sur des modèles assez simples…
  • La recherche de singularités, les analyses de stabilité, c'est-à-dire la recherche d'extrema, mais aussi des points d'équilibre (ou des cycles) avec leur stabilité.
  • L'analyse des conditions initiales et la propagation des erreurs. Quelle est l'influence des conditions initiales sur les résultats, et comment se propage dans le temps un éventuel décalage avec la réalité ?
  • L'analyse qualitative du comportement. De manière plus générale, on souhaiterait relier les grands traits du comportement du modèle à des partitions dans l'espace des paramètres.
  • La recherche des comportements "robustes". Et si tout ce qui a été décrit précédemment devient caduc parce que je change légèrement la forme d'une fonction de croissance ? Il s'agit donc d'une analyse de sensibilité un peu particulière, la sensibilité aux choix des équations. [cela rentre dans le cadre de l’analyse de sensibilité, et par ailleurs la robustesse couvre aussi la robustesse par rapport aux paramètres ; on peut laisser mais je trouve la dernière phrase de cet item inutile, un peu maladroite] Remarquons au passage qu'un modèle, ce sont essentiellement des équations et des paramètres, et que la limite entre les deux est finalement assez floue. Il pourra être techniquement intéressant de prendre des formulations assez générales afin de "paramétrer" une certaine souplesse dans l'écriture du modèle, et de pouvoir ensuite tester la robustesse des sorties à cette souplesse via une analyse de sensibilité classique.
  • Les analyses d'incertitude. Compte tenu des incertitudes sur les paramètres, de la variabilité naturelle des variables d’entrée, et des composantes stochastiques qui peuvent être présentes dans le coeur du modèle, il s'agit d’utiliser le modèle pour faire de la prédiction, sous forme de distributions de probabilité associées à ses différentes variables de sortie
  • La "méta" modélisation, c'est à dire l'émulation de modèles complexes et trop coûteux en temps calcul par des modèles simplifiés et aussi fidèles que possibles. Ceci pour pouvoir par exemple effectuer des analyses de sensibilité ou d'incertitude dans des délais raisonnables. Mais aussi parce qu'il peut être intéressant de montrer qu'un modèle considéré comme complexe ne l'est peut-être pas tant que cela (nombreux paramètres sans effet, sorties monotones, peu d'interactions…) et qu'il serait nécessaire de le simplifier. Egalement, on constate une tendance des communautés scientifiques à développer de grands modèles de "connaissances" hyper détaillés, par agrégation de sous-modèles. Il faudra donc souvent les simplifier pour les rendre utilisables dans un contexte donné.
  • Les plans d'expériences. Contrairement à ce que l'on pourrait penser, il n'est pas si facile de produire des plans de grandes dimensions qui conservent toutes les "bonnes" propriétés comme l'orthogonalité des facteurs ou une exploration homogène de l'espace. Et ceci, que ce soit pour les plans factoriels ou pour les plans aléatoires. La théorie actuelle des plans d'expérience, bien adaptée aux expérimentations réelles dont elle est issue, ne semble pas aujourd'hui répondre à toutes les contraintes des expériences numériques. C'est une question sur laquelle il sera sans doute indispensable de se pencher dans le cadre de ce réseau.

La question de l'optimisation, qui inclut en particulier le calage du modèle par l'identification des paramètres, sort a priori du domaine de ce programme dans la mesure où elle demande une très grande interaction entre le modèle et l'algorithme d'optimisation. Dans la pratique, et pour une question de rapidité, il est en effet quasi obligatoire que modèle et algorithme soient programmés dans le même environnement, alors que nous considérons ici des modèles "boites noires" indépendants des traitements statistiques qu'on leur applique. Mais optimisation et sensibilité sont tellement liées que des retombées de ce programme pourront être utilisées en optimisation. Par ailleurs, certains algorithmes d'optimisation comme les algorithmes génétiques se prêtent bien à une séparation modèles/calculs.

L'enjeu méthodologique (ou recherche) du réseau, est de choisir de faire avancer les thèmes qui nous paraissent les plus cruciaux (et il y en a sans doute d'autres).