WORKSHOP | "Fondements Mathématiques de l'IA" - 4e édition
Inscriptions clôturées !
La journée “Fondements Mathématiques de l’IA”, organisée conjointement par l'Institut DATAIA et SCAI, en association avec les sociétés scientifiques : la Fondation Mathématique Jacques Hadamard (FMJH), la Fondation Sciences Mathématiques de Paris-FSMP, le groupe MALIA de la Société Française de Statistique et la Société Savante Francophone d'Apprentissage Machine (SSFAM) vise à proposer un panorama de quelques directions de recherche prometteuses à l’interface entre l’apprentissage statistique et l’IA.
Cette nouvelle édition sera consacrée aux mathématiques du risque. La journée est consacrée à des exposés donnés par des chercheurs renommés et spécialistes du sujet : A. Charpentier (UQAM, Montréal-Canada), S. Loisel (CNAM, Paris), O. Lopez (ENSAE, Paris), M. Thomas (ISFA, Lyon).
Comité d'organisation
- Marianne Clausel (Univ. Lorraine)
- Emilie Chouzenoux (INRIA Saclay, Institut DATAIA)
Comité scientifique
- Ricardo Borsoi (CNRS, CRAN)
- Stéphane Chrétien (Univ. Lyon 2)
- Sylvain Le Corff (Sorbonne Université)
- Myriam Tami (CentraleSupélec)
-
9h - 10h | Keynote 1 : A. Charpentier (UQAM, Montréal-Canada)
-
10h - 10h30 | Pause café
-
10h30 - 11h30 | Keynote 2 : M. Thomas (ISFA, Lyon)
-
11h30 - 12h15 | Short contributive talks (20mn)
Maxime Meloux (LIG, Université de Grenoble Alpes)
Clément Yvernes (UGA) -
12h15 - 13h45 | Pause déjeuner
-
13h45 - 14h45 | Keynote 3 : S. Loisel (CNAM, Paris)
-
14h45 - 15h30 | Pause goûter
-
15h30 - 16h30 | Keynote 4 : O. Lopez (ENSAE, Paris)
-
16h30 - 17h30 | Short contributive talks (20mn)
Mouad El-Bouchattaoui (MICS, CentraleSupélec & St Gobain)
Simon Weinberger (ERIC, Lyon 2 & ESSILOR)
Mouad El-Bouchattaoui (MICS, CentraleSupélec & St Gobain)
Les effets aléatoires dans les données longitudinales sous l'angle de l'inférence causale
La modélisation des effets mixtes est une technique largement utilisée qui incorpore des effets aléatoires pour capturer les variations au niveau individuel et tenir compte des facteurs non observés qui peuvent influencer la réponse au traitement. En modélisant explicitement ces effets aléatoires, les modèles à effets mixtes fournissent un cadre permettant d'ajuster les effets du traitement sur la base de variables latentes. Il est intéressant de noter que nous établissons un lien entre la modélisation à effets mixtes et l'inférence causale. Alors que les modèles à effets mixtes traitent de l'hétérogénéité inobservable en incluant des effets aléatoires, on peut se concentrer sur l'apprentissage d'une représentation des variables inobservées et les incorporer dans l'estimation des effets de traitement individuels (ITE). Ce lien met en évidence l'objectif commun des deux approches : la prise en compte correcte des sources d'hétérogénéité inobservables afin d'améliorer l'estimation des effets de traitement. Du point de vue de l'inférence causale, les méthodes traditionnelles supposent souvent que tous les facteurs de confusion sont observés ou tentent de déduire les facteurs non observés. S'écartant de ces approches, nous supposons des facteurs de risque non observés - des variables d'ajustement qui n'influencent que la séquence des résultats, et non l'affectation du traitement, ce qui représente les sources d'effets aléatoires. En nous appuyant sur les fondements du cadre de l'autoencodeur variationnel dynamique (DVAE), nous l'étendons à l'inférence causale en développant et en mettant en œuvre le DVAE causal (CDVAE). Guidé par des résultats théoriques qui valident les variables d'ajustement apprises et établissent des limites de généralisation pour les effets de traitement, notre modèle surpasse les méthodes de pointe.
Nous basons notre travail sur les principes de la statistique graphique, en utilisant des graphes causaux pour décrire les interactions entre les variables dans un contexte temporel variable. Ces graphes codent le processus de génération des données et identifient les variables manquantes et leurs liens de causalité avec les variables observées. Nous avons validé notre méthodologie par des expériences approfondies, démontrant la supériorité de la CDVAE dans l'estimation de l'ITE par rapport aux lignes de base existantes. Ce travail souligne l'importance de prendre en compte les facteurs de risque non observés dans l'inférence causale et offre un outil puissant pour les chercheurs et les praticiens qui traitent des données séquentielles complexes et de haute dimension.
Maxime Meloux (LIG, Université de Grenoble Alpes)
Abstraction causale et interprétabilité en apprentissage machine
Bien que l'interprétation des systèmes d'apprentissage machine soit cruciale pour leur transparence, leur fiabilité, leur conformité légale ainsi que la confiance des utilisateurs, les méthodes d'interprétation actuelles se heurtent à divers problèmes de portée, de globalité et de causalité. Une approche prometteuse pour répondre à ces questions provient des domaines de l'analyse et de l'inférence causale. Dans cet exposé, nous proposons une définition plus précise de la notion d'explicabilité, et soutenons que l'abstraction causale offre un cadre général répondant à cette définition et étant propice à l'explicabilité des réseaux neuronaux. Nous présentons ensuite la mise en place d'un banc de test basé sur l'abstraction causale, et permettant d'évaluer les méthodes d'explicabilité actuelles et futures.
Simon Weinberger (ERIC, Lyon 2 & ESSILOR)
L'apprentissage par renforcement propose un cadre flexible qui permet d'aborder des problèmes où les données sont collectées dans un contexte dynamique : les actions ont une influence sur les états futurs. Le paradigme classique de l'apprentissage par renforcement repose sur une hypothèse markovienne : les états observés ne dépendent des états passés qu'à travers le dernier état et la dernière action. Cette condition peut s'avérer trop restrictive pour les applications réelles, car la dynamique peut dépendre des états passés. Nous contournons ce problème en augmentant l'espace d'état en un espace fonctionnel, et nous proposons d'utiliser des politiques qui dépendent de ces états en utilisant des modèles de régression fonctionnels. Nous présentons une application industrielle impliquant le contrôle automatique de la teinte des cadres e-chromiques, minimisant le nombre d'interactions avec l'utilisateur. Cette politique particulière agit sur un ensemble ordonné, en utilisant des données fonctionnelles estimées à partir des valeurs successives du capteur de lumière ambiante (ALS), qui sont non stationnaires. Pour ce faire, on utilise une extension d'un modèle ordinal existant avec des covariables fonctionnelles en tant que politique. Le signal ALS non stationnaire décrivant l'état est traité au moyen d'une base fonctionnelle en ondelettes. Enfin, la politique est améliorée à l'aide de méthodes de gradient de politique.
Clément Yvernes (UGA)
En analyse causale, la connaissance du graphe causal sous-jacent à un système permet généralement d'identifier les effets souhaités. Cependant, l'obtention de tels graphes constitue souvent un défi complexe. Dans des contextes particulièrement difficiles, il est nécessaire de recourir à des abstractions qui représentent la causalité de manière simplifiée. Bien que ces abstractions soient utiles, elles réduisent la quantité d'informations disponibles, rendant ainsi le raisonnement causal plus complexe. Cet exposé examine les différentes notions d'identifiabilité qui émergent lorsqu'on raisonne à partir d'abstractions causales, ainsi que les relations qui les lient. Une attention particulière sera portée aux SCGs, des abstractions causales appliquées aux séries temporelles, où des conditions spécifiques permettent d'assurer l'identification des effets.