Catégorie
Conferences / Workshops

[👥 WORKSHOP] "Fondements Mathématiques de l'IA" - 5ème édition

Bandeau image
WORKSHOP | "Fondements Mathématiques de l'IA" - 5e édition
Date de tri
Lieu de l'événement
Amphithéâtre ASTIER, Bât. Esclangon - 4 place Jussieu, 75005 Paris

Partager

lkml
Chapo
Rendez-vous le 25 mars 2025 dans les locaux de SCAI (Paris), pour la cinquième édition de la journée consacrée aux fondements des mathématiques de l'IA !
Contenu
Corps de texte

La journée “Fondements Mathématiques de l’IA”, organisée conjointement par l'Institut DATAIA et SCAI, en association avec les sociétés scientifiques : la Fondation Mathématique Jacques Hadamard (FMJH), la Fondation Sciences Mathématiques de Paris-FSMP, le groupe MALIA de la Société Française de Statistique, la Société Savante Francophone d'Apprentissage Machine (SSFAM) et le Research network on Uncertainty Quantification (RT-UQ) vise à proposer un panorama de quelques directions de recherche prometteuses à l’interface entre l’apprentissage statistique et l’IA.

Cette nouvelle édition sera consacrée à la quantification d'incertitudes en IA. La journée est consacrée à trois exposés pléniers donnés par des chercheurs renommés et spécialistes du sujet : Radu Stoica (Inria Nancy, Institut Elie Cartan de Lorraine), Pietro Congedo (Inria Saclay, CMAP) et Yingzhen Li (Imperial College London, UK) Elle est aussi l'opportunité pour de jeunes chercheurs de présenter leurs travaux via des exposés courts (voir l'appel à contributions).


Comité d'organisation

  • Marianne Clausel (Univ. Lorraine)
  • Emilie Chouzenoux (INRIA Saclay, Institut DATAIA)

 

Comité scientifique

  • Ricardo Borsoi (CNRS, CRAN)
  • Stéphane Chrétien (Univ. Lyon 2)
  • Sylvain Le Corff (Sorbonne Université)
  • Myriam Tami (CentraleSupélec)

 

Nom de l'accordéon
9h - 10h | Keynote 1 : Radu Stoica (Inria Nancy, Institut Elie Cartan de Lorraine)
Texte dans l'accordéon

Random structures and patterns in spatial data
through marked point processes with interactions

Résumé : les informations utiles contenues dans les données spatio-temporelles sont souvent représentées par des structures et des motifs géométriques. structures et motifs géométriques. Les filaments ou amas de galaxies dans notre univers en sont un exemple. Les filaments ou amas de galaxies dans notre univers en sont un exemple. Deux situations doivent être prises en compte. Premièrement, le motif intéressant est caché dans l'ensemble des données, et il doit donc être détecté. Deuxièmement, la structure d'intérêt est observée, et il convient donc de la caractériser de manière pertinente. La modélisation probabiliste et l'inférence statistique bayésienne sont des approches qui peuvent apporter des réponses à ces questions. Cet exposé présente l'utilisation de processus ponctuels marqués pour la détection et la caractérisation de telles structures. Des processus ponctuels marqués avec des interactions sont utilisés pour modéliser le modèle d'intérêt. Les modèles proposés sont bien définis et localement stables. En fonction du modèle, des algorithmes de Monte Carlo et des algorithmes exacts sont discutés pour simuler les modèles proposés. Sur la base de ces ingrédients, une optimisation globale et un algorithme d'échantillonnage a posteriori sont présentés pour détecter et caractériser le modèle d'intérêt, respectivement.  Des exemples d'application en astronomie et en sciences de l'environnement sont également présentés.

Biographie : Radu S. Stoica est professeur titulaire de mathématiques à l'université de Lorraine (France). Ses recherches combinent la géométrie stochastique, les statistiques spatiales et l'inférence bayésienne pour la modélisation probabiliste et la description statistique de structures et de modèles aléatoires. Les résultats de ses travaux consistent en des méthodes adaptées aux données, basées sur des modèles de Gibbs-Markov, des algorithmes de Monte Carlo et des procédures d'inférence, capables de caractériser et de détecter des structures et des modèles qui sont soit cachés, soit directement observés dans les données. Les domaines d'application abordés sont : l'astronomie, les géosciences, l'analyse d'images et les sciences des réseaux. Avant d'occuper son poste actuel, Radu Stoica était professeur associé à l'université de Lille (France). Il a également travaillé comme chercheur à l'INRAe d'Avignon (France), à l'université Jaume I (Espagne) et au CWI d'Amsterdam (Pays-Bas).

Corps de texte

10h - 10h30 | Pause café

Nom de l'accordéon
10h30 - 11h30 | Keynote 2 : Pietro Congedo (Inria Saclay, CMAP)
Texte dans l'accordéon

Uncertainty Quantification in scientific computing:
A machine learning perspective

Résumé : La quantification des incertitudes (QI) en informatique scientifique vise à analyser rigoureusement et à atténuer l'impact des incertitudes dans les modèles mathématiques et les simulations. Ses objectifs comprennent l'identification, la propagation et la réduction des incertitudes provenant de diverses sources telles que les entrées de modèles, les paramètres et les observations afin d'évaluer leur influence sur les résultats des calculs. L'intégration de l'apprentissage automatique dans ce contexte a ouvert de nouvelles possibilités, conduisant à des avancées substantielles. Cependant, elle présente également des défis importants, en particulier en ce qui concerne l'utilisation, l'interprétation et la fiabilité. Dans cet exposé, nous commençons par passer en revue les directions les plus prometteuses pour le développement en revisitant les tâches principales de l'UQ, allant de la propagation vers l'avant aux problèmes d'étalonnage. Ensuite, nous démontrons comment concevoir un schéma numérique hybride qui associe un solveur traditionnel de dynamique des fluides à un réseau neuronal pour approximer les réactions chimiques. Cette approche exploite les forces des réseaux neuronaux, notamment leur précision, leurs capacités de réduction de la dimensionnalité dans les contextes de données volumineuses et leur efficacité de calcul due à leur structure matrice-vecteur, ce qui se traduit par des facteurs d'accélération significatifs. Nous appliquons ce schéma hybride rentable aux simulations de rentrée hypersonique. Enfin, nous illustrons comment l'incertitude du modèle peut être réduite grâce à des stratégies de calibration et d'apprentissage actif, en présentant des exemples concrets d'applications aérospatiales.

Biographie : Pietro Marco Congedo est directeur de recherche Inria au Centre de mathématiques appliquées de l'École polytechnique, chef de l'équipe-projet Inria PLATON (en collaboration avec l'École polytechnique et le CNRS) et directeur scientifique du Joint CWI-Inria International Lab. Il est diplômé avec mention en ingénierie des matériaux de l'université de Lecce (Italie). Après une maîtrise en mécanique des fluides aux Arts et Métiers (Paris, France), il a obtenu son doctorat en systèmes énergétiques à l'université de Lecce en 2007. Il possède une vaste expérience dans la quantification de l'incertitude et les méthodes d'optimisation robustes pour le calcul scientifique, avec des applications dans l'aéronautique, l'hypersonique et les écoulements de gaz réels. Il a participé à plusieurs projets Horizon Europe et CleanSky, ainsi qu'à d'importantes collaborations industrielles.

Ancre
11h30 - 12h30 | Short contributive talks (4x15mn)
Corps de texte
  • Julien MARTINELLI (Inserm Bordeaux Population Health), Post-doctorant
    Multi-Fidelity Bayesian Optimization with Unreliable Information Sources
    Bayesian optimization (BO) is a powerful framework for optimizing black-box, expensive-to-evaluate functions. Over the past decade, many algorithms have been proposed to integrate cheaper, lower-fidelity approximations of the objective function into the optimization process, with the goal of converging towards the global optimum at a reduced cost. This task is generally referred to as multi-fidelity Bayesian optimization (MFBO). However, MFBO algorithms can lead to higher optimization costs than their vanilla BO counterparts, especially when the low-fidelity sources are poor approximations of the objective function, therefore defeating their purpose. To address this issue, we propose rMFBO (robust MFBO), a methodology to make any GP-based MFBO scheme robust to the addition of unreliable information sources. rMFBO comes with a theoretical guarantee that its performance can be bound to its vanilla BO analog, with high controllable probability. We demonstrate the effectiveness of the proposed methodology on a number of numerical benchmarks, outperforming earlier MFBO methods on unreliable sources. We expect rMFBO to be particularly useful to reliably include human experts with varying knowledge within BO processes.


  • Dimitrios TZIVRAILLIS (CEA List, CNRS LPTMS), Post-doctorant
    Uncertainty in AI Driven Physical Simulation
    AI has significantly impacted scientific research, particularly in physics and chemistry. A major challenge in these fields is efficiently sampling physical configurations in complex systems to compute observable quantities. The primary bottleneck in such numerical simulations is often the costly computation of energies and forces for these samples, with interatomic potentials being a well-known example. Deep learning models have been employed to accelerate these simulations by learning to predict these computationally expensive quantities. In this work, we examine the reliability of this approach through the lens of AI uncertainty. Specifically, we show that despite strong training performance, AI models introduce epistemic uncertainty into physical simulations, leading to biases in the computation of physical observables. To address this issue, we develop a technique that corrects these biases, overcoming a key limitation in the deployment of AI for numerical simulations in physics.


  • Paul MANGOLD (Ecole Polytechnique), Post-doctorant
    Convergence and Linear Speed-Up In Stochastic Federated Learning
    In federated learning, multiple users collaboratively train a machine learning model without sharing local data. To reduce communication, users perform multiple local stochastic gradient steps that are then aggregated by a central server. However, due to data heterogeneity, local training introduces bias. In this talk, I will present a novel interpretation of the Federated Averaging algorithm, establishing its convergence to a stationary distribution. By analyzing this distribution, I will show that the bias consists of two components: one due to heterogeneity and another due to gradient stochasticity. I will then extend this analysis to the Scaffold algorithm, demonstrating that it effectively mitigates heterogeneity bias but not stochasticity bias. Finally, I will show that both algorithms achieve linear speed-up in the number of agents, a key property in federated stochastic optimization.


  • Ragansu CHAKKAPPAI (IJCLab, Université Paris-Saclay), Doctorant
    An implementation of neural simulation-based inference for parameter estimation in ATLAS
    Neural simulation-based inference (NSBI) is a powerful class of machine-learning-based methods for statistical inference that naturally handles high-dimensional parameter estimation without the need to bin data into low-dimensional summary histograms. Such methods are promising for a range of measurements, including at the Large Hadron Collider, where no single observable may be optimal to scan over the entire theoretical phase space under consideration, or where binning data into histograms could result in a loss of sensitivity. This work develops a neural simulation-based inference framework for statistical inference, using neural networks to estimate probability density ratios, which enables the application to a full-scale analysis. It incorporates a large number of systemic uncertainties, quantifies the uncertainty due to the finite number of events in training samples, develops a method to construct confidence intervals, and demonstrates a series of intermediate diagnostic checks that can be performed to validate the robustness of the method. As an example, the power and feasibility of the method are assessed on simulated data for a simplified version of an off-shell Higgs boson couplings measurement in the four-lepton final states at the Large Hadron Collider.
    This talk will cover https://arxiv.org/abs/2412.01600, which itself details the NSBI technique developped for https://arxiv.org/abs/2412.01548 which is the first use of NSBI at the LHC. 
Corps de texte

12h15 - 13h45 | Pause déjeuner

Nom de l'accordéon
13h45 - 14h45 | Keynote 3 : Yingzhen Li (Imperial College London, UK)
Texte dans l'accordéon

On “Modernising” Sparse Gaussian Processes

Résumé : Les processus gaussiens (PG) sont largement utilisés pour les tâches de modélisation probabiliste, par exemple l'optimisation bayésienne, la modélisation spatio-temporelle, etc. En ce qui concerne les efforts déployés pour introduire les GP dans l'apprentissage automatique, des GP clairsemés sont proposés depuis Snelson et Ghahramani (2005) pour réduire la complexité de calcul cubique pour l'inférence a posteriori, et des développements ultérieurs ont permis de mieux les adapter aux tâches d'apprentissage automatique à grande échelle. Des efforts ont également été déployés pour introduire les GP dans le monde de l'apprentissage profond, avec notamment l'apprentissage profond par noyau et les GP profonds. Cependant, les modèles d'apprentissage profond de pointe ont également progressé de manière significative, avec de nouvelles architectures basées sur l'attention et des réseaux neuronaux récurrents rénovés. Dans cet exposé, je décrirai nos travaux publiés et en cours visant à « moderniser » les GPs épars en se basant sur les connaissances tirées des architectures contemporaines de réseaux neuronaux profonds. Plus précisément, je montrerai (1) comment convertir une architecture Transformer standard en un Deep GP, et (2) comment construire une mémoire récurrente pour un Sparse GP en ligne en utilisant le cadre HiPPO (qui motive les modèles linéaires d'espace d'état comme un module de mémoire pour les RNN rénovés).

Biographie : Yingzhen Li est maître de conférences en apprentissage automatique à l'Imperial College de Londres, au Royaume-Uni. Auparavant, elle a travaillé chez Microsoft Research Cambridge et Disney Research. Elle a obtenu son doctorat à l'université de Cambridge. Yingzhen est passionnée par la construction de systèmes d'apprentissage automatique fiables à l'aide de méthodes probabilistes. Les travaux qu'elle a publiés ont été appliqués à des systèmes industriels et mis en œuvre dans des cadres d'apprentissage profond populaires. Elle est régulièrement invitée à participer à des conférences internationales sur l'apprentissage automatique et à des cours d'été sur l'apprentissage automatique, et elle a donné un tutoriel sur l'inférence approximative à NeurIPS 2020. Son travail sur l'apprentissage bayésien a également été reconnu par l'AAAI 2023 New Faculty Highlights. Elle a co-organisé de nombreux ateliers de recherche internationaux sur l'inférence probabiliste et les modèles génératifs profonds. Elle est régulièrement présidente de domaine pour ICML, ICLR et NeurIPS, et elle est présidente de programme pour AISTATS 2024 et présidente générale pour AISTATS 2025.

Corps de texte

14h45 - 15h30 | Pause goûter

Ancre
15h30 - 17h | Short contributive talks (6x15mn)
Corps de texte
  • Diarra FALL (Université d'Orléans, Institut Denis Poisson)
    Bayesian formulation of Regularization by Denoising. Application to Image Restoration.
    Inverse problems are ubiquitous in signal and image processing. Canonical examples include signal/image denoising (i.e, removing noise from a signal/image) and image reconstruction. As inverse problems are known to be ill-posed or at least, ill-conditioned, they require regularization by introducing additional constraints to mitigate the lack of information brought by the observations. A common difficulty is to select an appropriate regularizer, which has a decisive influence on the quality of the reconstruction. Another challenge is the confidence we may have in the reconstructed signal/image. To put it another way, it is desirable for a method to be able to quantify the uncertainty associated with the reconstructed image in order to encourage more principled decision-making. These two tasks (regularization and uncertainty quantification) can be overcome at the same time by addressing the problem within the Bayesian statistical framework. It allows to include additional information by specifying a marginal distribution for the signal/image, known as prior distribution.  The traditional approach consists in defining the prior analytically, as a hand-crafted explicit function chosen to encourage specific desired properties of the recovered signal/image. Following the up-to-date surge of deep learning, data-driven regularization using priors specified by neural networks has become ubiquitous in signal and image inverse problems. Popular approaches within this methodology are Plug & Play (PnP) [1] and regularization by denoising (RED) [2] methods. We have proposed in [3] a probabilistic approach to the RED method, defining a new probability distribution based on a RED potential, which can be chosen as the prior distribution in a Bayesian inversion task. We have also proposed a dedicated Markov chain Monte Carlo sampling algorithm that is particularly well suited to high-dimensional sampling of the resulting posterior distribution. In addition, we provide a theoretical analysis that guarantees convergence to the target distribution, and quantify the speed of convergence. The power of the proposed approach is illustrated in various restoration tasks such as image deblurring, inpainting, and super-resolution.
    [1] S. V. Venkatakrishnan et al. « Plug-and-Play priors for model based reconstruction ». In IEEE Global Conf. on Signal and Information Processing, pp 945-948, 2013.
    [2]Y. Romano, M. Elad, and P. Milanfar, « The little engine that could:
    Regularization by denoising (RED), » SIAM Journal on Imaging Sciences, 10(4):1804–1844, 2017
    [3] E. C. Faye, M. D. Fall, and N. Dobigeon. « Regularization by denoising: Bayesian model and Langevin-within-split Gibbs sampling », IEEE Transactions on Image Processing,  vol 34, pages 221-234, 2024


  • Antonio OCELLO (Ecole Polytechnique, CMAP), Post-doctorant
    Finite-Sample Convergence Bounds for Trust Region Policy Optimization in Mean Field Games
    In this talk, we introduce Mean Field Trust Region Policy Optimization (MF-TRPO), a novel algorithm designed to compute approximate Nash equilibria for ergodic Mean Field Games (MFGs) in finite state-action spaces. Building on the well-established performance of TRPO in the reinforcement learning (RL) setting, we extend its methodology to the MFG framework, leveraging its stability and robustness in policy optimization. Under standard assumptions in the MFG literature, we provide a rigorous analysis of MF-TRPO, establishing theoretical guarantees on its convergence. Our results cover both the exact formulation of the algorithm and its sample-based counterpart, where we derive high-probability guarantees and finite sample complexity.


  • Violaine COURRIER (Inria Lille, Withings), Doctorante en thèse CIFRE
    Guided Clustering Variational Autoencoder (GCVAE) : un cadre flexible pour un clustering guidé
    Le Guided Clustering Variational Autoencoder (GCVAE) est un modèle de clustering qui intègre une "variable guide" dans un cadre d'autoencodeur variationnel (VAE) couplé à un mélange gaussien (GMM). Cette architecture permet de : préserver la structure intrinsèque des données d'entrée tout en permettant leur clustering contextuel via une variable guide, maintenir la capacité de clusterisation même en l'absence de la variable guide, améliorer l'interprétabilité des clusters grace à une variable guide, quantifier efficacement les incertitudes grâce à la nature probabiliste du VAE, qui associe chaque échantillon à une distribution latente, permettant d'estimer la probabilité d'appartenance à un cluster donné et de quantifier l'incertitude associée à cette affectation. L'efficacité du GCVAE est montrée à travers deux expériences :
    1. Images MNIST-SVHN : la variable contextuelle MNIST guide le clustering des images SVHN, illustrant la capacité du modèle à s’appliquer à des données complexes. 2. Données de sommeil Withings : sur des données réelles de sommeil de l’entreprise Withings, le modèle révèle des insights pertinents sur les facteurs de risque liés à l'apnée du sommeil. Les résultats expérimentaux montrent que le GCVAE améliore significativement la pertinence et l'interprétation des clusters, tout en offrant un cadre pour la quantification des incertitudes.


  • Ulysse GAZIN (Université Paris-Cité, LPSM), Doctorant en 2ème année
    Asymptotics for Conformal Inference
    Conformal inference is a versatile tool for building prediction sets in regression or classification. We study the false coverage proportion (FCP) in a transductive setting with a calibration sample of n points and a test sample of m points. We identify the exact, distribution-free, asymptotic distribution of the FCP when both n and m tend to infinity. This shows in particular that FCP control can be achieved by using the well-known Kolmogorov distribution, and puts forward that the asymptotic variance is decreasing in the ratio n/m. We then provide a number of extensions by considering weighted conformal inference  and distribution shift between the calibration sample and the test sample, wich are regime where no finite sample guarantee are known up to our knowledge.
    In particular, our  asymptotic results allow to accurately quantify the asymptotic behavior of the errors when weighted conformal inference is used even with a non-oracle weight. These results can also be used in the novelty detection framework when the Benjamini-Hochberg procedure is used with conformal p-values. This talk is based on the following publication: https://hal.science/hal-04701683.


  • Jaad BELHOUARI-DURAND (Université d'Evry, Saint-Gobain Recherche), Etudiant en M2 Data Science
    Beta-Optim : Combining Frequentist and Bayesian Approaches for Uncertainty Quantification in Multi-Output Regression Problems
    In this work, we present a novel methodology for uncertainty quantification in multi-output regression problems, leveraging the strengths of both frequentist and Bayesian approaches. Our method integrates Bayesian networks, Conformal prediction, and Monte Carlo techniques to rigorously analyze and calibrate predictive models. We employ TensorFlow Probability to implement our Bayesian framework, ensuring robust and scalable computations. A key innovation of our approach is the development of new methods for simultaneous prediction intervals when outputs are in multiple dimensions. These intervals provide comprehensive uncertainty estimations for all outputs, enhancing the reliability of predictions in complex, high-dimensional settings. We demonstrate the efficiency of our method through a concrete example involving an internal use case, showcasing its practical applicability and performance. This work contributes to the field by providing a robust framework for uncertainty quantification in multi-output regression problems, with significant implications for both academic research and practical applications. Our method uses a normalized conformity score and a new objective function to optimize, adjusting the local error rate (beta) to achieve a desired global error rate (alpha). Additionally, our research highlights the adaptability of the prediction intervals provided by our method. These intervals are shorter in width compared to other state-of-the-art methods such as CQR, demonstrating the efficiency and precision of our approach.


  • Yukun LIU (Télécom Paris), Doctorant en 1ère année
    Uncertainty Quantification in Electromagnetic Field Exposure Assessment with Neural Networks
    Characterizing electromagnetic field (EMF) exposure is essential due to public concerns over potential health risks, regulatory compliance, environmental monitoring, and its influence on emerging technologies. Effectively assessing EMF exposure requires not only estimating a confidence interval but also addressing uncertainties arising from intractable inputs. Therefore, quantifying uncertainty and analyzing the influence of various inputs are critical for accurate exposure assessment. In this study, we investigate the performance and limitations of neural network-based methods for uncertainty quantification and conduct a comparative analysis with statistical surrogate models.