Catégorie
Conferences / Workshops

WORKSHOP | "Fondements Mathématiques de l'IA"

Bandeau image
WORKSHOP | "Fondements Mathématiques de l'IA"
Date de tri
Lieu de l'événement
Sorbonne Center for AI (SCAI), 4 place Jussieu, 75005 Paris

Share

twlkml
Chapo
Rendez-vous le 17 juin dans les locaux de SCAI (Paris), pour la troisième édition de la journée consacrée aux fondements des mathématiques de l'IA !
Contenu
Corps de texte

Inscriptions clôturées !

 

La journée “Fondements Mathématiques de l’IA”, organisée conjointement par l'Institut DATAIA et SCAI, en association avec les sociétés scientifiques : la Fondation Mathématique Jacques Hadamard (FMJH), la Fondation Sciences Mathématiques de Paris-FSMP, le groupe MALIA de la Société Française de Statistique et la Société Savante Francophone d'Apprentissage Machine (SSFAM) vise à proposer un panorama de quelques directions de recherche prometteuses à l’interface entre l’apprentissage statistique et l’IA.

Cette nouvelle édition sera consacrée aux mathématiques de l'intelligence artificielle explicable, avec un focus sur trois points de vue : la causalité, les valeurs de Shapley et les mécanismes d'attention. La journée est consacrée à quatre exposés donnés par des chercheurs renommés et spécialistes du sujet. Elle est aussi l'opportunité pour de jeunes chercheurs de présenter leurs travaux via des posters ou des exposés courts (cf. appel à contributions).


 

Comité d'organisation

  • Marianne Clausel (Univ. Lorraine)
  • Emilie Chouzenoux (INRIA Saclay, Institut DATAIA)

 

Comité scientifique

  • Ricardo Borsoi (CNRS, CRAN)
  • Stéphane Chrétien (Univ. Lyon 2)
  • Sylvain Le Corff (Sorbonne Université)
  • Myriam Tami (CentraleSupélec)

 

Informations pratiques

Plan d'accès au Centre International de Conférences, salles 108 et 102, 4 place Jussieu - 75005 Paris

Nom de l'accordéon
9h - 10h | Keynote 1 : Julie Josse (Inria Montpellier)
Texte dans l'accordéon

Titre : Leveraging causal inference to generalize trial results to diverse population

Résumé : Les essais contrôlés randomisés (ECR) sont essentiels à la médecine factuelle, car ils permettent d'estimer les effets moyens d'un traitement en évitant les facteurs de confusion. Cependant, les limitations des ECR - critères d'éligibilité stricts, manque de praticité dans le monde réel et taille réduite des échantillons - menacent leur généralisation à des populations diverses. Dans cet exposé, je présenterai tout d'abord les méthodes de transportabilité en intégrant des données d'observation non randomisées pour étendre les résultats des essais à d'autres populations, potentiellement confrontées à des changements de distribution. Ensuite, je me concentrerai sur la mesure causale la plus facile à généraliser, qu'elle soit absolue comme la différence de risque ou relative comme le rapport de risque, le rapport des cotes, etc. En particulier, je démontrerai que seule la différence de risque permet de distinguer l'effet du traitement du risque de base, tant au niveau de la population que des strates.

Biographie : Julie Josse est actuellement chercheur senior à Inria et dirige l'équipe commune Inria-Inserm Premedical, dédiée à l'avancement de la médecine de précision grâce à l'intégration de données et aux méthodologies d'apprentissage causal. Auparavant, elle a été professeur de statistiques à l'École polytechnique (IPP) et a mené des recherches en tant que chercheur invité chez Google. Ses recherches portent sur le développement de méthodes de traitement des données manquantes, l'apprentissage automatique causal et la quantification de l'incertitude. Elle a plus de dix ans d'expérience en matière de collaboration avec des cliniciens dans divers domaines. Elle a notamment dirigé le projet Traumatrix, qui vise à déployer des systèmes d'aide à la décision basés sur l'apprentissage automatique dans les ambulances françaises afin d'améliorer les soins prodigués aux patients. En outre, elle contribue activement à la communauté du logiciel statistique R en tant que membre de sa fondation.

Corps de texte
  • 10h - 10h30 | Pause café

Nom de l'accordéon
10h30 - 11h30 | Keynote 2 : Victor Elvira (Univ. Edimburgh)
Texte dans l'accordéon

Titre : State-space models as graphs

Résumé : Modeling and inference in multivariate time series is central in statistics, signal processing, and machine learning. A fundamental question when analyzing multivariate sequences is the search for relationships between their entries (or the modeled hidden states), especially when the inherent structure is a directed (causal) graph. In such context, graphical modeling combined with sparsity constraints allows to limit the proliferation of parameters and enables a compact data representation which is easier to interpret in applications, e.g., in inferring causal relationships of physical processes in a Granger sense. In this talk, we present a novel perspective consisting on state-space models being interpreted as graphs. Then, we propose novel algorithms that exploit this new perspective for the estimation of the linear matrix operator and also the covariance matrix in the state equation of a linear-Gaussian state-space model. Finally, we discuss the extension of this perspective for the estimation of other model parameters in more complicated models.

Biographie : Victor Elvira est professeur titulaire d'une chaire personnelle en statistique et science des données à l'École de mathématiques de l'Université d'Édimbourg depuis 2023. Auparavant, il a été Lecturer (2019-2023) et directeur du Centre for Statistics (2022) également à l'Université d'Édimbourg (Royaume-Uni). De 2016 à 2019, il a été maître de conférences à l'école d'ingénieurs IMT Lille Douai (France). De 2013 à 2016, il a été professeur assistant à l'Université Carlos III de Madrid (Espagne). Il a également été chercheur invité dans plusieurs institutions telles que l'Université de Columbia (États-Unis), l'Université de Sydney (Australie) et l'Université Paris-Dauphine (France). Victor Elvira a obtenu son doctorat en traitement statistique des signaux en 2011 à l'Université de Cantabrie (Espagne). Il est coauteur de plus de 120 articles publiés dans des revues et des conférences avec comité de lecture. Ses recherches portent principalement sur les statistiques informatiques, le traitement statistique du signal et l'apprentissage automatique probabiliste, en particulier l'inférence bayésienne et les méthodes de Monte Carlo, avec différentes applications, notamment les réseaux de capteurs, les communications sans fil, le suivi des cibles, l'écologie, et la médecine. Il est Fulbright Fellow, Marie Curie Fellow, Leverhulme Fellow, Alan Turing Fellow, et est membre senior de la société savante IEEE.

Corps de texte
  • 11h30 - 12h15 | Short contributive talks (20mn)

- Giovanni Ballarin (U. Manheim) - Shapley Value Analysis of Reservoir Systems
- Julie Alberge (Inria Saclay, équipe SODA) - Teaching Models to Survive: Proper Scoring Rule and Stochastic Optimization with Competing Risks
- Arthur Stephanovitch (LPSM) - Wasserstein GANs are Minimax Optimal Distribution Estimators

  • 12h15 - 13h45 | Pause déjeuner

Nom de l'accordéon
13h45 - 14h45 | Keynote 3 : Damien Garreau (Universität Würzburg)
Texte dans l'accordéon

Titre : Attention Meets Post-hoc Interpretability: A Mathematical Perspective

Résumé : Les architectures basées sur l'attention, en particulier les transformateurs, sont au cœur d'une révolution technologique. Il est intéressant de noter qu'en plus d'aider à obtenir des résultats de pointe dans un large éventail d'applications, le mécanisme d'attention fournit intrinsèquement des informations significatives sur le comportement interne du modèle. Ces informations peuvent-elles être utilisées comme explications ? Le débat fait rage. Dans cet exposé, je présenterai une architecture simple basée sur l'attention et je mettrai en évidence les différences entre les explications post-hoc et les explications basées sur l'attention pour ce modèle.

Preprint

Biographie : Damien Garreau est professeur à l'université Julius-Maximilians (Würzburg). Ses recherches portent sur les aspects théoriques de l'apprentissage automatique, et plus particulièrement sur l'explicabilité. Avant de rejoindre l'université Julius-Maximilians, il a été professeur associé à l'Université Côte d'Azur (Nice) et chercheur postdoctoral à l'Institut Max-Planck pour les systèmes intelligents (Tübingen). Il a soutenu son doctorat à l'université Paris Sciences et Lettres.

Corps de texte
  • 14h45 - 15h30 | Pause goûter

Nom de l'accordéon
15h30 - 16h30 | Keynote 4 : Luis Galárraga (Inria Rennes)
Texte dans l'accordéon

Titre : Challenges in Interpretable and Explainable AI: From Faithful to Human-friendly Explanations

Résumé : The nowadays impressive feats of AI and its prevalence in many domains of society owe credit, among other factors, to the continous advances in machine learning, specially deep learning techniques. However, all these capabilities have come at the expense of transparency as sophisticated machine learning approaches are actual black boxes. This opaqueness can lead to technical, ethical, and legal issues, particularly in high-stakes domains such as medicine or justice. All this, in combination with the adoption of the General Data Protection Regulation (GDPR) in Europe, has fueled the research in eXplainable and interpretable AI. Techniques in this novel subfield range from original white-box algorithms to post-hoc explainability layers. In this talk I will survey the most relevant approaches in eXplainable AI with emphasis in the numerous open challenges and the need for further research in the human aspects of explaining AI-based recommendations.

Biographie : Luis Galárraga est chargé de recherche au centre Inria de Rennes qu'il a rejoint en 2017. Ses recherches se situent à la croisée de trois axes : le pattern mining, les graphes de connaissances et l'IA explicable. Il s'intéresse particulièrement aux approches de fouille de règles sur de grands graphes de connaissances, ainsi qu'à la gestion de provenance sur les graphes de type RDF. Ses travaux sur l'IA explicable se concentrent à la fois sur les dimensions fonctionnelles et humaines des explications des modèles d'IA boîte noire entraînés sur différents types de données (exm : tabulaires, séries temporelles, graphes, etc). Le but ultime de ses recherches est de produire des explications fidèles et stables, mais également dignes de confiance et parfaitement compréhensibles pour leurs utilisateurs finaux.

Corps de texte
  • 16h30 - 17h30 | Short contributive talks (20mn)

- Pierre Hulot (AI-vidence)
- Serge Durand (CEA Saclay) - On the Explainability of Provably Robust Models
- Jules Soria (CEA Saclay) - Facet Adversarial Attack