Catégorie
Other seminars

27 juin au 8 juillet 2022 - Trimestre Thématique - Programme Artificial Intelligence (AI) for Signal and Image Processing

Bandeau image
Date de tri
Lieu de l'événement
Institut Pascal - Université Paris-Saclay

Partager

twlkml
Chapo
L’objectif du programme thématique, soutenu par l'Institut DATAIA, est de rassembler des chercheurs en traitement du signal et de l’image et en apprentissage statistique (machine learning) afin de renforcer les liens entre les deux communautés.
Contenu
Ancre
Le programme AI4SIP
Corps de texte

Le programme de 2 semaines vise à offrir une opportunité aux chercheurs et en particulier aux jeunes chercheurs (par exemple, PhD étudiants, stagiaires postdoctoraux) pour apprendre la théorie sous-jacente et les concepts abordés dans le programme, pour partager leurs connaissances et de développer de nouvelles collaborations.

Sujets

  • 1. Théorie et méthodes de traitement du signal
  • 2. L'évaluation empirique des algorithmes sur des ensembles de données ouvertes
  • 3. Défis liés aux données et sprints de codage pour le développement de logiciels open source
  • 4. Clubs de lecture visant à étudier la littérature et à faire des recommandations sur des problèmes spécifiques.

Une liste non exhaustive de sujets de recherche scientifique a été préalablement esquissée lors du programme IPa « teasing journée », tenue en septembre 2021.

Comités scientifiques et d'organisation

Comité scientifique : E. Chouzenoux (Inria Paris-Saclay), A. Desolneux (ENS Paris-Saclay), A. Gramfort (Inria Paris-Saclay), A. Kazeykina (Université Paris-Saclay), M. Kowlaski (Université Paris-Saclay).

Comité d'organisation : P. Ciuciu (CEA), F. Pascal (CentraleSupélec), C. Soussen (CentraleSupélec), B. Thirion (Inria Paris- Saclay).

En savoir plus
Ancre
5 juillet : Séminaire grand public "Rapture of the deep"
Corps de texte

AI4SIP

À l'occasion de ce programme thématique, une conférence sur le thème "Rapture of the deep: highs and lows of sparsity in a world of depths" se tiendra à l'Institut Pascal et sera ouverte au grand public. Ce séminaire sera animé par Rémi GRIBONVAL, Directeur de Recherche INRIA.

Sujet de cette conférence

Tenter de promouvoir la faible concentration dans les réseaux profonds est naturel pour contrôler leur complexité, et on peut s'attendre à ce que cela apporte d'autres avantages en termes de signification statistique ou d'explicabilité. Pourtant, si les régularisateurs favorisant la faible concentration sont bien connus dans les problèmes inverses linéaires, on en sait beaucoup moins dans des contextes plus profonds, linéaires ou non. Nous montrons que, contrairement au cas linéaire, même le cadre bilinéaire simple conduit à des surprises : la régularisation ℓ1 ne conduit pas toujours à la faible concentration [1], et l'optimisation avec un support fixe peut être NP-hard [2]. Nous identifions néanmoins des familles de supports pour lesquelles cette optimisation devient facile [2] et bien posée [3], et nous l'exploitons pour dériver un algorithme capable de récupérer des factorisations de matrices éparses multicouches avec certains supports prescrits (papillons) à un coût proportionnel à la taille de la matrice approximée [4,5]. Derrière la plupart des phénomènes observés se trouvent des ambiguïtés d'échelle intrinsèques dans la paramétrisation des réseaux linéaires profonds, qui sont également présentes dans les réseaux ReLU. Nous concluons avec un encastrement invariant d'échelle de tels réseaux [6], qui peut être utilisé pour analyser l'identifiabilité des (la classe d'équivalence des) paramètres des réseaux ReLU à partir de leur réalisation.

[1] A. Benichoux, E. Vincent, R. Gribonval, A fundamental pitfall in blind deconvolution with sparse and shift-invariant priors, Proc. ICASSP 2013.
[2] Q.T. Le, E. Riccietti, R. Gribonval, Spurious Valleys, Spurious Minima and NP-hardness of Sparse Matrix Factorization With Fixed Support, 2021, arXiv:2112.00386.
[3] L. Zheng, E. Riccietti, R. Gribonval, Identifiability in Two-Layer Sparse Matrix Factorization, 2021, arXiv:2110.01235.
[4] Q.T. Le, L. Zheng, E. Riccietti, R. Gribonval, Fast learning of fast transforms, with guarantees, Proc. ICASSP 2022
[5] L. Zheng, E. Riccietti, R. Gribonval, Efficient Identification of Butterfly Sparse Matrix Factorizations, 2022, arXiv:2110.01230
[6] P. Stock, R. Gribonval, An Embedding of ReLU Networks and an Analysis of their Identifiability, to appear in Constructive Approximation

Rendez-vous le 5 juillet à 17h30, à l'Institut Pascal !