[🗣️ SÉMINAIRE] Centre d'Alembert : penser et agir autrement avec l'Intelligence Artificielle ?
![[🗣️ SÉMINAIRE] Centre d'Alembert : penser et agir autrement avec l'Intelligence Artificielle ?](/sites/default/files/2025-02/Alembert%20IA.png)
Penser et agir autrement avec l’Intelligence Artificielle ?
L’Intelligence Artificielle (IA) est parfois présentée comme la solution à venir pour des problèmes trop complexes pour être adéquatement appréhendés par l’être humain, ou bien considérée comme une façon d’échapper à des tâches rébarbatives et inutilement couteuses, y compris dans les activités de recherche. L’IA serait aussi une aide à la décision performante, capable d’accélérer nos choix, indispensable pour réduire les hésitations inutiles et les erreurs dangereuses, comme dans le domaine médical. Elle ouvrirait la voie à de nouvelles façons d’appréhender les données nombreuses et disparates.
Inversement, l’IA est aussi source de craintes multiples et de critiques sérieuses. Elle est accusée d’être une source de destruction d’emplois, de générer un travail avilissant pour entrainer l’apprentissage de ce type d’outil. Des études ont montré que l’IA perpétuait souvent les stéréotypes et favorisait donc la reproduction de tendances critiquables, voire les amplifiait. En plus de son cout social, elle aurait un cout environnemental non négligeable du fait des nombreux serveurs nécessaires pour son entrainement et son fonctionnement. La diffusion de l’IA dans le milieu académique, comme dans la vie de tous les jours, interroge.
L’utilisation croissante de l’Intelligence Artificielle dans la société et dans le monde de la recherche conduit-elle à des changements de pratiques profonds et à des méthodes de validation nouvelles ? En recherche, n’est-elle qu’un moyen d’accéder plus facilement à des financements ou un outil fécond pour élaborer des connaissances avec des approches différentes ? Quelles incertitudes, quelles reproductibilités, quels impacts environnementaux directs et indirects, quelles responsabilités, quels droits d’auteurs découlent de l’usage de l’IA ? L’IA est-elle un pas en direction de l’affaiblissement de la réduction des libertés, de la reproduction amplifiée des stéréotypes et des pratiques préexistantes, de la diminution de la créativité ou une révolution qui améliorera les conditions de vie de tous ?
Cycle de séminaires organisés par l'Université Paris-Saclay, avec le soutien de la MSH Paris-Saclay.
Daniel Andler est professeur émérite de l'Université de la Sorbonne, il a été titulaire de la chaire de philosophie des sciences et d’épistémologie de l’Université Paris-Sorbonne (Paris IV). Il travaille au Département d’études cognitives qu’il a fondé à l’Ecole normale supérieure en 2001. Il est membre honoraire de l’Institut universitaire de France. En décembre 2016, il a été élu à l’Académie des sciences morales et politiques. L’intelligence artificielle : ce qu’elle vise, ce qu’elle fait Après avoir connu des hauts et des bas, l’intelligence artificielle semble inscrite désormais sur une trajectoire victorieuse : rien ne semble pouvoir lui échapper. Non seulement elle conquiert, l’un après l’autre, des domaines — les échecs, le jeu de go, la science, l’organisation du quotidien, la gestion des villes, la diffusion de l’information, l’art de la guerre — qui ont longtemps semblé réservés à l’intelligence humaine, mais avec ChatGPT et l’IA générative, elle semble en mesure de la rattraper d’un coup d’un seul. L’intelligence artificielle oscille depuis l’origine entre trois conceptions. Selon la première, aujourd'hui minoritaire, elle est liée à l’intelligence humaine à la manière dont une copie est liée à ce dont elle est copie ; selon la deuxième, plus largement acceptée, elle n’a pour ambition que de se substituer peu à peu à l’intelligence humaine, permettant peut-être à terme de s’en passer complètement. Ces conceptions reposent sur une méprise : les produits de l’IA n’appartiennent pas à la même catégorie d’entités que l’intelligence humaine. Ils sont impressionnants, ils peuvent être utiles et dangereux. Mais ce sont des outils, ce ne seront jamais des collègues : cette troisième conception nous met à l’abri d’illusions qui constituent elles-mêmes un danger.
Fabrice Flipo est professeur de philosophie, travaillant dans le domaine des sustainability studies. Il est chercheur au Laboratoire de Changement Social de l'Université de Paris Cité. Il s'intéresse notamment aux infrastructures écologiques du numérique, avec Peut-on croire aux TIC vertes ? (Presses des Mines, 2009), L'impératif de la sobriété numérique (Matériologiques, 2020). Ecologie de l'infrastructure numérique Alors que Google avait un objectif de neutralité carbone, l'IA a fait grimper ses émissions de 50%. Le secteur du numérique est aujourd'hui celui qui a la pire trajectoire de tous, en termes de GES. Il pourrait tripler ses émissions d'ici 25 ans, voire davantage si l'efficacité énergétique ralentit. Alors que les catastrophes climatiques se multiplient, l'intervention brossera un tableau rapide de la situation, en posant une question : les "bienfaits" de l'IA valent-ils réellement le coût ainsi engagé ?
Plus d'informations à venir.
Plus d'informations à venir.
Plus d'informations à venir.
Plus d'informations à venir.
Plus d'informations à venir.