AI et recherche
Dans le cadre de cette rencontre, nous nous interrogeons sur l’explicabilité des Grands modèles de langage (LLMs) et sur les possibilités d’hybridation entre ces modèles et les approches déductives s’appuyant sur un cadre de connaissances explicites. Nous visons donc à explorer d’un point de vue théorique (avec quelques cas d’études pratiques) les relations possibles entre les approches connectivistes et symboliques de la connaissance dans le contexte de la recherche.
Nous avons identifié deux perspectives d’analyse, non totalement isolées, susceptibles de contribuer à l’exploration de ce type de relation. Les deux perspectives reposent sur l’idée que, pour que les méthodes algorithmiques puissent contribuer à la recherche, il est essentiel d’y réintroduire des formes de connaissance structurée. Nous décrivons brièvement les deux perspectives ci-dessous, ainsi que certains des domaines d’application et des méthodologies qui leur sont associés.
Comprendre les LLMs à partir des résultats
S’intéressant notamment aux questions d’alignement, cette approche cherche à interpréter et comprendre les résultats générés par les modèles LLM. Ce questionnement peut, à son tour, être abordé à partir d’au moins deux angles :
- Intérêt pour l’explicabilité des modèles : Dans ce cas, l’objectif est d’analyser les dernières couches de nœuds de calcul pour tenter de comprendre comment les résultats proposés sont générés. En adoptant une démarche a posteriori par rapport à la conception et à la mise en œuvre des algorithmes d’IA, cette stratégie s’inscrit entièrement dans le paradigme inductif caractéristique des LLMs.
- Vers l’hybridation des modèles : Il s’agit d’intégrer des systèmes experts ou d’autres approches de déduction symbolique pour générer des résultats fondés sur une modélisation explicite. L’intégration potentielle du métalangage IEML ou l’exploration de techniques d’apprentissage, telles que le Disentangled Representation Learning (DRL), constituent des pistes à approfondir dans cette perspective.
Ces approches axées sur les résultats permettent de concevoir des systèmes opérationnels qui pourraient contribuer au développement de modèles visant à maintenir un certain degré de contrôle sur la production de connaissances. Cependant, il est essentiel de remettre en question l’importance accordée aux résultats produits par les modèles LLM.
LLM en dehors des perspectives axées sur les résultats
Au cœur de cette seconde approche se trouve la question suivante : la recherche fondamentale est-elle toujours axée sur la performance et les résultats ? Comment s’intéresser à l’IA dans un cadre autre que celui de la performance des modèles, pour revenir à la question fondamentale du sens ?
En se concentrant sur le rôle et les objectifs de la recherche et de la science, cette approche nous permet de nous éloigner d’une rhétorique de plus en plus populaire qui oppose l’humain et la machine. Par exemple, au lieu de se demander comment les algorithmes d’intelligence artificielle égalent ou surpassent les humains en termes de créativité et d’originalité, nous pourrions nous interroger sur la signification de ces concepts et sur la manière dont ils sont modélisés (ou pourraient être modélisés) au sein d’algorithmes d’intelligence artificielle.
Nous reconnaissons que le questionnement sur le sens des algorithmes à caractère inductif pourrait ouvrir des perspectives de réflexion potentiellement riches et intéressantes, y compris sur le plan applicatif. Les expériences et analyses que nous entreprendrons autour de l’éditeur sémantique Stylo pourraient s’inscrire dans ce cadre.
IA et durabilité
Dans les deux cas, l’utilisation intensive des algorithmes de LLM, même à des fins de recherche, soulève des enjeux majeurs, notamment en raison de la consommation excessive de ressources économiques, infrastructurelles et environnementales liées à leur utilisation.
Ressources
Les lectures préparatoires suivantes donnent un premier aperçu des recherches menées par Gastaldi et du type de discussion que nous pourrions avoir ensemble :
- Gastaldi, Juan Luis. 2024. « How to Do Maths with Words: Neural Machine Learning Applications to Mathematics and Their Philosophical Significance ». Dans Handbook of the History and Philosophy of Mathematical Practice, édité par Bharath Sriraman, 3191-3226. Cham: Springer International Publishing. https://doi.org/10.1007/978-3-031-40846-5_142.
- Gastaldi, Juan Luis. 2024. « The Structure of Meaning in Language: Parallel Narratives in Linear Algebra and Category Theory ». American Mathematical Society. Consulté le 20 novembre 2024. https://www.ams.org/journals/notices/202402/noti2868/noti2868.html?adat=February 2024&trk=2868&galt=none&cat=feature&pdfissue=202402&pdffile=rnoti-p174.pdf.
- Gastaldi, Juan Luis, et Luc Pellissier. 2021. « The calculus of language: explicit representation of emergent linguistic structure through type-theoretical paradigms ». Interdisciplinary Science Reviews 46 (4): 569-90. https://doi.org/10.1080/03080188.2021.1890484.