
Le taux d’erreurs factuelles énoncées par les programmes basés sur des grands modèles de langue (large language models, LLM) semble incompressible. Nous proposons une hypothèse explicative théorique à ce constat empirique : nos définitions informationnelles du sens appartiennent à un régime de vérité documentaire qui échappe à ces programmes, dont l’intelligence communicationnelle est purement linguistique. Cette explication peut fonder le choix du non-usage des programmes basés sur des LLM pour répondre à un besoin d’information. – Cette version du texte est publiée après communication avec des révisions et avant la publication des actes.
L’humanité fait face à une immense crise écologique. Pour l’affronter, il nous faut un sursaut d’intelligence collective. Dans ce contexte, l’intelligence artificielle (IA) peut susciter des espoirs légitimes. Le développement de l’IA n’est toutefois pas sans risques : les spécialistes de l’IA eux-mêmes citent notamment « la possibilité de massives pertes d’emplois, les possibilités d’usages abusifs des systèmes d’IA, le manque de fiabilité de ces systèmes et leur vulnérabilité aux attaquesMitchell, Intelligence artificielle : triomphes et déceptions, 2021, ch. 16.
».
La publication de ChatGPT s’inscrit dans cette problématique. Ce service proposé par OpenAI depuis 2022 appartient une nouvelle classe de systèmes d’IA dont la capacité à générer des contenus met au défi nos « modèles de définition de l’intelligenceVitali-Rosati, « De l’intelligence artificielle aux modèles de définition de l’intelligence », 2024.
». En l’occurrence, ChatGPT génère du texte ; il s’appuie sur un grand modèle de langue (large language model, LLM), avec un tel niveau de qualité qu’il crée l’« illusion » de l’intelligence humaineBjarnason, The Intelligence Illusion, 2023. (...)