L’intelligence artificielle (IA) suscite un émerveillement comparable à celui de la révolution industrielle du XIXe siècle. Mais les appels à la prudence se multiplient, comme en témoignent les initiatives de projet de loi visant à encadrer le développement et l’utilisation de l’IA en Californie ou la récente initiative gouvernementale de la France de mesurer son impact environnemental. Ces préoccupations illustrent les interrogations fondamentales sur notre rapport à la technologie, notre orgueil et notre désir de croire en un progrès illimité.
La capacité de l’humain à transformer son environnement par la technique et le langage (via les récits qui structurent notre vision du monde) définit sa condition. Cette liberté se manifeste par le désir constant de repousser les frontières du possible, comme l’illustrent la recherche en intelligence artificielle et l’émergence d’applications telles que ChatGPT (et sa récente amélioration incrémentale o1), Gemini ou Llama.
Aussi réjouissantes qu’angoissantes, ces évolutions sont parfois plus fantasmées que questionnées. Car si les techniques de base de l’apprentissage profond – une branche de l’IA où les machines apprennent à partir de données – sont connues depuis les années 1950, l’apparition récente d’applications concrètes comme les modèles de langage de grande taille (LLM, pour large language models), entraînés sur des quantités massives de textes depuis 2018, a surpris le grand public. Mais pas les chercheurs en IA, qui en connaissaient déjà le potentiel.
Engouement du public
La surprise vient de l’engouement du public pour ces systèmes. Après l’échec du chatbot Tay de Microsoft il y a quelques années et les critiques envers Galactica, l’outil d’aide à la rédaction scientifique de Meta, ChatGPT a étonné en rencontrant un succès fulgurant dès son lancement. Cet engouement a sans doute été motivé par sa facilité d’utilisation, sa capacité à fournir des réponses cohérentes et un marketing efficacement axé sur le potentiel d’utilisation.
Pour Yann Le Cun, responsable de l’intelligence artificielle chez Meta, et père du deep learning [l’apprentissage profond] – un sous-domaine de l’apprentissage profond qui utilise des réseaux de neurones artificiels pour analyser et interpréter des données complexes –, interviewé dans le podcast « Do It Yourself », cette maîtrise du langage par les LLM peut sembler impressionnante, mais elle est en réalité basée sur des modèles statistiques simples et ne reflète pas une véritable intelligence.
Il vous reste 55.12% de cet article à lire. La suite est réservée aux abonnés.
Source du contenu: www.lemonde.fr