Thierry Dumont est mathématicien et informaticien ; il a fait toute sa carrière au CNRS, à l’université Claude Bernard Lyon 1, dans le laboratoire de mathématiques, Institut Camille Jordan (UMR 5208). Ses travaux concernent le Calcul scientifique dans des disciplines variées : l’astronomie avec les Systèmes dynamiques (mécanique céleste) ; la physique avec la Mécanique des fluides ; la chimie avec le Génie chimique ; la médecine avec la « Médecine numérique », l’histoire du calcul et l’histoire de l’informatique, le développement de logiciels et la promotion du logiciel libre : lutte pour une informatique libre, éthique et solidaire. Il est membre titulaire de la classe des sciences de l’académie des Sciences, Belles Lettres et Arts de Lyon ; il y est notamment en charge de l’informatique et du site internet de l’Académie, de la numérisation et la mise en ligne des manuscrits, registres, ouvrages et documents patrimoniaux.
Sa communication veut nous faire mieux comprendre ce qu’est l’intelligence artificielle et comment elle s’est développée, compréhension préalable nécessaire avant de mesurer l’intérêt et les spécificités de ses applications. Il suffit de regarder l’index « IA » d’un journal comme Le Monde, pour voir que l’IA est partout : à force d’être partout, où est-elle réellement et quelle estelle ?
Ce compte-rendu n’est pas technique ; il est l’œuvre d’une auditrice attentive mais non scientifique, mais il a fort heureusement été revu par le conférencier.
Th. Dumont développe plusieurs points dans sa conférence, dans un souci pédagogique affirmé.
Historique des termes et de la discipline
Au départ, à la fin des années 60, le terme qui apparaît est celui de « cerveaux électroniques » ; le terme « intelligence artificielle » apparaît, disparaît puis revient avec les réseaux de neurones profonds. Ce qui a tout changé c’est l’« apprentissage profond », découvert par M. Lecun, et qui consiste à mettre plusieurs couches de neurones. Dans toute intelligence artificielle, la « brique » est la base de tout et il faut bien choisir les neurones (unités de traitement).
L’apprentissage par les données
Le système nécessite un apprentissage par les données (learning by data) : « apprendre une courbe », au sens d’une courbe non mathématique, c’est apprendre par les données, c’est-à-dire que par ajustements successifs, il faut minimiser la distance entre ce qu’on observe et ce qu’on calcule (apprentissage). D’où la question du calcul des paramètres (nombre de neurones notamment) pour que ça s’ajuste bien. L’apprentissage est une optimisation, pour laquelle il faut entraîner le système. On peut résumer ainsi la procédure : collecte des données, entrées des données, apprentissage par entraînement, calcul, expertise et contrôle du résultat. L’entraînement demande une énorme quantité de données et une énorme quantité de calculs.
En pratique les calculs sont plutôt simples et par une heureuse coïncidence, des composants électroniques sont apparus ces dernières années : ce sont les cartes graphiques (GPU) qu’utilisent les gamers et qui s’avèrent être particulièrement adaptés aux calculs de l’apprentissage profond (d’où la prospérité actuelle de la société NVIDIA).
Th. Dumont prend l’exemple très parlant de l’œnologie : peut-on prévoir la qualité d’un vin en connaissant sa composition ? Exemple mené sur 1598 vins et 12 paramètres de composition.
Pourquoi le système fonctionne-il assez correctement ? Ce sont des questions que se pose par exemple Stéphane Mallat (médaille d’or du CNRS 2025) ; il y a quelques pistes, mais on est loin du compte
Intelligence, vraiment ?
Les ordinateurs exécutent les programmes qui sont décrits par des algorithmes. Ce qui est stupéfiant (le terme est de l’auteure du compte-rendu) c’est la puissance de calcul et la fiabilité des résultats, mais c’est au prix de l’entrée et du stockage de milliards de données, ce qui a un coût (pas seulement énergétique). Mais l’avantage de l’lA est que si l’entrainement est une opération extrêmement coûteuse, en revanche l’utilisation du réseau entraîné est très peu coûteuse.
Quelle complexité l’IA peut-elle traiter ? Th. Dumont rappelle les noms de Robert Penrose et Noam Chomsky ; la conscience ne peut être réduite à un algorithme, car il y a des « éclairs de compréhension » qui ne semblent pas prévisibles par l’apprentissage.
Les applications sont extrêmement variées.
Th. Dumont cite (dans le domaine des sciences humaines) : la reconnaissance et la représentation parcimonieuse des images, le langage naturel, la traduction automatique, la classification (reconnaître des chiffres manuscrits), et une application particulière : la lecture des manuscrits.
Mais Th. Dumont rappelle que ce qui rend les choses possibles, c’est « une heureuse coïncidence » (entre les données, les calculs et les résultats obtenus et visés).
Les dangers
Th. Dumont en identifie plusieurs :
- Rien n’est sûr ; tout résultat est une probabilité et aucun résultat d’un processus d’identification n’est sûr à 100%.
- Confondre corrélation et causalité.
- On ne peut prévoir que ce qui est contenu dans les données.
- Le coût de l’IA et les dérives de la domination des grands groupes américains. L’assistance, au sein de laquelle on compte très certainement plus de « littéraires » que de « scientifiques », a fait un bel effort pour faire fonctionner ses circuits de neurones. Les applaudissements et les questions sont le signe de son intérêt pour cette belle conférence.