En maths, le niveau monte. Au moins pour l’intelligence artificielle (IA). Une équipe de Google Deepmind en Californie décrit dans Nature du 17 janvier comment son logiciel a résolu vingt-cinq des trente problèmes de géométrie proposés, depuis 2000, au concours international des Olympiades de mathématiques, des épreuves réservées aux lycéens de moins de 20 ans. De précédents programmes ne dépassaient pas 50 % de réussite, sur les trois autres types de questions, en arithmétique, algèbre ou combinatoire.
« Le raisonnement complexe nécessaire ici est un défi. Il y a quatre ans, je n’aurais pas cru pouvoir le relever », a rappelé lors d’un point presse organisé par Google l’un des coauteurs, Quoc Le. « Les maths sont aussi une manière de se mesurer entre grandes entreprises du secteur », note Amaury Hayat, professeur à l’Ecole nationale des ponts et chaussées, qui a collaboré avec Meta pour résoudre notamment des problèmes d’Olympiades. OpenAI ou d’autres branches de Google ont également mis au point depuis les années 2020 des systèmes pour démontrer des théorèmes déjà connus ou identifier des relations entre deux objets mathématiques.
La réussite du nouveau programme, baptisé « AlphaGeometry », pour rester dans la lignée des programmes précédents de Deepmind (AlphaGo pour le jeu de go, AlphaFold pour le repliement de protéines…), repose sur plusieurs idées.
Contrairement à bon nombre de logiciels de génération de textes ou d’images, il comporte deux « cerveaux » distincts. L’un, « classique », contient un ensemble de règles et de connaissances de géométrie permettant d’enchaîner des étapes de transformation de figures sans se tromper. Il est dit « symbolique », par opposition à l’autre cerveau, « neurologique », qui fait appel à l’apprentissage machine sur des réseaux de neurones artificiels, comme la plupart des outils d’IA actuels (ChatGPT, Dall-E, Midjourney…). Mais le succès de ces derniers dépend de la quantité de données qu’ils absorbent. Or, en maths, il existe trop peu de séquences de démonstrations géométriques complètes pour ajuster les paramètres de ces programmes.
Une association efficace
Les chercheurs de Deepmind ont donc « fabriqué » ces données. Pour cela, ils partent de figures géométriques aléatoires (triangles, parallélépipèdes, cercles…), puis ils leur font subir des transformations, puisées parmi une cinquantaine de possibilités (mettre un point sur une droite, tracer une bissectrice, une médiatrice…). Cela leur permet de créer 100 millions de « théorèmes », qui sont en réalité des « résultats » (montrer que deux cercles sont tangents, ou prouver que les quatre points sont sur un même cercle…), obtenus parfois avec plus de 200 étapes, bien plus que nécessaire dans les problèmes d’Olympiades. Le modèle obtenu n’a que 151 millions de paramètres, contre plus de 1 000 fois plus dans les modèles de langue à l’origine de ChatGPT, par exemple.
Il vous reste 55% de cet article à lire. La suite est réservée aux abonnés.