Comme tout le monde, les mathématiciens se demandent si ChatGPT va transformer leur activité en profondeur. Les premiers essais ne sont pas concluants et encouragent certains à rejeter complètement cet outil. Il est vrai que l’on constate des erreurs inquiétantes.
Alors que je demandais à GPT de m’indiquer quelques exemples de théorèmes importants, il m’expliqua d’abord que la question était délicate, car tout le monde n’est pas d’accord sur le sens du mot « important » dans ce contexte, mais qu’il allait me citer trois exemples qui lui semblaient consensuels. C’était un excellent début.
Les deux premiers exemples étaient tout à fait pertinents, mais le troisième m’a fait sursauter. Certes, il s’agissait d’un théorème fondamental, mais GPT l’attribuait à Jean-Pierre Serre en 1974, alors que tout mathématicien, même débutant, sait qu’il est dû à Evariste Galois en… 1832. Tout cela avait l’air sérieux, et un lecteur non averti se serait fait abuser.
Lorsque j’ai demandé une démonstration du théorème de Pythagore, j’ai reçu une preuve rédigée parfaitement, comme une démonstration rigoureuse. GPT abaissait une hauteur du triangle rectangle pour le décomposer en deux triangles rectangles plus petits, et il appliquait ensuite… le théorème de Pythagore à chacun d’eux !
Un cercle vicieux dans une démonstration est bien sûr inacceptable. Comment une « intelligence » artificielle a-t-elle pu « imaginer » un tel sophisme ? Peut-être en allant chercher ses « idées » sur un site Internet, quelque part sur le Web, qui contiendrait des listes de preuves fausses, intentionnelles ou non. Apprenons à nos étudiants à ne pas se laisser berner par ces démonstrations parfaitement rédigées mais complètement fausses, parfois de manière plus subtile.
Il ne faudrait pas, cependant, jeter le bébé avec l’eau du bain. D’une part, il n’y a aucun doute que GPT va progresser très rapidement. Je ne me suis pas privé, par exemple, de critiquer vertement sa preuve du théorème de Pythagore, et j’ose espérer qu’il ne commettra plus cette erreur grossière. Mais, surtout, il nous faut apprendre à l’utiliser comme un assistant, qui connaît beaucoup de choses.
Recherche d’analogies
La littérature mathématique devient tellement immense qu’il est presque impossible de s’y retrouver. Des avalanches d’articles de plus en plus longs et de plus en plus techniques inondent chaque jour les bases de données de prépublications. GPT pourrait nous aider à résumer des travaux de façon à sélectionner ceux qui méritent un examen plus approfondi. Surtout, il nous permettra bientôt de chercher des analogies.
Il vous reste 30.97% de cet article à lire. La suite est réservée aux abonnés.