Pour le ministre délégué chargé de la transition numérique, Jean-Noël Barrot, le robot ChatGPT n’est pour l’heure qu’« un perroquet approximatif ». Interrogé lundi 20 février sur Franceinfo sur les robots conversationnels qui électrisent le secteur depuis deux mois, il a ironisé sur cet outil, « qui restitue parfois un peu maladroitement les sommes astronomiques d’informations qu’il a compilées sur Internet. Demandez-lui qui a gagné la dernière Coupe du monde de football et vous ne serez pas déçus, parce qu’il vous répondra la France ».
ChatGPT a été entraîné sur des données s’arrêtant en 2021 et ne peut donc, en effet, fournir d’informations récentes. Interrogé sur les éventuels risques de cet outil, M. Barrot a répondu que l’intelligence artificielle « sauve des vies », par exemple avec des diagnostics médicaux plus précoces, mais présente « des risques de discrimination, de manipulation et de déshumanisation » et que « donc il nous faut agir ».
Le ministre a également annoncé viser « la formation de 400 000 experts du numérique d’ici [à] 2030 » pour que la France « ne passe pas à côté de cette nouvelle vague » de l’intelligence artificielle. Les entreprises du numérique doivent pouvoir « recruter dans les meilleures conditions », a ajouté M. Barrot.
Pour maîtriser ces technologies, la France porte au niveau de l’Union européenne (UE) le futur règlement sur l’intelligence artificielle (IA) concernant la responsabilité des concepteurs, qui devront signaler toute dérive vers une discrimination, a-t-il rappelé. Le ministre a aussi souhaité que les établissements scolaires s’approprient les outils liés à l’intelligence artificielle et puissent utiliser ChatGPT « comme un démonstrateur de ce que peut faire une IA et de ce qu’elle ne peut pas faire », plutôt que de l’interdire. Open AI, l’entreprise d’intelligence artificielle à l’origine de ChatGPT, aurait toutefois « mieux fait d’attendre d’avoir des filtres » permettant de déceler l’utilisation de son logiciel « avant de le publier », a-t-il regretté.