Quand la précipitation met en péril la nouvelle IA du gouvernemen …

Quand la précipitation met en péril la nouvelle IA du gouvernemen ...



Un projet de l’administration Trump visant à intégrer l’intelligence artificielle au sein du gouvernement fédéral a été dévoilé prématurément sur GitHub. Baptisé « AI.gov », ce système de chatbots devait initialement être lancé officiellement le 4 juillet, jour de l’Indépendance des États-Unis.

Cette fuite a mis en évidence une gestion laxiste de la sécurité et suscité de vives critiques sur l’état du code source, jugé incomplet et instable. Des éléments laissent penser que le développement a été précipité pour respecter un calendrier politique serré. Selon 404 Media, ce projet a été mené par le Technology Transformation Service, sous l’égide de la General Services Administration. Le code, hébergé publiquement sur GitHub, a ainsi été accessible à tous avant l’annonce officielle.

Bien que les dépôts aient été rapidement rendus privés, une partie du code, de la documentation et des orientations stratégiques circule déjà sur des plateformes de sauvegarde et au sein de communautés techniques.

Une mise en œuvre chaotique

Développée par le Technology Transformation Service (TTS) sous la direction de Thomas Shedd, ex-ingénieur chez Tesla, cette plateforme centralisée vise à améliorer l’efficacité administrative en intégrant les modèles d’IA utilisés par les ministères et agences fédérales.

Le projet s’inscrit dans une initiative plus large du Bureau de l’efficacité gouvernementale (DOGE), lancé conjointement par Donald Trump et Elon Musk. DOGE entend repenser l’administration fédérale en réduisant la bureaucratie et les redondances, en s’appuyant sur des technologies de rupture comme l’IA. AI.gov en constitue le projet pilote.

Mais la publication du code source a révélé une précipitation dans le développement, motivée par la volonté de présenter le projet lors des célébrations du 4 juillet. Le code contenait encore des modules inachevés, des fonctions désactivées et une console partiellement fonctionnelle. Ces failles ont nourri les critiques, notamment sur la fiabilité du système et sa capacité à interpréter correctement des documents juridiques sensibles.

Des risques technologiques et juridiques

Des experts alertent sur les risques de confier à une IA l’interprétation de contrats fédéraux d’une valeur de plusieurs centaines de millions de dollars. Des erreurs d’analyse ou des informations manquantes pourraient entraîner des litiges ou des décisions politiques inappropriées. « Laisser l’interprétation de documents officiels à l’IA sans garde-fous solides est risqué sur les plans juridique et politique », ont averti des responsables technologiques, appelant à la mise en place de mécanismes de contrôle rigoureux.

Enfin, la gestion du dépôt GitHub suscite elle aussi la polémique. Bien que cette plateforme soit couramment utilisée pour des projets collaboratifs, le choix d’un mode public pour un outil aussi sensible a exposé l’ensemble de la structure logicielle du projet, jusqu’à certains prototypes en cours. La fermeture du dépôt n’a pas empêché la diffusion de copies, désormais accessibles sur d’autres canaux.

Cette affaire soulève des questions fondamentales sur la gouvernance technologique, la sécurité des données publiques et la place de l’IA dans la prise de décision politique.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.