L’Afrique du Sud a utilisé l’IA pour écrire une loi sur l’IA, mais ça a mal tourné

L'Afrique du Sud a utilisé l'IA pour écrire une loi sur l'IA, mais ça a mal tourné



Une politique nationale pour réguler l’IA. Six citations académiques inventées sur 67. Le coupable, c’est l’IA elle-même.

Tout devait aller plus vite que prévu. L’Afrique du Sud voulait devenir le premier pays africain à se doter d’un cadre national pour réguler l’intelligence artificielle, modelé sur notre AI Act européen. Cabinet conquis le 25 mars, publication au Government Gazette le 10 avril, commentaires publics ouverts jusqu’au 10 juin. Il aura fallu deux semaines à News24 pour tout faire dérailler.

Six citations qui n’existent pas, dans un document de gouvernement

Le 26 avril, le quotidien sud-africain publie son enquête. Sur 67 références académiques citées dans la politique, six concernent des articles qui n’ont jamais existé. Les revues, elles, sont bien réelles : South African Journal of PhilosophyAI & SocietyJournal of Ethics and Social Philosophy. Mais les articles attribués à leurs colonnes n’y ont jamais paru. Les éditeurs des trois revues l’ont confirmé un par un. Quant aux auteurs crédités de travaux fondateurs sur la gouvernance de l’IA, certains n’ont jamais écrit la moindre ligne sur le sujet attribué.

Le document de la discorde a été préparé pendant des mois par le département des Communications et Technologies digitales. Validé par le Cabinet le 25 mars, puis lors d’une session extraordinaire le 1ᵉʳ avril. Le projet ne manquait pas d’ambition : National AI Commission, AI Ethics Board, AI Regulatory Authority, Ombudsperson dédié, National AI Safety Institute, AI Insurance Superfund. Tout un écosystème institutionnel, construit en partie sur des sources qui n’existent pas.

Le ministre des Communications, Solly Malatsi, a annoncé le retrait dimanche 27 avril sur X. Le ton du communiqué n’est pas tout à fait celui d’une mise au point technique. « Cette défaillance n’est pas une simple question technique. Elle a compromis l’intégrité et la crédibilité du projet de politique », écrit-il. L’explication la plus plausible, selon ses propres mots ? « Des citations générées par l’IA ont été incluses sans vérification appropriée. » Le ministre promet du « consequence management » pour les fonctionnaires concernés.

Hallucinations académiques : Pretoria n’est que la partie visible

Le cas sud-africain n’est pas isolé, il est juste plus voyant que les autres. Le problème est structurel : les grands modèles de langage ne consultent pas une base de données pour produire une citation. Ils en prédisent la forme, mot par mot, à partir des motifs vus à l’entraînement. C’est l’équivalent d’un faussaire qui ne copie aucun chèque réel, mais reproduit le format général : signature plausible, montant cohérent, libellé crédible. Quand la prédiction est suffisamment confiante, le résultat ressemble à une vraie référence : autorité du nom de la revue, format académique respecté. Mais elle ne pointe vers rien. Une citation hallucinée n’est ni un bug ni un dérapage, c’est le mode de fonctionnement nominal du modèle.

Ce qui rend le cas sud-africain particulier, ce n’est donc pas l’hallucination en elle-même. C’est qu’un document gouvernemental destiné à encadrer l’IA ait franchi le Cabinet, le journal officiel et plusieurs étapes de relecture. Sans qu’un seul fonctionnaire prenne la peine d’ouvrir un moteur de recherche pour vérifier une seule note de bas de page. Le président de la commission parlementaire a livré sa propre synthèse, en six mots adressés au département : « la prochaine fois, évitez ChatGPT ».

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.