« L’innovation ne doit pas se faire au sacrifice de l’éthique et de la sécurité »

« L’innovation ne doit pas se faire au sacrifice de l’éthique et de la sécurité »


Le 2 juillet, la Chine a annoncé vouloir édicter plus de cinquante nouvelles normes pour le secteur de l’intelligence artificielle (IA) d’ici à 2026.

Depuis plusieurs années, le gouvernement chinois régule l’innovation à grands coups de textes de loi. Tout d’abord en 2021, avec un ensemble de règles imposant de nouvelles obligations en matière d’algorithmes de recommandation, plus récemment au sujet de la génération de contenus synthétiques. Un ensemble normatif surveillé de près par les pays du monde entier, à commencer par les Etats-Unis, qui craignaient dès 2023 que la Chine ne « prenne la tête de l’innovation ou ne définisse les règles du jeu ».

Lire aussi l’entretien avec Yoshua Bengio, chercheur : Article réservé à nos abonnés Yoshua Bengio, chercheur : « Aujourd’hui, l’intelligence artificielle, c’est le Far West ! Nous devons ralentir et réguler »

L’enjeu est d’autant plus grand que la Chine prend ses dispositions depuis 2017 pour devenir le leader mondial de l’IA d’ici à 2030. Son plan de développement de la nouvelle génération d’IA s’accompagne d’investissements majeurs. En mai, l’agence Reuters annonçait ainsi la troisième phase d’investissement de Big Fund, un véhicule d’investissement soutenu par l’Etat chinois, à hauteur de 344 milliards de yuans, soit 44,12 milliards d’euros.

Des années de plaintes

Les entreprises du secteur de l’IA ont donc désormais un double impératif : d’une part, réussir à s’insérer dans un marché au développement accéléré ; d’autre part, être en conformité avec des règles de plus en plus strictes et à l’extraterritorialité assumée.

Face à ce double défi, les entreprises et les start-up européennes ont une carte à jouer. En mars, le Parlement européen a adopté l’AI Act, une nouvelle législation visant à réguler le développement de l’intelligence artificielle autour d’une approche basée « sur les valeurs et le risque », selon les mots de Margrethe Vestager, vice-présidente exécutive de la Commission européenne. Et un objectif : faire de l’Europe un « centre mondial d’excellence en matière d’IA ».

La démarche européenne fait suite à des années de plaintes de la part de start-up qui estimaient que les régulateurs réagissaient trop lentement face aux géants du secteur.

Pourtant, la régulation de l’IA par l’Union européenne a été mal reçue par certaines figures de proue des start-up de l’IA, à commencer par la licorne française Mistral AI, qui a levé à elle seule plus de 1 milliard d’euros de capital en seulement quelques mois. En témoigne le long post d’Arthur Mensch sur X, dans lequel le fondateur de Mistral AI se dressait vent debout contre cette nouvelle régulation, estimant que l’AI Act favorisait « les entreprises en place qui peuvent se permettre de faire face à de lourdes exigences de conformité ».

Il vous reste 47.39% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.