Les risques liés à la cybersécurité figurent depuis longtemps déjà parmi les menaces jugées les plus préoccupantes, à la fois par les spécialistes de la question et par le grand public. Néanmoins, le rapport annuel du groupe d’assurance Axa sur les « grands risques de demain », publié dimanche 29 octobre, fait émerger une nouvelle préoccupation : l’intelligence artificielle (IA).
Cette étude, fondée sur un double sondage auprès de 3 226 experts des risques et de l’assurance dans cinquante pays, d’une part, de 19 000 personnes représentatives de la population de quinze grands pays, d’autre part, classe certes toujours le changement climatique en tête des motifs d’inquiétude, devant les risques de cybersécurité et l’instabilité géopolitique.
Cependant, l’IA et le big data (données massives) bondissent de la quatorzième à la quatrième place chez les experts, et de la dix-neuvième à la onzième place parmi le grand public. Dans les deux catégories, cette crainte grandissante engendre une forte défiance : 64 % des experts et 70 % du grand public jugent nécessaire d’effectuer une « pause » dans la recherche sur l’IA et d’autres technologies dites « disruptives ».
« Le sentiment que les nouvelles technologies créent plus de risques qu’elles n’en résolvent progresse de manière extrêmement importante depuis 2020, précise Etienne Mercier, directeur du pôle opinion de l’institut Ipsos, qui a mené les enquêtes. La moitié de la population mondiale se méfie du progrès technologique. » Cette circonspection nouvelle, ajoute-t-il, se traduit par une « explosion » du sentiment de vulnérabilité face à ces risques et leurs implications, d’autant que les experts et la population jugent les pouvoirs publics mal préparés.
Recul du sentiment d’instabilité géopolitique
L’angoisse induite par l’intelligence artificielle plaide en faveur de la mise en œuvre rapide, par les pouvoirs publics, d’une réglementation de ces technologies en Europe, même si Axa lui-même demande que celle-ci soit « responsable et raisonnée ».
« Il ne faut pas avoir des réglementations excessivement dures sur ce sujet, parce que nous sommes en concurrence avec les Etats-Unis et la Chine, et nos entreprises ont besoin de développer des applications et d’avoir des données pour les développer », estime Frédéric de Courtois, directeur général adjoint de l’assureur. L’appel en faveur d’une « pause » de l’IA est toutefois un peu moins marqué en France qu’ailleurs puisqu’il n’y est appuyé que par quatre experts sur dix et deux tiers de la population générale.
Il vous reste 30% de cet article à lire. La suite est réservée aux abonnés.