SOSS Fusion Conference – (Atlanta) – Dans le discours d’ouverture de la Secure Open Source Software Fusion Conference à Atlanta, le célèbre expert en sécurité Bruce Schneier a évoqué les promesses et les menaces de l’intelligence artificielle (IA) pour la cybersécurité.
« Lorsque les technologies remplacent les personnes, elles améliorent dans une ou plusieurs des quatre dimensions suivantes : la vitesse, l’échelle, la portée et la sophistication » indique Bruce Schneier. « Les IA ne sont pas meilleures que les humains en matière de formation. Elles sont simplement plus rapides. Mais cette vitesse change fondamentalement les choses ».
Et de prendre un exemple. « Le trading à haute fréquence (HFT) n’est pas seulement un trading plus rapide. Il est différent. C’est pourquoi il faut s’inquiéter de l’IA, des médias sociaux et de la démocratie. La portée et l’échelle des agents d’IA sont telles qu’elles changent la nature des médias sociaux ». Par exemple, les robots d’IA spécialisés dans la politiques affectent déjà les élections américaines.
Les IA commettent des erreurs différentes de celles des humains…
Schneier s’inquiète également du fait que les IA commettent des erreurs différentes de celles des humains. « L’IA commettra des erreurs plus systématiques », dit-il. « À ce stade, les IA n’ont pas le même bon sens que les humains. Ce manque de bon sens pourrait conduire à des grossières erreurs lorsque l’IA est appliquée à des processus décisionnels critiques ».
Cela ne veut pas dire que les IA ne peuvent pas être utiles. M. Schneier en donne un exemple : « L’IA peut surveiller les réseaux et analyser le code source et les vulnérabilités. Les humains sont trop lents faire cela en temps réel. Même si l’IA pouvait faire un travail médiocre en examinant tout le code source, ce serait donc phénoménal ».
Plus précisément, poursuit-il, « nous verrons l’IA effectuer le premier niveau de triage des problèmes de sécurité. Nous recevons beaucoup de données sur les pirates et leurs actions. Et nous avons besoin de quelqu’un pour les analyser ».
… et nous ne savons pas reconnaître les erreurs de l’IA
Selon M. Schneier, l’IA peut contribuer à combler cette lacune. Bien que les IA ne puissent pas remplacer les experts humains (du moins pas encore), elles peuvent les aider : « Les IA peuvent devenir nos serviteurs. Elles peuvent rendre les humains plus efficaces en externalisant une partie du travail ».
En ce qui concerne l’utilisation de l’IA dans le domaine de la cybersécurité, Bruce Schneier a déclaré : « Ce sera une course aux armements, mais au départ, je pense que les défenseurs seront meilleurs. Nous sommes déjà attaqués à la vitesse d’un ordinateur. La capacité de se défendre à la vitesse d’un ordinateur sera très utile ».
Malheureusement, les systèmes d’IA ont encore un long chemin à parcourir avant de pouvoir nous aider de manière autonome. Selon M. Schneier, une partie du problème réside dans le fait que « nous savons comment les humains font des erreurs. Et nous avons des milliers d’années d’expérience dans la gestion des erreurs humaines. Mais l’IA commet d’autres types d’erreurs. Et nos intuitions vont échouer. Et nous devons trouver de nouveaux moyens d’audit pour nous assurer que les erreurs de type IA n’anéantissent pas notre travail ».
Selon M. Schneier, la mauvaise nouvelle est que nous ne savons pas reconnaître les erreurs de l’IA.
« Nous avons besoin de modèles d’IA qui ne soient pas des modèles d’entreprise »
Cependant, « nous allons nous améliorer dans ce domaine, en comprenant les limites de l’IA et en sachant comment s’en protéger. Nous analyserons beaucoup mieux les compétences de l’IA et les décisions qu’elle prend. Et nous nous demanderons si nous assistons les humains ou si nous les remplaçons. Nous chercherons à augmenter les capacités de l’homme plutôt qu’à le remplacer ».
À l’heure actuelle, « les incitations économiques sont de remplacer les humains par ces solutions moins coûteuses ». Mais ce n’est souvent pas la bonne solution. « Les entreprises finiront par s’en rendre compte, mais pour l’instant, elles confient trop souvent à l’IA des tâches qu’elle n’est pas en mesure d’accomplir ».
M. Schneier a également abordé la question de la concentration du pouvoir de développement de l’IA entre les mains de quelques grandes entreprises technologiques. Il a plaidé pour la création de modèles d' »IA publique » totalement transparents et développés dans l’intérêt de la société plutôt qu’à des fins lucratives. « Nous avons besoin de modèles d’IA qui ne soient pas des modèles d’entreprise », a déclaré M. Schneier. « J’espère que l’époque où l’on dépensait d’énormes quantités d’argent pour créer un modèle de fondation sera temporaire ».