Oui, les entreprises souhaitent acquérir un avantage concurrentiel grâce à l’intelligence artificielle (IA). Et ce sont les cadres qui sont désormais chargés de veiller à ce que leur organisation dispose des règles nécessaires pour utiliser ces nouvelles technologies.
Keith Woolley, responsable du numérique à l’université de Bristol, aide son organisation à adopter l’IA sur l’ensemble du campus.
L’université de Bristol est pionnière en matière de technologies émergentes, et abrite notamment Isambard-AI, le superordinateur le plus rapide du Royaume-Uni.
Les professionnels utilisent l’IA au quotidien
Keith Woolley explique à ZDNET comment les personnes qui jouent un rôle quotidien dans l’enseignement, l’administration et la recherche utilisent également les technologies émergentes comme l’IA.
À l’instar du déploiement des services de cloud computing dans le passé, Keith Woolley dit que les professionnels veulent faire leurs propres choix, et que cela provoque un mouvement appelé Bring Your Own AI (BYOAI) (Apportez votre propre IA).
« C’est en train de se produire », dit M. Woolley. Il suggère que l’acceptation générale du clou computing et l’empressement des fournisseurs à proposer des services basés sur l’IA signifient que les technologies émergentes peuvent pénétrer dans les organisations à l’insu des équipes informatiques.
« Je le vois déjà. Les départements sont en train de construire des outils parce que chaque fournisseur qui vous fournit un système SaaS y insère de l’IA ».
Bring Your Own AI : une tendance en croissante
D’autres experts considèrent également le BYOAI comme une tendance croissante. Une enquête du MIT suggère que cette tendance se produit lorsque les employés utilisent pour leur travail des outils d’IA générative non validés et accessibles au public.
M. Woolley dit que ce « Shadow AI », qu’elle soit le fait des utilisateurs ou des fournisseurs, soulève d’importantes préoccupations.
« Le BYOAI est un défi », dit-il. « C’est comme lorsqu’on voyait apparaître sur le réseau des espaces de stockage de Dropbox. Les gens qu’avec une carte de crédit ils pouvaient commencer à partager des choses. Ce qui n’est pas très bon ».
Les recherches du MIT suggèrent que Woolley a raison d’exprimer ses inquiétudes. Bien que les outils d’IA générative offrent des gains de productivité prometteurs, ils présentent également des risques, notamment :
- La perte de données
- La fuite de propriété intellectuelle
- Les violations de droits d’auteur
- Les atteintes à la sécurité
Selon M. Woolley, la principale préoccupation de l’université de Bristol est la perte de contrôle sur la manière dont les services SaaS basés sur l’IA communiquent et sur les sources de données qu’ils partagent.
« Le système pourrait prendre nos données, que nous pensons être dans un environnement SaaS sécurisé, et les utiliser dans un modèle d’IA public ».
Interdire l’IA générative pour atténuer les risques
Alors, comment les organisations devraient-elles faire face à l’essor du BYOAI ? Une première approche consisterait pour les dirigeants à interdire l’IA générative.
Cependant, les recherches du MIT suggèrent que les chefs d’entreprise devraient rester ouverts à l’IA générative et fournir des conseils solides pour transformer le BYOAI en source d’innovation.
Ce sentiment trouve un écho chez Woolley. Il affirme qu’un contrôle rigoureux des limites des applications est le meilleur moyen de gérer le BYOAI.
« L’application des politiques est une discussion que nous avons au sein de notre organisation. Nous mettons en place des garde-fous pour que les gens sachent ce qu’ils peuvent faire et ce qu’ils ne peuvent pas faire », dit-il.
Selon lui, le point de départ est un ensemble d’outils approuvés qui viseront à contrôler l’introduction progressive de l’IA.
Les étudiants veulent utiliser l’IA
Pour établir le contexte de ces garde-fous, les cadres de l’université de Bristol ont passé du temps avec des étudiants et leur ont demandé leur avis sur l’utilisation de l’IA générative dans l’enseignement.
« La conversation a porté sur la manière d’utiliser l’IA pour l’apprentissage, les inscriptions, la notation et tout le reste », a déclaré M. Woolley.
« Ce qui a été surprenant, c’est de voir à quel point les étudiants voulaient que nous utilisions l’IA. L’une des choses qui est ressortie clairement de la part de nos étudiants, c’est que si nous ne leur permettons pas d’utiliser l’IA, ils seront désavantagés sur le marché par rapport à d’autres qui offrent cette possibilité. »
M. Woolley compare l’introduction de la Gen AI à l’utilisation des calculatrices dans les salles de classe. Il y a plusieurs dizaines d’années, les gens craignaient que l’utilisation des calculatrices ne soit une forme de tricherie.
Aujourd’hui, tous les étudiants en mathématiques utilisent des calculatrices. M. Woolley s’attend à un parcours similaire avec l’adoption de l’IA générative.
« Nous allons devoir repenser notre programme d’études et notre capacité d’apprentissage à l’aide de cette technologie », a-t-il déclaré.
« Nous devrons apprendre à la prochaine génération d’étudiants à différencier les informations fournies par l’IA. Une fois que nous aurons résolu ce problème, tout ira bien ».
M. Woolley dit que l’université de Bristol entend faire de l’IA générative un élément soigneusement contrôlé du processus éducatif. « Nous avons clairement indiqué que l’IA a pour but d’aider les employés, les étudiants et nos chercheurs et, lorsque c’est possible et pratique, d’automatiser les services ».
Considérations clés sur le déploiement de l’IA générative
Toutefois, l’identification de l’utilisation potentielle de l’IA n’est qu’un point de départ. Si l’on investit trop lourdement ou si l’on laisse les utilisateurs apporter leurs propres outils d’IA sans règles et réglementations strictes, les coûts peuvent grimper en flèche.
D’où l’idée de se concentrer sur certaines considérations clés.
La première question est la suivante : « Quel degré d’échec voulons-nous ? L’IA est pour l’instant une machine à deviner. Elle émet des hypothèses sur la base des informations dont elle dispose. Si ces informations sont légèrement erronées, vous obtiendrez une réponse légèrement erronée », dit-il.
« Nous avons mis en place une politique et des procédures. Mais il s’agit d’un document évolutif, car tout change très vite. Nous essayons de conduire le changement avec prudence ».
À plus long terme, M. Woolley s’attend à ce que l’institution adopte l’une des trois approches suivantes :
- Intégrer l’IA générative dans le système éducatif
- Alimenter les modèles existants avec des données
- Développer des modèles de langage pour se différencier de la concurrence
« C’est le débat que nous avons » dit-il. « Une fois la bonne approche choisie, je pourrai élaborer des politiques basées sur la manière dont nous utilisons l’IA ».
Cette approche correspond à celle de Roger Joys, VP des plates-formes cloud d’entreprise chez GCI. Comme le MIT et Woolley, il estime que les politiques et les processus sont essentiels pour introduire l’IA générative.
Modèles d’IA examinés et approuvés
« J’aimerais que nos scientifiques des données disposent d’une liste de modèles qui ont été examinés et approuvés », dit-il en réfléchissant à la montée du BYOAI. Vous pourrez alors leur dire : « Vous pouvez choisir parmi ces modèles », plutôt que de les laisser utiliser ce qu’ils aiment ou ce qu’ils trouvent.
« Trouvez les analyses de rentabilité », dit-il. « Avancez méthodiquement, pas nécessairement lentement, mais vers une cible connue, et montrez la valeur de l’IA ».