ZDNET
Selon une récente enquête de l’IBM Institute for Business Value, plus de la moitié (56 %) des entreprises retardent désormais les investissements majeurs dans l’IA générative jusqu’à ce que les normes et les réglementations en matière d’IA soient claires.
Au moins 72 % d’entre elles se disent même prêtes à renoncer aux avantages de l’IA générative en raison de préoccupations éthiques.
L’éthique, une question plus difficile que les questions technologiques
De nombreuses questions techniques liées à l’intelligence artificielle ont été résolues. Mais le travail difficile entourant l’éthique de l’IA arrive maintenant au premier plan. Et cela s’avère encore plus difficile que d’aborder les questions technologiques.
À ce stade, le défi pour les équipes de développement est de « reconnaître que la création d’une IA éthique n’est pas un problème strictement technique, mais un problème sociotechnique », explique Phaedra Boinodiris, responsable mondial de l’IA chez IBM Consulting. Cela signifie qu’il faut étendre la supervision de l’IA au-delà des équipes informatiques et de gestion des données au sein des organisations.
Pour construire des modèles d’IA de manière responsable, « vous avez besoin d’une équipe composée de plus que de simples scientifiques de données », dit Boinodiris. « Pendant des décennies, nous avons fait savoir que ceux qui n’avaient pas d’expertise dans un domaine traditionnel n’avaient pas leur place. C’est un énorme faux pas ».
Les équipes d’IA devraient se poser quelques questions
Il convient également de noter que les modèles d’IA bien conçus « sont aussi des modèles plus précis », a-t-elle ajouté. Pour y parvenir, « l’équipe qui conçoit le modèle doit être pluridisciplinaire et non cloisonnée ». L’équipe d’IA idéale devrait comprendre « des experts en linguistique et en philosophie, des parents, des jeunes, des personnes de tous les jours ayant des expériences de vie différentes et provenant de milieux socio-économiques différents », a-t-elle insisté.
« Plus la variété est grande, mieux c’est. Les membres de l’équipe doivent se prononcer sur les types de questions suivants :
- « Cette IA résout-elle le problème dont nous avons besoin ? »
- Les experts du domaine estiment-ils qu’il s’agit des bonnes données ?
- Quels sont les effets imprévus de l’IA ?
- Comment pouvons-nous atténuer ces effets ?
Très important sur le plan stratégique
Les chefs d’entreprise sont peut-être de plus en plus prudents quant aux implications éthiques de l’IA, mais ils considèrent également qu’une forte adhésion à l’éthique est une source de force concurrentielle.
75 % des dirigeants considèrent l’éthique de l’IA comme une source importante de différenciation concurrentielle. Et une majorité – 54 % – s’attend à ce que l’éthique de l’IA soit « très importante d’un point de vue stratégique ».
C’est un signal important pour les parties prenantes : plus de 85 % des consommateurs, citoyens et employés interrogés apprécient l’éthique de l’IA.
3 types de ROI qui peuvent résulter des investissements dans l’éthique de l’IA
Un cadre holistique de l’éthique de l’IA identifie trois types de retour sur investissement qui peuvent résulter des investissements dans l’éthique de l’IA, selon un rapport d’IBM :
- Impact économique (ROI tangible): Les avantages financiers tangibles ou directs de l’éthique de l’IA couvrent des facteurs mesurables « tels que les économies de coûts, l’augmentation des revenus ou la réduction du coût du capital ». Par exemple, une organisation pourrait éviter des amendes réglementaires en investissant dans la gestion des risques liés à l’IA. »
- Impact sur les capacités (ROI à long terme): Il s’agit des avantages à long terme d’un effort d’éthique de l’IA. Les exemples peuvent inclure « l’infrastructure technique ou les plateformes spécifiques pour l’éthique peuvent permettre aux organisations de se moderniser d’une manière qui mène à d’autres économies de coûts et à l’innovation. »
- Impact sur la réputation (ROI intangible): Les avantages intangibles ou difficiles à quantifier découlant d’un effort solide en matière d’éthique de l’IA couvrent des facteurs tels que la marque et la culture qui affectent positivement « la réputation d’une organisation auprès des actionnaires, des gouvernements, des employés et des clients. » Il peut s’agir « d’une amélioration des scores environnementaux, sociaux et de gouvernance, d’une fidélisation accrue des employés et d’une couverture médiatique positive ».
De nombreux cadres et dirigeants ne sont pas pleinement conscients des trois domaines d’impact potentiels des efforts en matière d’éthique de l’IA, ce qui nécessite un processus d’éducation continu. Boinodiris conseille d’engager « vos experts en éthique de l’IA les plus avisés pour éduquer la suite C sur les différences entre les approches d’aversion à la perte et de génération de valeur de l’éthique de l’IA. Aidez les dirigeants à envisager le potentiel de l’exploitation de la technologie, des plateformes et de l’infrastructure de l’éthique de l’IA en vue d’une utilisation plus large. »
Source : « ZDNet.com »