8 façons de réduire l’épuisement dû aux IA

8 façons de réduire l


L’intelligence artificielle responsable et éthique est devenue le sujet brûlant de notre époque, d’autant que l’IA s’infiltre dans tous les aspects de la prise de décision et de l’automatisation. D’après une enquête IBM, 35 % des entreprises déclarent aujourd’hui utiliser l’IA dans leurs activités, et 42 % explorent cette possibilité.

La même enquête d’IBM révèle que la confiance est extrêmement importante — quatre personnes interrogées sur cinq déclarent que le fait de pouvoir expliquer comment l’IA est parvenue à une décision est important pour leur entreprise.

Cependant, l’IA reste du code — c’est-à-dire une suite de 1 et de 0. Elle n’est pas porteuse d’empathie, et fait souvent abstraction du contexte.

Elle a le potentiel de fournir des résultats biaisés et nuisibles. Au fur et à mesure que l’IA progresse dans la chaîne hiérarchique — des simples chatbots ou de la maintenance prédictive, à l’aide aux décisions exécutives ou médicales — il faut savoir faire la part des choses.

En d’autres termes, les développeurs, les responsables de la mise en œuvre, les utilisateurs et les partisans de l’IA doivent être en mesure d’expliquer leur raisonnement, d’expliquer comment les décisions sont prises et de s’adapter en permanence à de nouveaux scénarios.

La difficulté d’une IA « responsable »

Il n’est cependant pas facile de mettre en place une IA responsable. Elle est synonyme de pression, en particulier pour les équipes responsables de son développement. Comme le souligne Melissa Heikkilä dans le MIT Technology Review, « l’épuisement professionnel devient de plus en plus courant dans les équipes d’IA responsable ». Les plus grandes organisations ont « investi dans des équipes qui évaluent comment nos vies, nos sociétés et nos systèmes politiques sont affectés par la façon dont ces systèmes sont conçus, développés et déployés ». Pour les petites et moyennes entreprises et les start-up, cela signifie que ces responsabilités incombent aux développeurs, aux ingénieurs et aux data scientists.

Le résultat – même dans les plus grandes entreprises – est que « les équipes qui travaillent sur l’IA responsable sont souvent livrées à elles-mêmes », constate Melissa Heikkilä. « Ce travail peut être tout aussi épuisant psychologiquement que la modération de contenu. Au final, les membres de ces équipes peuvent se sentir sous-valorisés, ce qui peut affecter leur santé mentale et conduire à l’épuisement professionnel. »

La vitesse d’adoption de l’IA ces dernières années a fait monter la pression à des niveaux intenses. L’IA est passée du labo aux chaînes de production « plus rapidement que prévu au cours des dernières années », explique Andy Thurai, analyste stratégique chez Constellation Research, qui s’est fait l’avocat d’une IA responsable. La gestion d’une IA responsable « pourrait être particulièrement épuisante si certains doivent modérer des contenus, des décisions et des données qui vont à l’encontre de leurs croyances, de leur point de vue, de leurs opinions et de leur culture, tout en essayant de maintenir une distinction entre la neutralité et leurs croyances. Etant donné que l’IA travaille 24 heures sur 24, 7 jours sur 7 et 365 jours sur 365, et que les décisions prises par l’IA sont parfois des événements qui changent la vie, les humains dans la boucle sont censés suivre ce rythme, ce qui peut conduire à l’épuisement et à des décisions sujettes à erreur ».

La loi traîne

Les lois et la gouvernance « n’ont pas progressé aussi vite que l’IA », ajoute-t-il. « Combiné au fait que de nombreuses entreprises n’ont pas de procédures et de directives appropriées pour l’IA éthique et sa gouvernance, cela rend ce processus encore plus compliqué. »

Ajoutez à cela les contestations potentielles par les tribunaux et les systèmes juridiques, « qui commencent à imposer de lourdes pénalités et obligent les entreprises à revenir sur leurs décisions », et vous obtenez un climat « particulièrement stressant pour les employés qui tentent de faire appliquer des règles aux systèmes d’IA ».

Le soutien de la hiérarchie fait également défaut, ce qui accroît le stress. Une étude portant sur 1 000 cadres publiée par le MIT Sloan Management Review et le Boston Consulting Group le confirme. Toutefois, l’étude révèle que si la plupart des cadres s’accordent à dire que « l’IA responsable est essentielle pour atténuer les risques liés à la technologie – notamment sur les questions de sécurité, de partialité, d’équité et de respect de la vie privée – ils reconnaissent qu’elle n’est pas considérée comme une priorité ».

Comment réduire les risques

Alors, comment les promoteurs, les développeurs et les analystes de l’IA abordent-ils les problèmes liés à un éventuel épuisement professionnel ? Voici quelques moyens d’atténuer le stress et l’épuisement induits par l’intelligence artificielle :

  • Informer les chefs d’entreprise des conséquences. Les décisions et les résultats non filtrés de l’IA font prendre le risque de poursuites judiciaires. « Les dirigeants doivent considérer le coût des dépenses en IA éthique et responsable comme un moyen d’améliorer la responsabilité de leur entreprise, plutôt que comme un poste de dépense seul« , explique Thurai. « Bien que dépenser moins d’argent maintenant puisse améliorer leur résultat net, un seul jugement judiciaire défavorable éclipserait les économies qui découleraient de ces investissements.« 
  • Obtenir des ressources appropriées. Le stress induit par les examens de l’IA est un phénomène nouveau qui nécessite de repenser le soutien apporté par l’entreprise. « Beaucoup de ressources en matière de santé mentale dans les entreprises technologiques sont centrées sur la gestion du temps et l’équilibre entre vie professionnelle et vie privée, mais il faut davantage de soutien pour les personnes qui travaillent sur des sujets émotionnellement et psychologiquement difficiles« , écrit Heikkilä.
  • Travailler en étroite collaboration avec l’entreprise pour s’assurer que l’IA responsable est une priorité. « Toute IA doit être responsable« , dit Thurai. Il cite l’étude du MIT-BCG (mentionnée ci-dessus) qui révèle que seulement 19 % des entreprises dont l’IA est la principale priorité stratégique travaillent sur des programmes d’IA responsable. « Ce chiffre devrait être proche de 100 %« , affirme-t-il. Les managers et les employés doivent être encouragés à opérer une prise de décision holistique qui intègre l’éthique, la moralité et l’équité.
  • Demandez de l’aide en amont.Demandez l’aide d’experts pour prendre des décisions éthiques en matière d’IA, plutôt que celle d’ingénieurs en IA« , déclare M. Thurai.
  • Gardez les humains dans la boucle. Prévoyez toujours des stratégies de secours dans le processus de décision de l’IA. Soyez flexible et ouvert à la reconception des systèmes. Une enquête menée par SAS, Accenture Applied Intelligence, Intel et Forbes révèle qu’un répondant sur quatre admet avoir dû repenser, reconcevoir ou neutraliser un système basé sur l’IA en raison de résultats douteux ou insatisfaisants.
  • Automatisez autant que possible : « L’IA est un traitement à très grande échelle« , explique M. Thurai. « Le processus manuel de validation de la qualité des données et de la validation des résultats ne fonctionne pas. Les entreprises doivent mettre en œuvre des IA ou d’autres solutions à grande échelle pour automatiser le processus.« 
  • Garder les biais hors des données. Les données utilisées pour former les modèles d’IA peuvent contenir des biais implicites, en raison des limites des ensembles de données. Les données qui entrent dans les systèmes d’IA doivent être bien contrôlées.
  • Valider les algorithmes avant de les mettre en production. Les données qui entrent dans les algorithmes d’IA peuvent changer d’un jour à l’autre et ces algorithmes doivent être constamment testés.

« Il est facile, dans ce monde bipolaire et biaisé, de qualifier de fausses les décisions éthiques prises par l’IA« , déclare Thurai. « Les entreprises devraient faire très attention à la fois à la transparence des décisions de l’IA, à l’éthique et à la gouvernance qui sont appliquées. Une IA dissécable de fond en comble et de la transparence sont deux éléments importants. Combinez-les avec des audits réguliers pour évaluer et corriger les processus. »

Source : ZDNet.com





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.