Il est devenu difficile de définir des attentes réalistes en matière d’intelligence artificielle, ce qui complique la compréhension de sa valeur ajoutée.
Selon Ajay Malik, ancien responsable de l’architecture et de l’ingénierie du réseau mondial de Google, l’un des plus grands défis avec l’IA est peut-être de fixer des attentes réalistes. Il s’est exprimé à ce sujet lors d’un récent podcast animé par Thomas Erl, président d’Arcitura Education.
Les entreprises peuvent-elles faire confiance à l’IA ?
Pour commencer, les gains potentiels de l’IA ne sont pas suffisamment mesurés ni connus, explique M. Malik. Les décideurs « veulent être sûrs que toutes les informations qu’ils utiliseront en interne ou pour interagir avec des clients sont exactes ». Tout l’enjeu est là : « Comment les entreprises mesureront-elles l’exactitude de ce que fait l’IA ? Si l’IA a fait quelque chose, comment pouvez-vous toujours savoir si c’est exact ? Comment pouvez-vous lui faire confiance à 100 % ? ».
Cela a un impact sur la capacité des entreprises à atteindre leurs objectifs grâce à l’IA. « Si les entreprises ne réussissent pas ou trébuchent, ou si elles investissent dans des systèmes d’IA qui finissent par entraîner des pertes au lieu de la croissance, cela peut retarder ou modifier l’impact de l’IA sur leurs stratégies. Elles pourraient se dire : ça n’a pas marché, revenons aux travailleurs humains. Mais l’opportunité est réelle et nous devons nous préparer à l’impact, quel qu’il soit. »
Implanter des mécanismes de contrôle
Malik déplore notamment l’absence de représentations claires « avant/après » illustrant l’impact ou la précision de l’IA. Pour y remédier, il recommande l’intégration de mécanismes de vérification et de contrôle afin de garantir l’exactitude dces réponses de l’IA. Cela inclut la création de voies alternatives, de mécanismes ou de modèles permettant de valider les réponses fournies par l’IA.
L’essentiel est de comprendre exactement ce que produit l’IA. « N’utilisez pas l’IA comme une boîte noire dont vous dépendez sans même y penser. Nous n’en sommes pas encore là aujourd’hui. » De plus, les entreprises ne peuvent pas compter sur des services tels que ChatGPT, car les réponses doivent être précises et exemptes d’hallucinations, ces réponses fausses présentées comme des faits.
Au lieu de cela, les systèmes d’IA devraient comporter des « freins et des contrepoids intégrés », qui permettent de vérifier les réponses, les données, et assurer une certaine explicabilité. C’est à dire, les différents éléments utilisés par l’IA pour atteindre son objectif.
Approfondir : IA générative, après l’émerveillement de 2023, la note (salée) arrive en 2024
Un impact sur les emplois ?
L’impact de l’IA sera perceptible dans de nombreux secteurs professionnels. « Même dans le domaine des logiciels, de la programmation, des tests, beaucoup de ces emplois seront supprimés, pas aujourd’hui, mais au fil du temps », prédit Malik. « C’est un travail que l’IA peut effectuer, qu’il s’agisse de tâches de niveau très subalterne ou de tâches très répétitives et redondantes. »
Malik souligne également que la maîtrise de l’IA deviendra un facteur crucial : « Les employés capables de tirer parti de l’IA seront beaucoup plus recherchés que ceux qui ne le font pas. En parallèle, nous assisterons à une montée en importance des « penseurs, des résolveurs de problèmes et des créatifs. » Il précise que l’IA se chargera des tâches répétitives ou bien définies, tandis que les professionnels créatifs utiliseront cette technologie pour produire rapidement et avec une grande qualité, tout en générant des créations véritablement innovantes. Ce changement est déjà en cours.