L’IA redéfinit la distribution des tâches entre l’humain et la ma …

L’IA redéfinit la distribution des tâches entre l’humain et la ma ...



En quoi l’intelligence artificielle impacte-t-elle l’emploi ? Le sujet n’est pas nouveau.

Il conviendrait sans doute même de parler de “serpent de mer des débats”, estime en préambule la Human Technology Foundation.

Le groupe de réflexion remettait cette semaine à la secrétaire d’État en charge de l’IA et du numérique un rapport consacré à l’influence de ces technologies sur le monde du travail (et la définition de ses contours futurs).

Paradoxe : forte adoption et rejet cohabitent

Du document, Clara Chappaz retient un “paradoxe frappant : 55 % des salariés français utilisent l’IA en secret, sans en informer leur manager, tandis que 63 % déclarent ne pas avoir été formés à cette technologie et ne souhaitent pas l’être, exprimant un rejet à son égard.”

Pour les auteurs, la GenAI “a totalement rebattu les cartes” et a conduit à la démocratisation de la technologie. Ce mouvement s’accompagne cependant d’un creusement de la fracture numérique, et donc des inégalités.

Quant au paradoxe relevé par la représentante du gouvernement, il se caractérise donc par l’émergence du shadow AI, mais aussi par “des inquiétudes chez les salariés”. Ces craintes portent notamment sur l’intérêt et le sens du travail, ainsi que sur le rapport futur entre l’humain et la machine. Qui travaillera pour qui ? s’interrogent-ils.

Les effets de l’IA perceptibles dans 10 ans, au moins

Mais pour le think-tank, l’IA générative a un impact sur de multiples autres aspects du marché du travail : transmission des compétences, collectif au travail, rôle du manager, évaluation des collaborateurs, etc.

En outre, et ce à moyen terme, l’IA va “entraîner l’évolution d’un grand nombre de métiers.” L’avenir demeure pour autant incertain, y compris en termes d’adoption par les entreprises, souligne David Autor du MIT.

Pour le spécialiste de l’économie du travail, 10 années sont nécessaires pour disposer d’un recul suffisant, une fois la phase d’expérimentation passée. Malgré ces précautions, les rapporteurs perçoivent l’IA “comme un levier de transformation majeur du marché du travail.”

Automatiser, mais préserver des compétences cognitives et sociales

Mieux vaut dès lors en anticiper les impacts et accompagner la mutation. Comment ? Au travers d’une “intégration stratégique et responsable.” Il s’agit par exemple de s’assurer que l’accélération de processus par l’IA ne nuise pas “à la préservation des compétences cognitives et sociales.”

Car selon les contributeurs, ces compétences “jouent un rôle central dans l’innovation et la résilience des organisations.” En clair, l’automatisation à tout prix pourrait bien s’avérer un très mauvais calcul sans recul suffisant.

Pour répondre aux multiples défis que pose la diffusion de l’IA, le rapport émet plusieurs recommandations. Il encourage notamment les entreprises à développer les compétences en matière d’utilisation de l’IA.

Une intégration de l’IA progressive et coordonnée

Il est donc dans leur intérêt de former aux usages, mais sans oublier d’adapter les compétences requises aux spécificités de leurs métiers et de leur secteur. En ce qui concerne l’intégration des outils dans les environnements de travail, elle doit être “progressive et coordonnée.”

Les experts précisent qu’elle doit “surtout tenir compte des particularités des contextes d’utilisation et des besoins des collaborateurs.” Quant à la formation des collaborateurs, elle ne devra pas se cantonner à la technique.

Les utilisateurs doivent être des esprits avertis, par exemple en étant sensibilisés aux implications éthiques, organisationnelles et sociales. La prise en compte de cette dimension dans la formation est qualifiée d’essentielle.

Priorité à l’expérimentation plutôt qu’à la définition d’un cadre contraignant

“Les entreprises qui adoptent une posture d’expérimentation et d’adaptation continue seront mieux préparées à répondre aux évolutions technologiques et sociales”, analyse encore le rapport. Mais attention à ne pas trop compter sur la main invisible, c’est-à-dire l’autorégulation.

“Une approche proactive et coordonnée de l’intégration de l’IA nécessite un cadre réglementaire et éthique pour prévenir les dérives potentielles”, préconise leur rapport. Charge aussi aux organisations de concilier utilisation de l’IA et prise en compte de leurs enjeux de sécurité et de protection des données.

Pour Clara Chappaz, la première étape est celle de l’expérimentation. Expérimentez “plutôt que d’attendre de définir un cadre contraignant”, recommande la politique.

“L’une des erreurs les plus communes serait de penser que nous pourrons anticiper les effets de cette technologie sans les expérimenter et qu’il faudrait d’abord définir un cadre contraignant les usages avant de permettre leur déploiement. »



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.