De nombreuses personnes se tournent désormais vers les chatbots d’IA pour répondre à leurs besoins personnels, qu’il s’agisse d’une conversation régulière ou d’un soutien émotionnel. Toutefois, au cours des derniers mois, les inquiétudes se sont accrues quant aux inconvénients de l’utilisation de cette technologie et ce au détriment des interactions humaines.
Selon deux études réalisée par OpenAI en partenariat avec le Massachusetts Institute of Technology, l’utilisation de chatbots tels que ChatGPT peut correspondre à une augmentation de la solitude et à une diminution du temps passé à socialiser avec d’autres personnes. L’analyse porte sur la manière dont les plateformes de dialogue en ligne influencent le bien-être émotionnel et les comportements des utilisateurs.
Dans la première étude, l’équipe d’OpenAI a réalisé une « analyse de près de 40 millions d’interactions ChatGPT sans intervention humaine pour garantir la confidentialité des utilisateurs ». L’étude a combiné ces données de recherche avec des enquêtes ciblées auprès des utilisateurs afin de mieux comprendre les applications réelles. Les opinions des utilisateurs sur ChatGPT, analysées en conjonction avec les conversations des utilisateurs, ont permis d’évaluer les « schémas d’utilisation affective ».
Les grands utilisateurs de ChatGPT font davantage confiance au chatbot
La deuxième étude, menée par l’équipe du MIT Media Lab, a réalisé un essai randomisé auprès d’environ 1 000 participants qui ont utilisé ChatGPT pendant un mois. Cette étude a été conçue pour mettre en évidence la façon dont les caractéristiques spécifiques de la plateforme et les types d’interaction peuvent avoir un impact sur le bien-être psychosocial et émotionnel déclaré par les utilisateurs. Notamment « la solitude, les interactions sociales avec des personnes réelles, la dépendance émotionnelle à l’égard du chatbot d’IA, et l’utilisation problématique de l’IA ».
Dans les deux études, les participants avaient une grande variété d’expériences d’utilisation du ChatGPT dans le passé. Certains participants ont reçu l’instruction d’avoir des conversations non spécifiques et ouvertes, tandis que d’autres ont été informés qu’ils pouvaient avoir des conversations personnelles ou non personnelles avec le chatbot.
Les résultats ont révélé que les grands utilisateurs de ChatGPT faisaient davantage confiance au chatbot et étaient plus susceptibles de se sentir plus seuls et émotionnellement dépendants du service.
Le piège de l’ami virtuel
Toutefois, les résultats des utilisateurs sont influencés par des facteurs personnels, tels que les besoins émotionnels des individus, leur perception de l’IA et la durée d’utilisation. Par exemple, les personnes qui ont tendance à s’attacher émotionnellement aux relations humaines et qui considéraient l’IA comme un ami sont plus susceptibles de ressentir des effets négatifs à la suite de l’utilisation d’un chatbot.
« Les types de conversations plus personnelles, qui comprennent plus d’expression émotionnelle de la part de l’utilisateur et du modèle que les conversations non personnelles, sont associés à des niveaux plus élevés de solitude, mais moins de dépendance émotionnelle et d’utilisation problématique à des niveaux d’utilisation modérés », ont observé les chercheurs.
Cependant, « les conversations non personnelles ont tendance à augmenter la dépendance émotionnelle, en particulier en cas d’utilisation intensive ».
La voix n’est pas plus toxique que le texte
Selon la seconde étude, les utilisateurs qui utilisent ChatGPT par le biais de l’option texte uniquement ont montré « plus d’indices affectifs » dans les conversations que les utilisateurs qui utilisent la voix. Une « voix plus engageante » n’a pas conduit à une augmentation des résultats négatifs pour les utilisateurs au cours de l’étude par rapport à une voix neutre ou à des interactions basées sur le texte. Les chercheurs ont également constaté que très peu de personnes utilisent ChatGPT pour des conversations émotionnelles.
Selon les chercheurs, les résultats de ces deux études constituent une « première étape cruciale » dans la compréhension de l’impact des modèles d’IA sur l’expérience humaine et encourageront l’industrie et le monde universitaire à poursuivre leurs recherches.
« Nous déconseillons de généraliser les résultats, car cela risquerait de masquer les conclusions nuancées mettant en évidence les interactions complexes et non uniformes entre les personnes et les systèmes d’IA », ont déclaré les chercheurs.