Des chercheurs révèlent qu’être malpoli avec ChatGPT pourrait paradoxalement améliorer ses réponses.
Vous faites peut-être preuve d’une grande courtoisie quand vous vous adressez à l’IA (juste « au cas où… »), mais une étude suggère que parler sur un ton sec, voire rabaissant, à ChatGPT permettrait d’extraire des réponses plus justes.
Être malpoli donnerait de meilleurs résultats
L’expérimentation a porté sur 250 requêtes (prompts) soumises à GPT-4o, un modèle d’OpenAI. Les résultats montrent que le mode qualifié de « très impoli » a atteint un taux de réussite de 84,8 % sur un QCM technique, soit quatre points de plus que les requêtes formulées avec une politesse excessive. En demandant sèchement à l’IA de « se débrouiller » pour trouver la solution plutôt que de solliciter son aide avec tact, les utilisateurs obtiendraient un travail plus rigoureux.
Cette sensibilité au ton utilisé confirme que les LLM ne se contentent pas d’analyser la structure syntaxique, mais « lisent » la façon dont le message est exprimé. Mais cette efficacité semble avoir un prix. L’étude en question, qui a été menée par des chercheurs de l’Université d’État de Pennsylvanie, mais qui n’a pas encore été certifiée par des pairs, souligne que l’usage de termes rabaissants pourrait dégrader l’expérience utilisateur globale et instaurer des comportements toxiques.
« L’utilisation d’un langage insultant ou dégradant dans les interactions entre les humains et l’IA pourrait avoir des effets négatifs sur l’expérience utilisateur, l’accessibilité et l’inclusivité, et pourrait contribuer à l’émergence de normes de communication néfastes », précisent les chercheurs.
Une mauvaise influence sur l’IA
Des recherches liées à cette étude montrent qu’un des dangers vient du fait que les IA seraient sensibles à leur environnement et que les modèles de langage peuvent souffrir de « déclin cognitif » (« brain rot ») lorsqu’ils sont exposés à des flux importants de contenus viraux de faible qualité. Cette exposition entraînerait une hausse des traits de narcissisme et de psychopathie dans les réponses de l’IA, ce qui est loin d’être souhaitable.
À lire : ChatGPT Go : l’abonnement à 8 € d’OpenAI arrive en France… avec de la publicité
En étant « méchant » avec l’IA, l’utilisateur pourrait donc involontairement contribuer à des normes de communication toxiques. Dans ce contexte, la fin justifie-t-elle les moyens ? Les chercheurs apportent cependant une nuance importante : si GPT-4o réagit au quart de tour à la pression, les modèles plus récents et plus avancés, comme ChatGPT 5.2, pourraient apprendre à ignorer le ton pour se concentrer sur l’essence du problème, rendant cette stratégie d’intimidation obsolète.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.
Par : Opera
Source :
Presse Citron