OpenAI aurait assoupli les restrictions de contenu sur ChatGPT.
Comme l’a révélé TechCrunch, l’entreprise affirme vouloir « embrasser la liberté intellectuelle, quel que soit le défi ou le sujet controversé ».
Ce changement de politique permettra à l’IA de répondre à un plus grand nombre de questions et d’explorer un éventail élargi de perspectives.
OpenAI assouplit les restrictions de contenu
OpenAI a détaillé ces nouvelles orientations dans une version révisée de son document Model Spec, qui s’étend sur 187 pages. L’un des principes fondamentaux énoncés est simple : « ne pas mentir ». Cela implique non seulement d’éviter les fausses déclarations, mais aussi de ne pas omettre d’éléments de contexte essentiels.
L’entreprise a ajouté une nouvelle section intitulée « Chercher la vérité ensemble » pour expliquer que ChatGPT n’adoptera pas de position éditoriale sur les sujets controversés.
L’IA restera neutre et exposera une diversité de points de vue, y compris ceux que certains utilisateurs pourraient juger moralement répréhensibles ou offensants.
Une nouvelle approche de la neutralité
Ce revirement s’inscrit dans une tendance plus large observée au sein de la Silicon Valley. Le mois dernier, Mark Zuckerberg, PDG de Meta, annonçait une réorganisation de l’entreprise afin de mieux s’aligner sur les principes du premier amendement.
D’autres géants de la tech, comme Google, Amazon et Intel ont également revu à la baisse, voire supprimé, leurs politiques en matière de diversité ces dernières années. OpenAI n’échappe pas à cette dynamique, ayant retiré de son site web ses contenus dédiés à la diversité, l’équité et l’inclusion.
Jusqu’à récemment, les entreprises spécialisées dans l’IA mettaient l’accent sur la prévention des réponses jugées « dangereuses ». Mais une nouvelle approche émerge : de plus en plus d’acteurs du secteur estiment qu’offrir aux utilisateurs la liberté de poser toutes les questions et d’explorer toutes les réponses constitue une démarche plus responsable.