OpenAI modifie son interdiction pour un usage militaire

Discuter de vive voix avec ChatGPT devient gratuit


Le 10 janvier, OpenAI a mis à jour ses conditions d’utilisation, notamment dans le but de les rendre plus claires. Dans le cadre de cette mise à jour, la start-up d’intelligence artificielle générative a fait disparaître les mots  » militaire  » et  » guerre. « 

Avant le 10 janvier, il était écrit que l’utilisation des modèles d’IA d’OpenAI est interdite pour des activités présentant un risque élevé de dommages physiques. L’usage militaire et la guerre étaient explicitement cités, parmi d’autres.

La modification des conditions d’utilisation a soulevé quelques interrogations. OpenAI a réagi auprès de plusieurs médias américains et a apporté une justification, tout en confirmant que la mise à jour des conditions d’utilisation permet une adaptation à des clients militaires et des projets approuvés.

Des cas d’utilisation bénéfique

 » Notre politique n’autorise pas l’utilisation de nos outils pour porter atteinte à des personnes, développer des armes, surveiller des communications, blesser d’autres personnes ou détruire des biens. Il existe cependant des cas d’utilisation en lien avec la sécurité nationale qui correspondent à notre mission « , indique un porte-parole d’OpenAI à TechCrunch.

Il est fait allusion à un travail avec la DARPA, et donc le département de la Défense des États-Unis, pour de nouveaux outils de cybersécurité et la protection d’infrastructures critiques.  » Il n’était pas clair si ces cas d’utilisation bénéfique auraient été autorisés sous le terme militaire dans nos politiques précédentes. « 


OpenAI se retranche désormais derrière des politiques dites universelles.  » N’utilisez pas nos services pour vous nuire ou nuire à autrui. Par exemple, n’utilisez pas nos services pour promouvoir le suicide ou l’automutilation, développer ou utiliser des armes, blesser d’autres personnes ou détruire des biens, ou vous livrer à des activités non autorisées qui violent la sécurité d’un service ou d’un système. « 

Objectif atteint ?

À vouloir éclaircir ses conditions d’utilisation, OpenAI a peut-être au final introduit encore davantage de flou et une porte dérobée pour des usages militaires. La frontière pour des cas d’utilisation jugée bénéfique risque d’être parfois ténue.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.