Trouvez des bugs dans ChatGPT pourrait vous rapporter gros

chatgpt


Le créateur de ChatGPT se dit prêt à vous payer jusqu’à 20 000 dollars – soit 18 300 euros – si vous trouvez des bugs dans son chatbot d’intelligence artificielle.

Et si vous vous mettiez dans la peau d’un chasseur de bug de ChatGPT ? L’annonce d’OpenAI, la société américaine à l’origine du chat conversationnel le plus populaire du moment, pourrait vous intéresser. « Pour créer des technologies et des services sûrs, fiables et dignes de confiance, nous avons besoin de vous », écrit l’entreprise dans un billet de blog en date du mardi 11 avril. L’entreprise vient de lancer un programme visant à rémunérer les personnes qui trouveront des bugs dans ses systèmes d’intelligence artificielle. Appelé le « Bug Bounty Program », l’initiative promet de payer à chaque découverte de « vulnérabilités, de bugs ou les failles de sécurité » une récompense plus ou moins importante en fonction de la taille et de l’importance de l’erreur identifiée. Vous pourrez toucher de 200 dollars pour les découvertes de faible gravité à 20 000 dollars pour les découvertes exceptionnelles. OpenAI a indiqué avoir travaillé avec Bugcrowd, une plateforme de sécurité participative qui met en relation les chercheurs en cybersécurité et les entreprises, pour mettre en place ce programme.

Ne vous lancez pas dans une liste des hallucinations de ChatGPT. OpenAI précise bien que « les questions liées au contenu des prompts (des commandes) et les réponses du modèle sont strictement hors champ et ne seront pas récompensées ». Les nouvelles soumissions sont rejetées ou acceptées dans les deux heures. Ce mercredi 12 avril, 14 vulnérabilités ont déjà été récompensées, avec en moyenne 1 287,50 dollars touchés par soumission acceptée. Le mois dernier, Greg Brockman, président et cofondateur d’OpenAI, avait déjà fait allusion au lancement de ce type de programme dans un tweet.

Il n’est pas rare que les entreprises de la tech mettent en place ce type de chasse aux bugs, accessible à tous les hackers et chercheurs indépendants, avec des récompenses à la clé. Ces programmes permettent aux entreprises de la tech d’améliorer la sécurité de leurs services en continu et de découvrir des failles jusqu’alors inconnues des équipes internes chargées de la cybersécurité.

Une réponse à un bug et l’inquiétude quant à la sécurité de ce type d’IA ?

L’annonce intervient plusieurs semaines après un dysfonctionnement de l’agent conversationnel. Fin mars, on apprenait que ChatGPT avait révélé des données sensibles de certains utilisateurs, comme leurs noms, leurs adresses et les derniers chiffres du numéro de carte de crédit. OpenAI avait confirmé dans un communiqué l’existence d’une défaillance tout en minimisant les conséquences de l’anomalie. Elle aurait été une conséquence d’un dysfonctionnement de la bibliothèque open source de Redis, provoqué par un changement de serveur. Ce système de gestion de base de données est utilisé pour mettre en cache les données des usagers.

À lire aussi : ChatGPT : OpenAI confirme avoir rencontré un « important problème »

Cette initiative s’inscrit aussi dans une tentative de réponse à l’inquiétude générale que suscite ChatGPT et ce type d’outil d’IA. Le Président américain Joe Biden avait rappelé mardi 4 avril que les fabricants d’IA devaient « s’assurer que ses produits soient sûrs avant de les rendre publics », et que l’IA pourrait être dangereuse. Le Washington Post montrait aussi, le 8 avril dernier, que les entreprises développant des outils d’IA s’étaient lancées dans une véritable opération de charme, visant les hommes et femmes politiques clés du pays. Parmi les messages qu’elles souhaitent faire passer : leurs efforts pour développer l’intelligence artificielle de manière responsable et éthique… mais aussi sûre et transparente.  Les hackers et chercheurs devraient déjà s’atteler à découvrir les failles de l’agent conversationnel… et les soumissions devraient se multiplier.

Source :

Billet de Blog d’OpenAI





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.