Microsoft change d’avis et revoit déjà les limites de son ChatGPT

bing


Microsoft joue à la girouette avec le nouveau Bing. Après avoir instauré des limites à sa version de ChatGPT, l’éditeur revient progressivement sur ses pas.

Pour empêcher l’intelligence artificielle de Bing de dysfonctionner, Microsoft a mis en place des limites la semaine dernière. L’éditeur a pris la décision de limiter chaque conversation avec Prometheus, la version de ChatGPT taillée pour la recherche en ligne, à cinq questions. Microsoft limitait également le nombre d’interactions avec le chatbot à cinquante par jour.

À lire aussi : pourquoi la version Microsoft Bing de ChatGPT est-elle à la ramasse ?

Microsoft relâche ses nouvelles règles

Seulement quelques jours après l’entrée en vigueur de ces changements drastiques, Microsoft a brusquement changé d’avis. Dans un billet de blog, le géant américain annonce un assouplissement progressif des règles. En premier lieu, Microsoft va autoriser les internautes à poser six questions par conversation au lieu de cinq. Par jour, le nouveau Bing autorisera un total de soixante questions au lieu de cinquante. Pour la plupart des internautes, ces limites permettent une « utilisation quotidienne naturelle de Bing », justifie Microsoft.

L’éditeur ne compte pas s’arrêter là. Bientôt, les utilisateurs pourront poser jusqu’à 100 questions par jour à l’assistant intelligent du moteur de recherche. Microsoft relève les limites de façon très progressive afin d’éviter que le chatbot ne se mette à nouveau à raconter n’importe quoi :

« Nous avons l’intention d’autoriser les discussions plus longues et nous travaillons dur au moment où nous parlons sur la meilleure façon de le faire de manière responsable ».

Comme évoqué précédemment, les conversations qui traînent en longueur font parfois dérailler le chatbot. Dans certains cas, l’IA s’est montrée déprimée, menaçante, agressive ou insultante. Certains utilisateurs ont même poussé Prometheus à s’inventer une dizaine de personnalités alternatives, dont une entité colérique et hostile, Venom. Face à ces comportements inattendus, le groupe a préféré serrer la vis.

Microsoft précise n’avoir jamais remarqué ce type de comportements lors des tests réalisés en interne. C’est pourquoi des tests en conditions réelles sont indispensables pour déceler « les cas d’utilisation atypiques à partir desquels nous pouvons apprendre », souligne la firme de Redmond. L’entreprise ne cache pas l’aspect expérimental de son moteur de recherche dopé à l’IA.

Pour justifier ce revirement inattendu, Microsoft explique avoir reçu de nombreux témoignages d’internautes déçus par les limites imposées. Sans surprise, une grande partie des testeurs n’ont pas apprécié que l’usage de l’IA soit tout à coup limité. Sur Reddit, certains des premiers usagers estiment même que Microsoft a « castré », « stérilisé » et « lobotomisé l’IA », faisant du chatbot de Bing une simple coquille vide, un « imbécile artificiel », rapporte Ars Technica.

Microsoft teste un nouveau bouton

En parallèle, Microsoft annonce l’arrivée d’un commutateur qui permettra d‘ajuster le comportement de Prometheus. Déjà évoqué la semaine dernière, ce bouton permettra à l’internaute de choisir le ton de la conversation.

Il sera possible d’ordonner à l’IA de privilégier la précision, avec des réponses plus courtes et pertinentes, ou la créativité. Si l’utilisateur débloque sa créativité, le robot fournira des « réponses plus longues et plus bavardes ». Le commutateur comprendra également un réglage équilibré, qui combine précision et créativité.

Évidemment, il faudra ajuster la conduite de l’IA en fonction des besoins. Lors d’une recherche en ligne, l’internaute devrait plutôt brider l’inventivité de Bing et accentuer son sens de la précision. Si l’utilisateur souhaite converser avec l’IA, ou obtenir des essais, des poèmes ou des idées, il faudra plutôt débloquer l’ingéniosité du robot. C’est dans ces moments-là que Prometheus risque occasionnellement de lancer des absurdités ou de piquer des crises existentielles.

« L’objectif est de vous donner plus de contrôle sur le type de comportement du chat afin de répondre au mieux à vos besoins », explique Microsoft.

Microsoft précise avoir commencé à tester le commutateur auprès de certains testeurs. En fonction des retours, la firme devrait implémenter le bouton dans la version définitive du nouveau Bing.

Ces changements incessants laissent penser que Microsoft s’est empressé de lancer Prometheus, vraisemblablement dans le but de faire de l’ombre à Google et à son chatbot Bard, sans trop savoir comment l’IA allait réagir au contact des internautes. Scruté par le monde entier, Microsoft doit désormais trouver un équilibre délicat entre la prudence et l’audace…

Source :

Bing



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.