Microsoft Bing permet désormais d’ajuster la personnalité de l’IA

bing


Microsoft Bing hérite d’une nouvelle fonctionnalité. Désormais, le moteur de recherche permet de modifier la personnalité de son ChatGPT intégré en fonction des besoins.

Microsoft continue d’apporter des modifications au nouveau Bing. Comme promis, le moteur de recherche permet désormais de modifier la manière dont Prometheus, le chatbot basé sur le même modèle de langage que ChatGPT, génère des réponses.

À lire aussi : On a comparé Microsoft Bing à ChatGPT, voici nos impressions

Trois personnalités différentes pour le ChatGPT de Bing

Le géant de Redmond laisse le choix entre trois personnalités différentes : créatif, équilibré ou précis. Si l’internaute opte pour la personnalité créative, l’intelligence artificielle aura tendance à élaborer de plus longues réponses en inventant des choses. C’est l’idéal si vous vous servez de ChatGPT pour rédiger un roman ou chercher des idées pour un scénario ou un poème.

Capture d’écran : Geoffroy Ondet/ 01Net

Par contre, la personnalité décrite comme précise met l’accent sur l’exactitude des informations communiquées. Une fois que ce mode est activé, Prometheus founira des réponses factuelles, brèves et courtes. L’IA ne brodera pas autour des thématiques de vos questions pour générer des réponses. Dans ce cas-ci, la créativité du chatbot est complètement bridée par Microsoft. C’est parfait pour faire des recherches en ligne… ce qui reste la raison d’être principale de Bing.

Enfin, la dernière personnalité propose un juste milieu entre la rigueur scientifique et la créativité. Par défaut, Microsoft a défini la personnalité de son ChatGPT sur équilibré. Les internautes doivent manuellement passer d’un mode à l’autre en fonction de leurs besoins.

D’après Mikhail Parakhin, responsable des services Web chez Microsoft, les trois personnalités sont désormais disponibles auprès des testeurs actuels du nouveau Bing. Si vous avez déjà accès au moteur de recherche dopé à l’IA, vous devriez apercevoir « le sélecteur de mode de discussion » dans l’interface.

Microsoft continue de revoir sa copie

Quelques jours plus tôt, Microsoft a imposé des limites d’utilisation aux testeurs de Prometheus. Le géant américain a décidé d’autoriser les internautes à ne poser que six questions par conversation, et soixante questions par jour.

Ces changements répondent aux étonnantes dérives de l’intelligence artificielle intégrée au moteur de recherche. Ces dernières semaines, de nombreux internautes ont remarqué que le chatbot se comportait parfait de manière irrationnelle, en proférant des menaces ou des insultes à la moindre contrariété.

Les modifications apportées par Microsoft visent à éviter ces débordements. En effet, ce sont les conversations qui traînent en longueur qui sont susceptibles de faire dérailler l’intelligence artificielle.  De même, ce sont généralement les échanges exigeant une certaine dose de créativité qui provoquent des réactions mimant les émotions humaines.

Les récentes mesures de contention de Microsoft ont été mal accueillies par la plupart des testeurs. En voulant éviter les dérives, l’éditeur a provoqué une série de bugs. D’après plusieurs témoignages, ChatGPT refusait régulièrement de répondre aux questions des internautes. Selon Mikhail Parakhin, les « cas où Bing refuse de répondre sans raison apparente » ont été considérablement réduits par le biais d’une mise à jour.





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.