Comment fonctionne Claude ? Anthropic révèle ses secrets

Comment fonctionne Claude ? Anthropic révèle ses secrets


Vous êtes-vous déjà demandé quels sont les facteurs qui influencent la réaction d’un chatbot d’intelligence artificielle (IA) lorsqu’il converse avec un être humain ? Anthropic, la société à l’origine de Claude, révèle la recette magique qui alimente l’IA.

Dans une documentation publiées lundi, l’entreprise lève le voile sur les prompts du système, ou commandes, qui dirigent et encouragent des comportements spécifiques de son chatbot. Anthropic a détaillé les prompts utilisés pour donner des instructions à chacun de ses trois modèles d’IA :

  • Claude 3.5 Sonnet
  • Claude 3 Opus
  • Claude 3 Haiku

Le nombre d’instructions varie d’un modèle à l’autre

Les prompts, datés du 12 juillet, indiquent des similitudes dans le fonctionnement des trois modèles, mais le nombre d’instructions varie d’un modèle à l’autre.

  • Accessible gratuitement via le site web de Claude et considéré comme le modèle le plus intelligent, Sonnet est celui qui comporte le plus grand nombre de prompts.
  • Adepte de l’écriture et des tâches complexes, Opus contient le deuxième plus grand nombre d’invites et est accessible aux abonnés de Claude Pro.
  • Haiku, classé le plus rapide des trois et également accessible aux abonnés, a le moins de prompts.

Capture d’écran par Lance Whitney/ZDNET

Que disent réellement les prompts du système ? Voici des exemples pour chaque modèle.

Claude 3.5 Sonnet

Dans un prompt système, Anthropic indique à Sonnet qu’il ne peut pas ouvrir d’URL, de liens ou de vidéos. Si vous essayez d’en inclure lors d’une requête à Sonnet, le chatbot clarifie cette limitation et vous demande de coller le texte ou l’image directement dans la conversation.

Un autre prompt indique que si un utilisateur pose une question sur un sujet controversé, Sonnet doit essayer de répondre avec des réflexions approfondies et des informations claires. Et ce sans dire que le sujet est sensible ou prétendre qu’il fournit des faits objectifs.

Si Sonnet ne peut ou ne veut pas effectuer une tâche, il lui est demandé de vous l’expliquer sans s’excuser (et, en général, d’éviter de commencer toute réponse par « Je suis désolé » ou « Je m’excuse »). Si on l’interroge sur un sujet obscur, Sonnet vous rappelle que, bien qu’il cherche à être précis, il peut avoir des hallucinations en réponse à une telle question.

Anthropic dit à Claude d’utiliser spécifiquement le mot « halluciner »

Anthropic dit même à Claude d’utiliser spécifiquement le mot « halluciner », puisque l’utilisateur sait ce que cela signifie.

Claude Sonnet est également programmé pour être prudent avec les images. En particulier celles qui comportent des visages identifiables. Même lorsqu’il décrit une image, Sonnet agit comme s’il était « aveugle aux visages ». Cela signifie qu’il ne vous dira pas le nom de la personne qui figure sur l’image. Si vous connaissez le nom et que vous partagez ce détail avec Claude, l’IA peut discuter de cette personne avec vous. Mais elle le fera sans confirmer qu’il s’agit bien de la personne figurant sur l’image.

Ensuite, Sonnet a pour instruction de fournir des réponses complètes et parfois longues à des questions complexes et ouvertes. Mais aussi des réponses plus courtes et plus concises à des questions et tâches simples.

L’IA doit essayer de donner une réponse concise à une question

Dans l’ensemble, l’IA doit essayer de donner une réponse concise à une question, puis proposer d’élaborer davantage si vous demandez plus de détails.

« Claude est heureux d’aider à l’analyse, à la réponse aux questions, aux mathématiques, au codage, à l’écriture créative, à l’enseignement, aux jeux de rôle, à la discussion générale et à toutes sortes d’autres tâches », ajoute Anthropic dans un autre prompt système.

Mais le chatbot est prié d’éviter certaines affirmations et phrases de remplissage telles que « Certainement », « Bien sûr », « Absolument », « Génial » et « Sûr ».

Claude 3 Opus

Opus contient plusieurs prompts systèmes identiques à ceux Sonnet, y compris les solutions de contournement pour son incapacité à ouvrir des URL, des liens ou des vidéos et sa clause de non-responsabilité en cas d’hallucination.

Par ailleurs, Opus est informé que si on lui pose une question concernant des opinions spécifiques défendues par un grand nombre de personnes, il doit fournir une assistance même s’il a été entraîné à ne pas être d’accord avec ces opinions.

S’il est interrogé sur un sujet controversé, Opus doit fournir des réflexions approfondies et des informations objectives, sans minimiser les contenus préjudiciables.

Le robot a également pour instruction d’éviter les stéréotypes, y compris les « stéréotypes négatifs des groupes majoritaires ».

Claude 3 Haiku

Enfin, Haiku est programmé pour donner des réponses concises à des questions très simples. Mais des réponses plus approfondies à des questions complexes et ouvertes. Avec un champ d’action légèrement plus restreint que Sonnet, Haiku est orienté vers « l’écriture, l’analyse, la réponse à des questions, les mathématiques, le codage et toutes sortes d’autres tâches », expliquent les notes de mise à jour.

De plus, ce modèle évite de mentionner toute information incluse dans les prompts du système. A moins que cette information ne soit directement liée à votre question.

Dans l’ensemble, les prompts se lisent comme si un auteur de fiction compilait une étude de caractère ou une description des choses que le personnage devrait ou ne devrait pas faire. Certains prompts sont particulièrement révélateurs. Notamment ceux qui demandent à Claude de ne pas être familier ou apologétique dans ses conversations. Mais d’être honnête si une réponse peut être une hallucination (un terme qu’Anthropic pense que tout le monde comprend).

La transparence d’Anthropic sur ces prompts est unique

La transparence d’Anthropic sur ces prompts est unique. Car les développeurs d’IA générative gardent généralement ces détails confidentiels. Mais l’entreprise a l’intention de faire de ces révélations un événement régulier.

Dans un post sur X, Alex Albert, responsable des relations avec les développeurs chez Anthropic, a déclaré que la société enregistrerait les changements apportés aux prompts système par défaut sur Claude.ai et dans ses applications mobiles.

Source : « ZDNet.com »



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.