En tant qu’utilisateur de l’IA en entreprise, comment utiliser l’IA générative (Gen AI) en toute sécurité ?
Voici 5 choses que vous pouvez faire pour optimiser votre utilisation de l’IA, selon quelques experts.
1. Donner de meilleures instructions à l’IA
En raison des capacités conversationnelles de l’IA Gen, les gens utilisent souvent des prompts courts et peu précis. Comme lorsqu’ils discutent avec un ami. Le problème est que, lorsqu’ils reçoivent des instructions, les systèmes d’IA peuvent déduire le sens de votre message texte de manière incorrecte. Pourquoi ? Parce qu’ils n’ont pas les compétences humaines qui leur permettent tout simplement de lire entre les lignes.
Pour illustrer ce problème, un professeurs adjoints à la Carnegie Mellon School of Computer Science, Maarten Sap, explique qu’il a dit à un chatbot qu’il lisait un million de livres. Et le chatbot a pris cette expression au pied de la lettre… Maarten Sap dit que cette recherche lui a permis de constater que les LLM ont du mal à comprendre les références non littérales de manière littérale dans plus de 50 % des cas.
La meilleure façon de contourner ce problème est de clarifier vos prompts. Soyez explicite. Les chatbots sont comme des assistants, il faut donc leur dire ce que vous voulez faire. Même si cette approche peut nécessiter plus de travail lors de la rédaction d’une instruction, le résultat devrait correspondre davantage à vos exigences.
2. Vérifiez vos réponses
Si vous avez déjà utilisé un chatbot d’IA, vous savez qu’il hallucine. C’est-à-dire qu’il produit des informations incorrectes. Les hallucinations peuvent se produire de différentes manières, soit :
- En produisant des réponses factuellement incorrectes
- En résumant de manière incorrecte des informations données
- En étant d’accord avec des faits erronés partagés par un utilisateur
Selon Martin Sap, les hallucinations surviennent surtout dans les domaines spécialisés, tels que le droit et la médecine, puisqu’ils dépassent les 50 %. Ces hallucinations sont difficiles à repérer parce qu’elles sont présentées d’une manière qui semble plausible. Même si elles sont absurdes.
Les modèles réaffirment souvent leurs réponses, en utilisant des marqueurs tels que « Je suis confiant », même lorsqu’ils proposent des informations incorrectes. Un document de recherche indique que les modèles d’IA sont certains de leur fait, mais incorrects dans leurs réponses, dans 47 % des cas.
Par conséquent, la meilleure façon de se protéger contre les hallucinations est de revérifier ses réponses. Certaines tactiques consistent à contre-vérifier vos réponses auprès de sources externes, ou à reposer la question au modèle en utilisant une formulation différente. L’idée est de voir si l’IA produit la même réponse.
Bien qu’il puisse être tentant d’obtenir l’aide de ChatGPT sur des sujets que vous ne connaissez pas bien, il est plus facile d’identifier les erreurs si vos questions restent dans votre domaine d’expertise !
3. Gardez les données qui vous concernent confidentielles
Les outils d’IA générative sont formés à partir de grandes quantités de données. Ils ont également besoin de nouvelles données pour continuer à apprendre. Et devenir plus efficaces. Par conséquent, les modèles utilisent souvent leurs résultats pour poursuivre leur formation.
Le problème est que les modèles régurgitent souvent leurs données d’entraînement dans leurs réponses. Cela signifie que vos informations privées pourraient être utilisées dans les réponses destinées à quelqu’un d’autre. La meilleure façon de maintenir une bonne hygiène en matière d’IA est d’éviter de partager des données sensibles ou personnelles.
De nombreux outils d’IA, y compris ChatGPT, proposent des options qui permettent aux utilisateurs de refuser la collecte de données. Le refus est toujours une bonne option, même si vous ne prévoyez pas d’utiliser des données sensibles.
4. Faites attention à la façon dont vous parlez aux LLM
Les capacités des systèmes d’IA et la possibilité de parler à ces outils en utilisant le langage naturel ont conduit certaines personnes à surestimer le pouvoir de ces robots.
L’anthropomorphisme, ou l’attribution de caractéristiques humaines, est un terrain glissant. Si les gens considèrent ces systèmes d’IA comme proches de l’homme, ils risquent de leur confier davantage de responsabilités et de données.
Selon les experts, l’un des moyens d’atténuer ce problème est de cesser d’attribuer des caractéristiques humaines aux modèles d’IA lorsqu’on les évoque. Au lieu de dire « le modèle pense que vous voulez une réponse équilibrée », Martin Sap suggère une meilleure alternative : « Le modèle est conçu pour générer des réponses équilibrées sur la base de ses données d’entraînement ».
5. Soyez vigilant aux cas dans lesquels vous utilisez les LLM
Bien qu’il semble que ces modèles puissent aider dans presque toutes les tâches, il y a de nombreux cas où ils ne peuvent pas fournir la meilleure assistance. Bien que des benchmarks soient disponibles, ils ne couvrent qu’une petite partie de la façon dont les utilisateurs interagissent avec les LLM.
Il se peut également que les LLM ne fonctionnent pas de manière optimale pour tout le monde. On a enregistré des cas où les LLM reproduisent des réponses racistes. Ces préjugés montrent que les modèles peuvent être inaptes à fournir une assistance dans de nombreux cas d’utilisation.
Par conséquent, la solution consiste à faire preuve de réflexion et de prudence lors de l’utilisation des LLM.
Source : « ZDNet.com »