L’IA fait désormais partie de notre vie quotidienne au point qu’elle est en passe de s’emparer de l’internet. Grâce à l’IA, vous pouvez obtenir des réponses instantanées à pratiquement n’importe quelle question.
Mais cet aspect des chatbots d’IA n’est qu’une partie du paysage de l’IA. Certes, ChatGPT vous aide à faire vos devoirs ou Midjourney crée des images fascinantes, c’est cool. Mais le potentiel de l’IA générative pourrait complètement remodeler les économies. Selon le McKinsey Global Institute, cela pourrait représenter 4,4 billions de dollars par an pour l’économie mondiale. C’est pourquoi vous devez vous attendre à entendre parler de plus en plus d’intelligence artificielle.
À mesure que les gens s’habituent à un monde où l’IA est omniprésente, de nouveaux termes apparaissent un peu partout. Voici quelques termes importants relatifs à l’IA que vous devez connaître.
A
AGI, ou Intelligence Générale Artificielle : Concept qui suggère une version plus avancée de l’IA que celle que nous connaissons aujourd’hui, capable d’effectuer des tâches bien mieux que les humains tout en apprenant et en faisant progresser ses propres capacités.
Agentique et Agentif (Systèmes et frameworks) : Systèmes ou modèles qui ont la capacité de mener des actions de manière autonome pour atteindre un objectif. Dans le contexte de l’IA, un modèle agentif peut agir sans supervision constante, comme une voiture autonome de haut niveau. Contrairement à un framework « agentique », qui est en arrière-plan, les frameworks agentifs sont en première ligne et se concentrent sur l’expérience de l’utilisateur.
Agents autonomes : Les agents autonomes sont des modèles d’IA dotés des capacités, de la programmation et d’autres outils nécessaires à l’accomplissement d’une tâche spécifique. Une voiture auto-conduite est un agent autonome, par exemple, parce qu’elle dispose d’entrées sensorielles, d’un GPS et d’algorithmes de conduite pour naviguer sur la route de manière autonome. Des chercheurs de Stanford ont montré que les agents autonomes peuvent développer leurs propres cultures, traditions et langage commun.
Algorithme : Un algorithme est une série d’instructions qui permet à un programme informatique d’apprendre et d’analyser des données d’une manière particulière, par exemple en reconnaissant des modèles, puis d’en tirer des enseignements et d’accomplir des tâches de manière autonome.
Alignement : Modification d’une IA afin de mieux produire le résultat souhaité. Cela peut aller de la modération du contenu au maintien d’interactions positives avec les humains.
Anthropomorphisme : Lorsque les humains ont tendance à donner à des objets non humains des caractéristiques semblables à celles des humains. Dans l’IA, cela peut inclure le fait de croire qu’un chatbot est plus humain et conscient qu’il ne l’est en réalité, comme croire qu’il est heureux, triste ou même qu’il est sensible.
Apprentissage aléatoire : Test au cours duquel un modèle doit accomplir une tâche sans recevoir les données d’entraînement nécessaires. Un exemple serait de reconnaître un lion alors qu’il n’a été formé qu’aux tigres.
Apprentissage de bout en bout (E2E – end-to-end learning) : Processus d’apprentissage profond dans lequel un modèle est chargé d’effectuer une tâche du début à la fin. Il n’est pas formé pour accomplir une tâche de manière séquentielle, mais apprend à partir des données d’entrée et résout le problème en une seule fois.
Apprentissage machine ou ML (Machine Learning) : Composante de l’IA qui permet aux ordinateurs d’apprendre et d’obtenir de meilleurs résultats prédictifs sans programmation explicite. Il peut être couplé à des ensembles de formation pour générer un nouveau contenu.
Apprentissage non supervisé : Forme d’apprentissage automatique dans laquelle le modèle ne reçoit pas de données d’entraînement étiquetées, mais doit identifier lui-même des modèles dans les données.
Apprentissage profond (Deep Learning) : Méthode d’IA, et sous-domaine de l’apprentissage automatique, qui utilise de multiples paramètres pour reconnaître des modèles complexes dans des images, des sons et des textes. Le processus s’inspire du cerveau humain et utilise des réseaux neuronaux artificiels pour créer des modèles.
Apprentissage zéro (zero-shot learning) : Un test dans lequel un modèle doit accomplir une tâche sans recevoir les données de formation requises. Un exemple serait de reconnaître un lion alors qu’il n’a été formé qu’aux tigres.
Augmentation des données : Remixer des données existantes ou ajouter un ensemble plus diversifié de données pour entraîner une IA.
B
Biais : En ce qui concerne les grands modèles linguistiques, les erreurs résultant des données d’apprentissage. Il peut en résulter une attribution erronée de certaines caractéristiques à certains groupes humains sur la base de stéréotypes.
C
Chatbot : Programme qui communique avec les humains par le biais d’un texte simulant le langage humain.
ChatGPT : Chatbot d’IA développé par OpenAI qui utilise la technologie des grands modèles de langage.
Comportement émergent : Lorsqu’un modèle d’IA présente des capacités inattendues.
Considérations éthiques sur l’IA : Sensibilisation aux implications éthiques de l’IA et aux questions liées à la vie privée, à l’utilisation des données, à l’équité, à l’utilisation abusive et à d’autres questions de sécurité.
D
Dataset : Un ensemble d’informations numériques utilisées pour entraîner, tester et valider un modèle d’intelligence artificielle.
Diffusion : Méthode d’apprentissage automatique qui prend un élément de données existant, comme une photo, et y ajoute un bruit aléatoire. Les modèles de diffusion entraînent leurs réseaux à réorganiser ou à récupérer cette photo.
Données d’apprentissage : Les ensembles de données utilisés pour aider les modèles d’IA à apprendre, y compris le texte, les images, le code ou les données.
E
Éthique de l’IA : Principes visant à empêcher l’IA de nuire aux humains, par des moyens tels que la détermination de la manière dont les systèmes d’IA devraient collecter des données ou traiter les préjugés.
F
Foom : Le concept de « fast takeoff » (décollage rapide) ou de « hard takeoff » (décollage difficile). L’idée que si quelqu’un construit une IA, il est peut-être déjà trop tard pour sauver l’humanité.
G
GAN ( Generative Adversarial Networks) : Les réseaux adversaires génératifs (GAN) sont un modèle d’IA génératif composé de deux réseaux neuronaux pour générer de nouvelles données : un générateur et un discriminateur. Le générateur crée de nouveaux contenus et le discriminateur vérifie leur authenticité.
Garde-fous de l’IA (guardrails) : Politiques et restrictions imposées aux modèles d’IA pour garantir que les données sont traitées de manière responsable et que le modèle ne crée pas de contenu dérangeant.
Génération d’images à partir de textes: Création d’images à partir de descriptions textuelles.
Google Gemini : Chatbot d’IA de Google qui fonctionne de manière similaire à ChatGPT mais qui tire des informations du web actuel, alors que ChatGPT est limité aux données jusqu’en 2021 et n’est pas connecté à l’internet.
H
Hallucination : Réponse incorrecte de l’IA. Il peut s’agir d’une IA générative produisant des réponses incorrectes mais énoncées avec assurance comme étant correctes. Les raisons de ce phénomène ne sont pas entièrement connues. Par exemple, si l’on demande à un chatbot IA « Quand Léonard de Vinci a-t-il peint la Joconde ? », il peut répondre par une affirmation incorrecte en disant « Léonard de Vinci a peint la Joconde en 1815 », soit 300 ans après qu’elle a été réellement peinte.
I
IA, ou Intelligence Artificielle : L’utilisation de la technologie pour simuler l’intelligence humaine, que ce soit dans les programmes informatiques ou la robotique. Il s’agit d’un domaine de l’informatique qui vise à construire des systèmes capables d’accomplir des tâches humaines.
IA faible, ou IA étroite : L’IA qui se concentre sur une tâche particulière et ne peut pas apprendre au-delà de ses compétences. La plupart des IA actuelles sont des IA faibles.
IA Générative : L’IA générative est une technologie de génération de contenu qui utilise l’IA pour créer du texte, de la vidéo, du code informatique ou des images. L’IA est alimentée par de grandes quantités de données d’entraînement et trouve des modèles pour générer ses propres réponses, qui peuvent parfois être similaires au matériel d’origine.
IA multimodale : un type d’IA qui peut traiter plusieurs types d’entrées, y compris le texte, les images, les vidéos et la parole.
Inférence : Processus utilisé par les modèles d’intelligence artificielle pour générer du texte, des images et d’autres contenus sur de nouvelles données, en inférant à partir de leurs données d’apprentissage.
Informatique cognitive : Autre terme pour l’intelligence artificielle.
L
Latence : Le délai entre le moment où un système d’intelligence artificielle reçoit une entrée ou un prompt et le moment où il produit une sortie.
LLM (Large Langage Model) : Un modèle d’IA formé sur des quantités massives de données textuelles pour comprendre le langage et générer un nouveau contenu dans un langage semblable à celui de l’homme.
M
Microsoft Bing : Moteur de recherche de Microsoft qui peut désormais utiliser la technologie de ChatGPT pour fournir des résultats de recherche alimentés par l’IA. Il est similaire à Google Gemini en ce qu’il est connecté à l’internet.
Modèle de transformateur (transformer model) : Architecture de réseau neuronal et modèle d’apprentissage profond qui apprend le contexte en suivant les relations dans les données, comme dans les phrases ou les parties d’images. Ainsi, au lieu d’analyser une phrase un mot à la fois, il peut examiner la phrase dans son ensemble et comprendre le contexte.
P
Paperclip Maximiser (théorie) : La théorie du maximisateur de trombones (Paperclip Maximiser), inventée par le philosophe Nick Boström de l’Université d’Oxford, est un scénario hypothétique dans lequel un système d’intelligence artificielle crée autant de trombones que possible. Dans son objectif de produire le maximum de trombones, un système d’IA consommerait ou convertirait hypothétiquement tous les matériaux pour atteindre son but. Il pourrait notamment démanteler d’autres machines pour produire davantage de trombones, des machines qui pourraient être utiles aux humains. La conséquence involontaire de ce système d’IA est qu’il pourrait détruire l’humanité dans son objectif de fabriquer des trombones.
Paramètres : Valeurs numériques qui donnent au LLM sa structure et son comportement, lui permettant de faire des prédictions.
Perplexity : Nom d’un chatbot et d’un moteur de recherche alimentés par l’IA et appartenant à Perplexity AI. Il utilise un grand modèle de langage, comme ceux que l’on trouve dans d’autres chatbots d’IA, pour répondre à des questions avec des réponses inédites. Sa connexion à l’internet lui permet également de fournir des informations actualisées et d’extraire des résultats de l’ensemble du web. Perplexity Pro, un niveau payant du service, est également disponible et utilise d’autres modèles, notamment GPT-4o, Claude 3 Opus, Mistral Large, le modèle open-source LlaMa 3 et son propre modèle Sonar 32k. Les utilisateurs de la version Pro peuvent en outre télécharger des documents à des fins d’analyse, générer des images et interpréter des codes.
Perroquet stochastique (stochastic parrot) : Analogie des LLM illustrant le fait que le logiciel n’a pas une compréhension plus large de la signification du langage ou du monde qui l’entoure, même si le résultat semble convaincant. L’expression fait référence à la façon dont un perroquet peut imiter des mots humains sans en comprendre le sens.
Prompt (invite) : La suggestion ou la question que vous entrez dans un chatbot d’IA pour obtenir une réponse.
Prompt chaining : La capacité de l’IA à utiliser les informations des interactions précédentes pour contextualiser les réponses futures.
Q
Quantification : Processus par lequel un modèle d’apprentissage à grande échelle de l’IA est rendu plus petit et plus efficace (bien que légèrement moins précis) en réduisant sa précision d’un format supérieur à un format inférieur. Une bonne façon d’y penser est de comparer une image de 16 mégapixels à une image de 8 mégapixels. Les deux sont toujours claires et visibles, mais l’image à plus haute résolution sera plus détaillée lorsque vous ferez un zoom avant.
R
Réseau neuronal (Neuronal Network) : Modèle informatique qui ressemble à la structure du cerveau humain et qui est destiné à reconnaître des modèles dans les données. Il se compose de nœuds interconnectés, ou neurones, qui peuvent reconnaître des modèles et apprendre au fil du temps.
S
Sécurité de l’IA : Un domaine interdisciplinaire qui s’intéresse aux impacts à long terme de l’IA et à la façon dont elle pourrait évoluer soudainement vers une superintelligence qui pourrait être hostile à l’homme.
Surajustement (Overfitting) : Erreur dans l’apprentissage automatique où il fonctionne trop étroitement avec les données d’apprentissage et peut seulement être capable d’identifier des exemples spécifiques dans ces données, mais pas de nouvelles données.
T
Traitement du langage naturel (Natural Language Processing – NLP) : Branche de l’IA qui utilise l’apprentissage automatique et l’apprentissage profond pour donner aux ordinateurs la capacité de comprendre le langage humain, souvent à l’aide d’algorithmes d’apprentissage, de modèles statistiques et de règles linguistiques.
Transfert de style : La capacité d’adapter le style d’une image au contenu d’une autre, permettant à une IA d’interpréter les attributs visuels d’une image et de les utiliser sur une autre. Par exemple, prendre l’autoportrait de Rembrandt et le recréer dans le style de Picasso.
Température : Paramètres définis pour contrôler le caractère aléatoire des résultats d’un modèle de langage. Une température plus élevée signifie que le modèle prend plus de risques.
Test de Turing : Nommé d’après le célèbre mathématicien et informaticien Alan Turing, il teste la capacité d’une machine à se comporter comme un être humain. La machine réussit le test si un humain ne peut pas distinguer la réponse de la machine de celle d’un autre humain.
Tokens (jetons) : Petits morceaux de texte écrit que les modèles de langage de l’IA traitent pour formuler leurs réponses à vos prompts. Un jeton équivaut à quatre caractères en anglais, soit environ les trois quarts d’un mot.