AWS Summit (New York) – L’événement AWS qui se tenait cette semaine a permis à l’entreprise d’annoncer des nouveautés dans le domaine de l’intelligence artificielle générative (IA).
Dans toutes ses annonces, AWS a mis l’accent sur l’accélération de la productivité des développeurs et sur la mise à disposition d’un plus grand nombre d’organisations d’une IA générative évolutive. Mais aussi sur la sécurité et la responsabilité, en soulignant son partenariat avec Anthropic. Matt Wood, vice-président des produits d’IA chez AWS, a souligné que la sécurité est intégrée dans les applications d’IA générative d’AWS « dès le premier jour ». Et qu’il s’agit de la plus grande priorité de l’entreprise.
Voici les principaux points forts que nous avons retenu de l’AWS Summit 2024.
AWS App Studio, construire des applications avec l’IA Gen
Radhika Rajkumar/ZDNET
L’une des annonces du sommet concerne App Studio, qui est actuellement en preview. Cette nouvelle plateforme alimentée par l’IA Gen permet aux équipes IT de créer des applications complètes à l’aide de descriptions et de prompt en langage naturel.
Les utilisateurs peuvent spécifier la fonction de l’application et les sources de données qu’elle doit utiliser, et App Studio produira « en quelques minutes » une application « qui aurait pris des jours à un développeur professionnel pour la construire à partir de zéro », selon le communiqué.
Lors d’une démonstration, AWS a montré à ZDNET comment App Studio peut créer une application de suivi de factures, et proposer des suggestions sur la manière dont elle devrait fonctionner. Une fois que l’utilisateur a approuvé la preview créée par App Studio, l’utilisateur peut la modifier à l’aide de fonctions de glisser-déposer, avant de la déployer.
App Studio s’intègre également à des services tiers et à AWS par le biais de connecteurs. Adam Seligman, vice-président de l’expérience des développeurs chez AWS, a déclaré à ZDNET que l’entreprise s’attend à ce qu’App Studio aille vers davantage d’intégrations en fonction des commentaires des clients.
Du neuf pour Amazon Q
Radhika Rajkumar/ZDNET
Amazon a annoncé plusieurs mises à jour de Q, l’assistant d’intelligence artificielle de l’entreprise, en mettant l’accent sur le support aux développeurs. Amazon Q fournit des conseils sur les produits et génère du code. Amazon Q Developer est désormais également disponible dans Sagemaker, l’environnement de développement d’apprentissage machine (ML) d’Amazon.
Auparavant, Q n’était disponible que dans la console AWS et dans des environnements de développement comme IntelliJ IDEA, Visual Studio et VS Code.
« Dans SageMaker Studio, les data scientist et les ingénieurs ML bénéficient de toutes les fonctionnalités de Q, telles que la génération de code, le débogage et les conseils, ainsi que d’une assistance spécialisée pour des tâches telles que la préparation des données, l’entraînement des modèles et le déploiement des modèles », a expliqué Swami Sivasubramanian, vice-président AI & Data, dans un communiqué.
Concrètement, les développeurs peuvent demander à Q comment affiner leur LLM et Q leur renverra des instructions, accompagnées d’un exemple de code. Q peut également conseiller les utilisateurs sur l’approche à adopter pour la préparation des données en fonction du cas d’utilisation, de la préférence pour le code, et du format des données.
Amazon Q Apps, une fonctionnalité d’Amazon Q Business
Autre nouveauté, Amazon Q Apps, une fonctionnalité d’Amazon Q Business, est désormais disponible. Amazon Q Business permet de créer des applications utilisant les données d’entreprise en envoyant à Q un prompt en langage naturel.
L’idée est ensuite de générer une application réutilisable à partir d’une conversation avec l’assistant pour des tâches telles que « résumer un retour d’information, créer des plans d’intégration, rédiger des textes, rédiger des mémos », poursuit M. Sivasubramanian dans le communiqué.
Du neuf pour Amazon Bedrock
La société a également annoncé des nouveautés pour Bedrock, sa plateforme pour la création et la mise à l’échelle d’applications d’IA générative. Bedrock propose une large gamme de modèles pour chaque cas d’utilisation.
Les utilisateurs peuvent désormais affiner le modèle Claude 3 Haiku d’Anthropic dans Bedrock. Le fine tuning permet de spécifier les modèles en fonction de leurs besoins et de leurs cas d’utilisation. De quoi faciliter la personnalisation. Cette fonctionnalité est actuellement en preview. A noter que c’est la première fois que les modèles Claude 3 sont disponibles pour faire du fine tuning.
De bonnes données permettent de meilleurs résultats en matière d’IA générative. Amazon ajoute donc de nouvelles sources de données aux bases de connaissances pour Amazon Bedrock, y compris des connecteurs pour Confluence, SharePoint et Salesforce. Mais aussi des sources web personnalisées et une meilleure précision pour les données CSV et PDF.
Cela permet de personnaliser davantage les modèles avec plus de données commerciales. A noter que Knowledge Bases se connecte déjà à des sources privées comme Amazon Aurora, MongoDB, Pinecone, etc.
De nouvelles capacités pour les agents dans Bedrock
Amazon a annoncé deux nouvelles fonctionnalités pour les agents dans Amazon Bedrock :
- La conservation de la mémoire
- L’interprétation du code
Ces deux fonctionnalités améliorent les possibilités de personnalisation.
Grâce à la conservation de la mémoire, les agents peuvent désormais se souvenir de la dernière requête d’un utilisateur. Auparavant, ils étaient limités aux informations dont ils disposaient lors d’une seule session. Par exemple, les agents peuvent désormais se référer à des informations provenant d’interactions antérieures, comme la dernière fois que vous avez voyagé lors d’une requête sur la réservation d’un vol.
M. Wood a fait remarquer que les clients d’AWS souhaitaient que les agents effectuent des analyses complexes, au-delà des simples tâches automatisées. Pour répondre à ce besoin, AWS a exploité la capacité des agents à écrire du code.
Ils peuvent désormais générer et exécuter du code dans un environnement de type « sandbox ». Cela permet aux agents d’analyser des données et de créer des graphiques « pour s’attaquer à des cas d’utilisation complexes, tels que l’analyse et la visualisation de données, le traitement de texte, la résolution d’équations et les problèmes d’optimisation », a déclaré M. Sivasubramanian dans le communiqué. Par exemple, cette capacité pourrait permettre d’analyser les données relatives aux prix de l’immobilier afin de faciliter la prise de décisions en matière d’investissement.
L’interprétation du code est limitée à un environnement sandbox afin d’éviter le chaos potentiel dû à la création et à l’exécution de codes non validés par des agents. Amazon a également fait remarquer que les utilisateurs peuvent directement télécharger des documents, ce qui simplifie la tâche des agents.
Mises à jour des garde-fous (Guardrails)
Radhika Rajkumar/ZDNET
Pour répondre aux préoccupations des clients concernant les hallucinations lors de l’utilisation de l’IA générative, Amazon a annoncé des contrôles contextuels au sein de Guardrails for Bedrock. Il s’agit de paramètres d’IA générative visant à réduire les résultats nuisibles.
Ces contrôles contextuels détecteront et bloqueront les hallucinations dans les réponses des modèles pour les clients qui utilisent le RAG et le résumé. Cette fonction garantit également que la réponse d’un modèle peut être attribuée aux données sources et qu’elle est pertinente par rapport à la requête initiale de l’utilisateur.
Bedrock fournit déjà des filtres pour les mots, les sujets, les contenus nuisibles et les données personnelles. Cette mise à jour renforce le blocage des informations en traitant les hallucinations elles-mêmes. AWS indique que Guardrails filtre jusqu’à 75 % des hallucinations.
Guardrails existe dans Bedrock, mais pour étendre sa portée, AWS a également annoncé une version API de la fonctionnalité. L’idée est de permettre aux clients de la mettre en œuvre dans des modèles de fondation qui ne sont pas hébergés par Bedrock.