Au cours des trois derniers mois, le paysage de l’intelligence artificielle (IA) a été marqué par des annonces et des investissements significatifs, qui, combinées, vont, pour GreenSI, impacter l’évolution des progiciels métiers d’entreprises.
Une révolution attendue, et qui est en train de se mettre en place.
La course aux « agents IA » est la première d’entre elles. Elle se traduit dans les investissements massifs sur ce sujet dans des startups, mais aussi chez les ténors des LLM. Le billet de février de GreenSI explorait cette quête essentielle pour la valorisation de l’investissement dans l’IA.
La recherche de standards d’interopérabilité dans cette nouvelle industrie est la seconde. Plus personne ne pense y arriver seul (sauf peut-être encore Microsoft ?). Que ce soit sur l’interopérabilité des LLM avec les applications, avec les bases de données ou entre eux.
Enfin, l’ampleur des investissements récents dans les infrastructures dédiées à l’IA est sans précédent, tant à l’international, qu’au niveau national, comme le récent Choose France et la Conférence sur l’IA à Paris l’ont montré.
Ces trois tendances, en créant une nouvelle approche pour les applications de l’IA, fragilisent le modèle actuel des applications métier d’entreprises. Elles ne peuvent être ignorées par les DSI qui investissent dessus.
En effet, les fondamentaux des progiciels métiers reposent sur une plateforme, le Cloud, et des applications peu intelligentes, centrées sur l’ergonomie de l’accès aux données. Elles couvent jalousement la base des données de l’entreprise, jusqu’à parfois confondre sa propriété et en réclamer une licence quand on y accède sans utiliser le progiciel.
On voit qu’avec des agents IA qui vont fonctionner au niveau des processus, « au-dessus » des applications, en simulant des utilisateurs humains, il y a une question stratégique qui se pose aux éditeurs. D’autant plus que les infrastructures IA se spécialisent des infrastructures du Cloud, et que les données s’ouvrent. Trois décalages avec leur modèle établi.
Ces mêmes éditeurs avaient déjà réagi, il y a 10 ans, face au développement du Cloud, et ils avaient muté d’un modèle de vente de licence à un modèle de vente de services, incluant l’infrastructure. D’ailleurs ceux qui n’ont pas fait cette mutation, ont disparu. En 2024, les ventes de licences du leader européen SAP représentent 4 % de leur CA, et un maximum de 10 % en y ajoutant les licences sur des environnements Cloud. Le Cloud et les services en ligne, avec un peu de logique métier, représentent la majorité de leurs revenus.
C’est cette manne visée par les agents IA.
Aujourd’hui, ces éditeurs sont donc confrontés à un nouveau choix stratégique et peut-être une nouvelle migration de leur modèle économique.
Les entreprises clientes, sont elles confrontées à tirer parti de la révolution de l’IA. Pour cela, elles souhaitent hybrider les processus de l’entreprise, entre leurs agents et les futurs « agents IA ». Mais ils veulent aussi protéger leurs données et qu’elles ne servent pas à l’apprentissage de leurs concurrents. Or ces processus sont aujourd’hui supportés par ces progiciels métiers, pour beaucoup en SaaS, sur des plateformes d’éditeurs.
On voit rapidement qu’on n’est pas nécessairement dans une combinaison « gagnant-gagnant » entre éditeurs et entreprises clientes…
La course aux « agents IA »
La vraie révolution vient des agents intelligents capables d’opérer directement sur les données, indépendamment des backend spécifiques utilisés. Ce changement bouleverse donc radicalement la notion même d’application métier qui gère jalousement ces backend, fonctionnant sur les données de l’entreprise.
Comme l’a partagé Satya Nadella, le Président de Microsoft, dans une interview du début d’année qui annonçait « la fin du SaaS », c’est encore plus réel avec les applications SaaS. Mais ce n’est pas limité au SaaS.
Les applications SaaS sont essentiellement des interfaces simples associées à des bases de données enrichies de règles métier.
Désormais, la logique métier va migrer vers cette nouvelle couche autonome pilotée par l’IA, indépendante des systèmes sous-jacents spécifiques. Les agents d’IA interagiront ainsi simultanément avec plusieurs bases de données, centralisant la logique applicative et rendant obsolètes les interfaces SaaS traditionnelles.
Que va-t-il rester comme logique métier et backend aux applications métiers ?
Certainement les traitements dits « batch », d’administration ou de gestion des données, mais la couche d’interface avec les utilisateurs actuels qui payent les abonnements à leur progiciel, va se réduire. Leur équation économique est d’autant plus challengée, que les agents IA ne seront pas gratuits, et que les DSI vont vouloir réduire les coûts pour les financer. Alors si une application SaaS amène moins de valeur, ce sera un très bon candidat d’optimisation.
La recherche de standards et d’interopérabilité
Ces nouveaux agents privilégieront des architectures ouvertes, interconnectées, permettant la manipulation dynamique et aisée de données provenant de multiples sources. Ils deviendront des orchestrateurs universels capables de gérer des flux de travail complexes sans être liés à une interface SaaS particulière.
Les formats binaires pour les échanges vont aussi perdre rapidement leur compétitivité face à l’émergence du besoin d’architecture textuelle, facilement intégrable avec les IA. Les APIs pourraient être dépassées si elles ne s’adaptent pas à des interfaces « prompt ». Aujourd’hui ça devient la norme, même pour générer une image ou une vidéo.
Ceci va faire peser une contrainte d’adaptation sur les progiciels métiers, qui ne sont pas tous des exemples de formats ouverts et de configurations dynamiques. Et s’ils ne le font pas, ils ne seront plus consultés par les agents IA et à la fin choisis par les agents humains.
Un élément clé de cette transition est l’introduction récente du Model Context Protocol (MCP).
Introduit par Anthropic, il a été adopté par OpenAI et Google. Ce protocole technique standardise la communication contextuelle entre les logiciels et les agents intelligents. Le MCP fournit une structure uniforme pour l’échange et l’interprétation d’informations contextualisées, facilitant les interactions complexes nécessaires à l’intégration des IA. Il va être essentiel pour le développement des agents, et les progiciels vont devoir l’intégrer. Le bras de fer autour de ce standard n’a pas encore commencé.
Les infrastructures dédiées à l’IA
La course à la performance des LLMs, qui anime parfois le devant de l’actualité, est important, mais pas essentiel dans les travaux de l’IA. En réalité, les leaders comme OpenAI ou Anthropic consacrent la majorité de leurs équipes non pas à ces modèles de base, mais aux services et outils construits par-dessus.
On a par exemple cette semaine le codeur universel d’OpenAI, Codex, qui a été déployé. À côté des codeurs, on aura l’agent de traitement des emails, le veilleur…,
Les infrastructures de ces acteurs vont certainement héberger demain une majorité d’agents, dont le travail est aujourd’hui traité par les infrastructures des progiciels SaaS.
D’autre part, au cours des derniers mois, le paysage des infrastructures dédiées à l’intelligence artificielle (IA) a connu une expansion significative. Nvidia menant toujours la course en tête. De nouveaux développements visent à répondre à la demande croissante en capacités de calcul, en stockage de données et en efficacité énergétique, essentiels pour soutenir l’évolution rapide des technologies d’IA. Ces infrastructures ne sont pas celles du Cloud traditionnel, même si elles sont aussi proposées par ces opérateurs.
On va donc assister à une migration des traitements vers ces nouvelles plateformes, réduisant la charge sur les infrastructures SaaS qui aujourd’hui représentent une partie des revenus des éditeurs comme SAP.
La mutation attendue des progiciels
Face à cette transformation radicale, les éditeurs de progiciels devront évoluer.
Des modèles plus ouverts, qui renoncent à un contrôle absolu sur leurs interfaces utilisateurs, seront la norme. En contrepartie, ils devront augmenter la qualité, la flexibilité et l’accessibilité des données et des services proposés via API. Cette transition va certainement s’accompagner par un rééquilibrage de leur modèle économique vers les API, y compris « scriptables » par une IA.
Ceux qui persisteront dans une approche fermée et non adaptable risquent en revanche d’être dépassés par des solutions plus dynamiques et collaboratives, répondant mieux aux attentes de ces dix prochaines années.