Tout est allé très vite ces dernières années. La méthodologie DevOps a accéléré les processus de développement, le cloud a drastiquement simplifié l’accès aux ressources d’infrastructure, et des entreprises dites « cloud natives » ont pu créer, de manière très agile et sans un énorme investissement de départ, toutes les applications dont elles avaient besoin, y compris les plus critiques, pour appuyer leur business profondément ancré dans le digital. Mais cette médaille d’agilité a son revers. Nombre d’organisations ont vu en effet naître une prolifération de services cloud difficile à maîtriser. « Les déploiements sont devenus si simples que le cloud peut très vite prendre un aspect tentaculaire », confirme Philippe Charpentier, Director Solutions Engineering France de NetApp. Le spécialiste des services de données dans le cloud accompagne aujourd’hui ses clients dans cette transformation en leur fournissant des outils CloudOps, pour reprendre le contrôle de leur nuage.
Des budgets cloud trop souvent dépassés
Et le premier défi est évidemment celui de la maîtrise des coûts. Des machines virtuelles qu’on laisse tourner alors qu’elles ne sont plus utilisées ou des instances déployées sans concertation avec la DSI, les entreprises connaissent bien ces scénarios. Il peut s’avérer très complexe aujourd’hui d’avoir une visibilité complète à un instant T sur l’ensemble des ressources consommées dans le cloud et plus encore d’anticiper l’évolution de cette consommation sur plusieurs mois. Dans ce contexte, difficile également de connaître véritablement le coût de son cloud. En 2021, d’après une étude réalisée par IDC, 46 % des entreprises européennes n’ont pu que constater un dépassement de leur budget cloud.
L’autre conséquence de ce cloud débridé est environnementale. Alors que les entreprises sont de plus en plus soucieuses de réduire leur empreinte carbone, la multiplication incontrôlée des applications et données dans le cloud a un impact direct sur l’énergie consommée. L’informatique dématérialisée repose bien sur des serveurs physiques et les datacenters, qui consomment aujourd’hui environ 2 % de l’électricité mondiale, pourrait en capter 8 % d’ici 2030. Et ceci alors même que 68 % de la donnée créée reste inexploitée ! « Le coût du cloud, ce n’est pas que de l’argent, c’est aussi de l’énergie, rappelle Philippe Charpentier. Il est urgent de mettre en place de nouvelles pratiques de gestion pour optimiser l’usage du cloud et faire baisser la facture, aussi bien en euros qu’en watts. ».
Réduire les coûts tout en renforçant la sécurité
Pour répondre à cette problématique, plutôt que de redévelopper des outils existants, NetApp a donc mené ces dernières années une stratégie d’acquisition. Avec des outils comme Spot, Fylamynt, Data Mechanics ou encore CloudCheckr désormais dans son portefeuille de solutions, NetApp peut aujourd’hui guider les entreprises aussi bien dans son domaine d’expertise historique du datacenter que dans les environnements multicloud. Réunis sous le nom Spot by NetApp, ces technologies offrent différentes fonctionnalités de contrôle. Cloudcheckr par exemple, peut être connecté à un environnement multicloud, analyser les informations de configuration des instances et établir des recommandations. Plus de 200 règles peuvent être vérifiées pour optimiser ces configurations afin de réduire les coûts ou renforcer la sécurité. Autre exemple, un outil comme Fylamynt va permettre de créer des workflows automatisés pour prévenir les administrateurs d’une anomalie. Il peut s’agir de l’indisponibilité d’un service, ou au contraire, d’une VM existante qui n’a pas été démarrée depuis plusieurs mois et pourrait potentiellement être décommissionnée.
« Le CloudOps va plus loin que le FinOps, souligne Philippe Charpentier. Il ne s’intéresse pas qu’aux coûts mais aussi à la sécurité, à la performance ou à la disponibilité des applications. Et il y a une logique très forte à utiliser ces différentes technologies ensemble ». Le cas de Data Mechanics, qui propose une plateforme Spark exécutée sur des clusters Kubernetes en mode cloud, illustre bien la cohésion de la stratégie. Le framework Spark est utilisé pour traiter des données à grande échelle grâce à des calculs parallélisés. Il nécessite donc l’association de plusieurs dizaines de serveurs. « Lorsque vous utilisez 100 serveurs pendant une journée pour effectuer un calcul et qu’ils restent inactifs le reste du mois, la facture peut être inutilement élevée, indique l’expert NetApp. L’intégration de Data Mechanics au portefeuille Spot by NetApp permet donc de réduire significativement le coût des workloads Spark ».
Tout ce savoir-faire CloudOps aujourd’hui réuni chez NetApp peut être mis à profit dans une multitude d’organisations souhaitant davantage de visibilité et de contrôle sur leur usage du cloud, mais peut également être pertinent pour des partenaires qui développent des offres autour des cloud providers. « Un partenaire peut parfaitement utiliser CloudCheckr pour auditer l’environnement cloud de son client et lui fournir un tableau de bord personnalisé avec des propositions d’optimisation », note Philippe Charpentier. D’après les données du cabinet IDC, les dépenses mondiales dans les logiciels CloudOps grimperont de près de 25 % par an jusqu’en 2025, pour atteindre 27,1 milliards de dollars. Et le ROI sera au rendez-vous !
(function(d, s, id) { var js, fjs = d.getElementsByTagName(s)[0]; if (d.getElementById(id)) return; js = d.createElement(s); js.id = id; js.src = "//connect.facebook.net/fr_FR/all.js#appId=243265768935&xfbml=1"; fjs.parentNode.insertBefore(js, fjs); }(document, 'script', 'facebook-jssdk'));