Edge computing : une méthode qui gagne du terrain

Edge computing : une méthode qui gagne du terrain



Sans être entièrement nouveau, l’edge computing est un marché en pleine expansion puisque selon les prévisions de Gartner, il devrait concerner 150 milliards d’appareils périphériques d’ici 2025 entre les capteurs IoT, les routeurs Internet, les technologies portables ainsi que les robots d’usine ; mais sa définition et son application sont en constante évolution. Ainsi, l’edge computing englobe également des systèmes différents, allant des systèmes informatiques locaux d’usines et de fournisseurs de télécommunications aux systèmes distribués des magasins de distribution et leurs succursales.

Parallèlement aux architectures plus anciennes soutenant les déploiements d’edge computing, de nouvelles tendances périphériques voient le jour. Elles sont très différentes, notamment parce que plus récentes, mais aussi parce qu’elles deviennent un recours pour les responsables informatiques et dirigeants d’entreprise, pour résoudre des problèmes de secteurs variés (télécommunications, automobile…) à mesure que les données des capteurs et de l’apprentissage automatique prolifèrent. Cette mutation de l’edge computing est donc en marche.

Plus de travail en périphérie

L’utilisation des données est devenue incontournable : facteur de prises de décisions, résolutions de problèmes matériels, stimulation des activités ou encore avantage concurrentiel ; l’approche « data-driven » est à l’origine de l’une des plus grandes (r)évolutions des entreprises. Elle se concrétise par un recours accru à l’informatique et au stockage périphériques. Un grand nombre de sites périphériques bénéficient de cette approche, qui se veut plus proche des utilisateurs finaux (hôpitaux, campus universitaires, usines de fabrication, réseaux de magasins…). Leurs besoins en termes de ressources de calcul, de stockage ou encore de réseau vont bien au-delà des datacenters centraux, étant donné la quantité de données exploitée au quotidien.

L’edge computing permet aux entreprises de générer à la fois des revenus depuis ces sites déployés en périphérie des datacenter centraux et d’atteindre leurs objectifs opérationnels et commerciaux. Cependant, elles doivent également garder à l’esprit que la multiplication du nombre de sites et de capteurs à gérer couplé à la hausse constante du volume de données produites peuvent fortement leur complexifier la tâche. Elles risquent de se retrouver rapidement dépassées par le traitement de ces données en temps réel car la collecte de données issues de l’IoT a fortement augmenté.

Pour échapper à cet écueil, des solutions basées sur l’IA, le Machine Learning ou le Deep Learning peuvent améliorer le rendement et la productivité des entreprises. Ces technologies sont déjà utilisées dans le secteur manufacturier afin d’améliorer le contrôle de qualité dans les usines et sur les chaînes de production grâce au traitement en temps réel des données issues des caméras de surveillance qui peuvent repérer les éventuels défauts.

Miser sur les réseaux d’accès Cloud RAN et Open RAN

Le Cloud RAN émerge en tant que nouvelle tendance impulsée par l’adoption progressive de Kubernetes et la containerisation par les acteurs de la télécommunication. Il englobe la virtualisation et la containerisation des charges de travail ainsi que l’Open RAN, qui permet d’étendre l’interopérabilité des systèmes et de construire des réseaux d’accès radio multi-vendeurs. Il favorise l’innovation en offrant un choix plus large de fournisseurs et en offrant ainsi la possibilité de faire des économies sur le coût total de possession du réseau par rapport aux déploiements de réseaux d’accès radio (RAN) traditionnelles.

Les entreprises ont des besoins de connectivité croissants auxquels des réseaux privés 5G des opérateurs peuvent répondre. Cette augmentation des demandes sollicite plus de latence extrêmement faible, une bande passante élevée et une excellente qualité de service pour traiter des flots massifs de données , le plus souvent en temps réel. L’IoT massif, le « smart manufacturing », ou encore l’automatisation de cas sur lesquels les telcos se positionnent, comme la télémédecine, le smart building, les Smart Cities, sont autant de nouveaux cas d’usage. Le secteur se réinvente donc complètement et par définition, les réseaux aussi.

La tendance est au RISC-V

Les architectures ARM ou x86, conçues pour simplifier les architectures et faire diminuer la consommation d’énergie électrique, sont concurrencées par un modèle particulièrement profitable à l’informatique embarqué, à l’instar des portables et tablettes, le RISC-V. Il convient donc de s’intéresser à cette architecture de près car elle peut être une solution efficace pour réduire le niveau d’empreinte matérielle à l’edge dans les systèmes IoT tout en optimisant le plus possible la capacité de calcul en périphérie. Ce dernier permet de traiter les données à la source et par conséquent de réduire le transfert de taches vers les datacenters centraux.

L’un des points clés du RISC-V est son architecture ouverte. Elle est établie à partir d’un matériel dépendant des décisions de la communauté, qui elles-mêmes sont basées sur l’expérience collective et la recherche. L’innovation est alors favorisée par ce type d’approche, car elle est soutenue par un écosystème qui se développe en parallèle. Les multinationales comme Alibaba, Andes Technology et NXP ont déjà entrepris des premiers investissements dans le RISC-V, tout comme des startups comme SiFive, Esperanto Technologies et GreenWaves Technologies – qui conçoivent des solutions RISC-V innovantes pour l’IA périphérique.

L’informatique confidentielle : une nécessité pour la périphérie 

Les entreprises peuvent également avoir recours à l’edge computing pour répondre aux exigences de souveraineté des données et dans le traitement des informations personnellement identifiables (PII). En effet, les données collectées à la périphérie sont anonymisées puis transférées vers des systèmes centralisés, l’ensemble du processus étant réalisé grâce au Machine Learning.

Cependant, d’autres défis liés aux données subsistent. Ainsi, à titre d’exemple, les données générées par les institutions financières ou les prestataires de santé locaux sont soumises à des contraintes règlementaires spécifiques et tout l’enjeu réside dans le choix de la solution appropriée pour faire respecter au mieux ces contraintes.

Des contraintes liées à la sécurité des données à l’edge sont également à prendre en considération car uniformiser des compétences IT qui varient selon que l’on se trouve sur site ou à distance, dans un site difficile d’accès, est une réelle gageure. Les entreprises doivent donc mettre en place des politiques de contrôle ainsi qu’une gouvernance et une conformité adéquates. Là encore, l’automatisation permet de faciliter le déploiement de ces mesures et ce, indépendamment des contraintes de distances.

Enfin, l’informatique confidentielle protège les dispositifs informatiques déployés en périphérie ou à l’edge de toute capture ou manipulation en chiffrant les données pendant leur utilisation, en plus de protéger le logiciel qui les traite. Elle va devenir une technologie de sécurité essentielle au service de l’edge computing, car elle pourra assurer la sécurité des nombreux systèmes déployés à l’edge sans l’intervention d’experts opérant depuis ces sites distants pour sécuriser les données et les systèmes déployés en périphérie.





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.