Le besoin de centres de données toujours plus puissants pour servir l’intelligence artificielle, conduit à des installations dont la taille ne cesse de croître. C’est le constat que dresse le directeur général de Ciena, fabricant d’équipements de réseau à fibre optique destinés aux fournisseurs de cloud computing pour interconnecter leurs centres de données.
« Certains de ces grands centres de données sont tout simplement époustouflants, ils sont énormes », explique Gary Smith, PDG de Ciena.
Des datacenters de plus de deux kilomètres
« Vous avez des centres de données qui font plus de deux kilomètres », poursuit-il. Certains des centres de données les plus récents sont sur plusieurs étages, note-t-il, ce qui crée une deuxième dimension de distance en plus de l’étalement horizontal.
Même si les centres de données cloud se développent, les campus des entreprises ont du mal à supporter cette croissance. « Ces campus deviennent plus grands et plus longs », explique-t-il, « ce qui met à rude épreuve la technologie de connexion directe. »
Un périphérique à connexion directe est un périphérique réseau spécialement conçu pour permettre aux GPU de communiquer entre eux, comme les produits réseau « NVLink » de Nvidia.
Les remarques de Gary Smith font écho à celles d’autres personnes travaillant dans le secteur de l’IA, comme Thomas Graham, cofondateur de la start-up Lightmatter, qui a indiqué le mois dernier lors d’une conférence de Bloomberg Intelligence qu’il existe au moins une douzaine de nouveaux centres de données d’IA planifiés ou en cours de construction dont le fonctionnement nécessite un gigawatt d’énergie.
Une voracité énergétique
« Pour donner un ordre d’idée, la ville de New York consomme cinq gigawatts d’énergie en moyenne par jour, soit plusieurs villes de New York. D’ici 2026, on s’attend à ce que le traitement de l’IA dans le monde nécessite 40 gigawatts d’énergie spécifiquement pour les centres de données d’IA, soit huit villes de New York ».
Selon Gary Smith, la pression exercée sur la technologie de connexion directe de Nvidia signifie que les liaisons traditionnelles par fibre optique, jusqu’à présent réservées aux réseaux de télécommunications à longue distance, commenceront à être déployées dans les centres de données pour le cloud computing dans les années à venir.
« Compte tenu de la vitesse des GPU et des distances parcourues dans ces centres de données, nous pensons qu’il existe un point d’intersection pour cette technologie [de fibre optique], et c’est ce sur quoi nous nous concentrons », conclut Gary Smith