Un chantier « à la pince à épiler » pour densifier le plus parisien …

Un chantier "à la pince à épiler" pour densifier le plus parisien ...


« Il faut réadapter le cœur de réseau à la technologie d’IA » dit Sami Slim. Chaque fibre, chaque machine, est remplacée à la « pince à épiler ».

C’est un datacenter fondu dans l’architecture haussmannienne d’une grande avenue parisienne du 11ème arrondissement. C’est aussi le joyaux de l’armada des centres de données de Telehouse en France.

Un joyaux de 20 ans d’âge dont la valeur ne repose ni dans ses dimensions (7000 m2), ni dans sa technologie. Une visite dans ses sous-sols parfumés d’odeurs d’égouts révèle son véritable trésor.

« Nous avons ici les réseaux de 500 opérateurs » dit Sami Slim, le DG France de Telehouse. Dans les caves de l’immeuble convergent des tuyaux numériques – de la fibre optique – charriés par les égouts et les tunnels de métro parisien, ou encore les gares toutes proches.

Un datacenter réseau qui doit évoluer

C’est le résultat de 20 ans d’histoire, et d’une centralité qui prend une dimension stratégique. « 50 % du trafic internet passe par ce site » dit Sami Slim. Pourquoi ? Parce que ce datacenter joue le rôle d’un monumental switch réseau.

« Les datacenters sont désormais classés par usage informatique, qu’il s’agisse de puissance de calcul, de capacité réseau ou stockage » indique le maître des lieux. « Ici, boulevard Voltaire, nous sommes dans un datacenter réseau. On y héberge à plus de 90 % des couches réseau des clients. Ca leur permet de raccourcir les distances, le coût de latence, de performance et de débit ».

Conséquence, ce datacenter abrite le pus grand nombre de cross connect de France. Il est même quatrième dans le monde dans ce domaine.

Du cross connect à profusion

Mais du cross connect pour quoi faire ? « Nous sommes sous le bouton Netflix de votre télécommande » illustre Sami Slim. « Netflix positionne ses caches serveurs ici pour que les clients Orange aient le plus rapidement possible accès à leur SVOD ».

Autres exemples de cross connect présents sur le site, le ministère de la justice qui communique avec des sociétés qui gèrent les bracelets électroniques. Ou encore l’APHP qui récupère les données de santé de patients qui ont visité des médecins ».

Oui mais voilà. En dépit de son caractère stratégique, ou peut être précisément pour cette raison, le datacenter Telehouse 2 doit évoluer en profondeur.

« Des changements de design complets »

Un chantier titanesque, chiffré à 80 millions d’euros, et qui va durer… 5 ans. « C’est une planification de longue haleine » dit Sami Slim. « Ce sont des investissements lourds, très capitalistiques, qui s’amortissent sur 20 ans. »

Le renforcement des structures pour permettre la densification des équipements passe par de gros travaux.

« Pour préparer l’entrée de ce datacenter dans une nouvelle ère, nous aménageons des espaces très haute densité, avec du cooling DLC (ndlr. refroidissement liquide direct) et en circuit fermé. Ces espaces sont taillés pour les échanges réseau à l’ère de l’IA ».

Comprenez un renforcement des structures d’accueil, à l’heure de la densification des équipements de refroidissements, et des changements de design complets. »

« Il faut réadapter le cœur de réseau »

« Les nouveaux châssis Cisco pensés pour l’IA tournent à 20 KW quand les anciens tournaient à 2 KW. Et pourtant nous ne faisons que de l’inférence, mais c’est déjà 10 fois plus dense que ce que nous savions faire jusqu’alors pour le cloud. »

« Il faut réadapter le cœur de réseau à ce genre de technologie » dit Sami Slim. Mais le véritable challenge, c’est de mener ce chantier titanesque tout en continuant à être opérationnel.

« Nous faisons tout pour ne pas déplacer une fibre ou un rack. Bien sûr, ça a un coût financier. Mais cela joue aussi sur les délais. Ce sont des travaux que ‘on aurait pu faire en 1 an sur un autre site. Mais ici nous allons les faire en 5 ans. Et on y va à la pince à épiler ».

Première mise en production prévue pour 2026

Un exemple ? Le chantier démarre étage par étage, par le circuit de distribution de l’air. Chaque armoire de climatisation est dédoublée avec le nouvel équipement, le temps de mettre en production.

Chaque armoire de climatisation est dédoublée avec le nouvel équipement, le temps de mettre en production.

Le chantier de refit, débuté récemment, se poursuivra avec la stabilisation du réseau d’air, étage par étage. « Ensuite, on s’occupe de la production de l’air. Ensuite, on passe à l’électricité et à l’étanchéité. Puis on met les équipements de sécurité. Et enfin les serveurs » détaille le responsable du site.

La première mise en production de la nouvelle génération de matériel est prévue pour 2026.

« Oui ça coûte 5 fois plus cher »

« Oui ça coute 5 fois plus cher » dit Sami Slim. « Mais ce qui me coûterait très très cher c’est de devoir gérer un incident, une coupure. Pendant les travaux, les SLA ne s’interrompent pas. C’est toujours 99,99% pour l’ensemble des clients » justifie t-il.

« Surtout, le cout de non travaux est encore plus cher. Dans 5 ans les datacenter historiques seront obsolètes » affirme t-il.

Côté coûts, ce refit va t-il peser sur la facture des clients ? « Nous proposons aux clients un loyer tout inclus. Et avec le refit, « le loyer client ne va pas augmenter » jure le patron de Telehouse France.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.