Adapter les data centers pour l’IA

Afin de répondre aux nouvelles exigences liées au développement fulgurant de l’IA, les datacenters ont besoin d’infrastructures intelligentes, prévues pour le long terme, dans leurs salles blanches.

Carsten Ludwig,
Market Manager Data Center
chez R&M

Transformation profonde

En matière d’infrastructure de datacenter, il n’y a guère de solution universelle, hormis, peut-être, pour les centres géants à architecture monolithique. À l’évolution quasi quotidienne des équipements, applications, exigences spécifiques et autres impératifs s’ajoute l’évolution dynamique de l’IA, qui exige des baies et des confinements plus performants que jamais.

Par conséquent, il s’agira d’agrandir ou de transformer les salles blanches ou d’ajouter de nouvelles installations. La présence d’infrastructures compatibles IA a des répercussions sur l’architecture d’un datacenter, mais aussi sur l’infrastructure non informatique, autrement dit, la technologie opérationnelle (OT) et le câblage.

Nous sommes convaincus que seule une approche globale avec des solutions intégrées permet de faire face à la nouvelle donne et de tenir compte à la fois du marché, des applications prévues et des aspects techniques. Finies les listes de pièces par système.

Applications, puissance de calcul requise, disposition de la salle informatique, topologie de réseau, câblage, connectivité, alimentation électrique, refroidissement et sécurité : tous ces aspects sont interdépendants. Seules une approche globale et des solutions d’infrastructure intégrée pour les salles blanches permettent de relever ces défis.

Chaud-froid dans les baies

La thermodynamique illustre la nécessité d’une approche globale et d’une solution intégrée. Dans une baie IA « chaude », les puissances peuvent atteindre 60, 120 kW, voire plus. Seul le refroidissement liquide des processeurs haute puissance pour les applications IA répond aux critères de sécurité et d’efficience énergétique.

Alors que jusqu’ici, ils pouvaient miser sur le refroidissement par air, la ventilation forcée et les confinements à allées froides et chaudes, les data centers doivent désormais s’équiper de systèmes spéciaux ou de conduits pour liquide réfrigérant et d’échangeurs thermiques. On peut même s’attendre à ce que les nouvelles technologies exigent l’acquisition et l’intégration de solutions d’infrastructure et de refroidissement beaucoup plus complexes, avec des systèmes de capteurs, de pompes, de tuyaux et d’éléments d’étanchéité. L’installation de systèmes à refroidissement liquide novateurs est ainsi loin d’être facile.

Gain de performance, multiplication des fibres

Autre thème d’actualité : la haute densité. L’IA générative utilise près de dix fois plus de fibres optiques qu’un datacenter conventionnel.

En fonction des circonstances, l’équipe de planification pourrait être amenée à intervenir, contre toute attente, sur l’architecture « spine-leaf », afin de pouvoir intégrer des baies ou clusters IA. En effet, pour relier les nouveaux processeurs au répartiteur le plus proche, il convient de prévoir une connectivité à hautes performances. Les connecteurs novateurs VSFF ont un rôle à jouer dans la réalisation d’un câblage optique parallèle à densité élevée.

Cette thématique est un peu plus aisée à gérer, car le principe éprouvé du câblage structuré sera ici aussi la solution la plus efficiente pour l’infrastructure réseau de base.

Quid de la consommation électrique ?

Disons-le sans détour : l’IA est énergivore. En même temps, il s’agit de réduire ou, au moins, de stabiliser la consommation d’électricité. Les thématiques efficience et besoins énergétiques, distribution d’électricité, batteries, générateurs et alimentation électrique méritent un examen approfondi au moment de la planification.

Les exploitants de datacenters sont sous pression d’agir en ce qui concerne leur efficience énergétique. Ainsi, la directive de l’Union européenne sur l’efficacité énergétique exige que les datacenters indiquent leur indice d’efficience énergétique (PUE) à partir du 1er janvier 2025, et réduisent leurs émissions de gaz à effet de serre de 55 % d’ici à 2030. Autrement dit, les datacenters doivent surveiller et optimiser en permanence leur consommation énergétique. Disposent-ils des outils nécessaires ?

D’autres questions se posent… 

Est-il possible d’adapter les infrastructures électrique et fibre, les baies et les goulottes existantes ? Les exigences plus strictes en matière de périmètre, de surveillance, de contrôle d’accès et de capteurs sont-elles remplies ? L’entreprise dispose-t-elle du personnel spécialisé capable d’implémenter les nouvelles technologies ? L’exploitant a-t-il besoin d’une nouvelle stratégie de gestion et d’un système DCIM ?

Un système DCIM moderne offre des informations en temps réel sur chaque port et capteur de température, ainsi que des fonctions d’analyse et de gestion des actifs. Il utilise l’intelligence artificielle pour analyser et gérer les installations, et alloue l’énergie et le refroidissement en fonction de la charge IA. Il permet aussi de choisir l’emplacement optimal des équipements, afin d’éviter les points chauds et d’optimiser l’exploitation, facilitant ainsi la planification.

Tirer profit de l’expérience des spécialistes

Le recours à une équipe de gestion de projet expérimentée s’avérera être un atout, car coordonner les parties prenantes, les installations et les systèmes exige un solide savoir-faire. Une approche globale facilite la prise en compte de tous les composants, l’identification rapide d’interdépendances et l’intégration sur mesure des systèmes. L’utilisation de baies préconfigurées est une solution idéale, car ces dernières permettent de réduire les délais de mise à disposition jusqu’à 75 %.

Malgré la dynamique à court terme liée à l’IA, une planification et un dimensionnement prévoyants des infrastructures et des capacités revêtent une importance stratégique.

Un avenir incertain

Malgré la dynamique à court terme liée à l’IA, la planification et le dimensionnement prévoyants des infrastructures et des capacités de datacenters revêtent une importance stratégique. Les exploitants doivent pouvoir compter sur l’utilisation et la mise à niveau à long terme de leurs installations.

Or, pour l’heure, rien n’est certain, sauf que l’évolution technologique ne s’arrêtera pas au calcul haute performance, à l’Ethernet 400 et 800 Gb, aux applications à latence ultrafaible et à l’IA. Le prochain jalon pour les data centers pointe déjà à l’horizon : l’informatique quantique.