La transition énergétique
Scaleway DC5 : datacenter innovant au cooling adiabatique

Scaleway DC5 : datacenter innovant au cooling adiabatique

Scaleway et son fondateur Arnaud de Bermingham nous ont accueillis pour une visite de leur nouveau datacenter DC5. Le duo est réputé pour la création de datacenters optimisés et innovants. DC5 ne déroge pas à cette règle et va plus loin encore, en installant pour la première fois à cette échelle un système de refroidissement free cooling adiabatique.    

Par François Tonic
Arnaud de Bermingham, au plaisir de la visite de DC5

Dans le Val d’Oise, à Saint-Ouen l’Aumône, Scaleway a installé son nouveau datacenter DC5. Il réutilise un ancien centre de tri postal. DC5 couvre une surface utile de 16 000 m², et accueillera 12 tranches. Les tranches 2 et 3 sont en chantier et s’apprêtent à accueillir les futures baies des clients. Réhabiliter un tel bâtiment n’a pas été simple et un important chantier a été entrepris pour redéfinir les volumes et redistribuer les espaces entre les locaux techniques, les installations pour le système d’air et les salles IT.

L’emplacement est stratégique. Au nord-ouest de Paris, proche de Pontoise, il est dissocié de la zone encombrée de forte concentration du nord parisien, installé dans une zone industrielle au potentiel important, tout en restant à proximité des dorsales vers Londres, Amsterdam et Francfort. Il est par ailleurs interconnecté avec les datacenters DC2, DC3 et DC4 du groupe, qui sont situés à plus de 50 km. Trois opérateurs sont connectés. Et tous les opérateurs présents à DC2 et DC3 sont supportés grâce au service de MMR étendue. 

Free cooling avec refroidissement adiabatique

Un des intérêts de DC5 est son système de climatisation. Scaleway a opté pour une approche radicale : ni free cooling direct, ni climatisation mécanique, mais du free cooling avec refroidissement adiabatique (par évaporation) ! Le datacenter profite de l’air extérieur tout en maintenant une température stable de 30° +/- 1° dans les allées froides. Dans le système adiabatique, de l’eau pure est injectée pour capter et transporter la chaleur puis l’air est refroidi par évaporation de l’eau dans un échangeur humide. Seules les salles serveurs sont concernées, les salles techniques, MeetMe et UPS, et les lieux collectifs sont refroidis en free cooling direct complété d’unités de refroidissement traditionnelles. La température de fonctionnement de 30 degrés est imposée. Les baies et serveurs supportent très bien ces températures alors que beaucoup d’opérateurs et de clients opèrent à 20-21 degrés. 

DC5 utilise directement l’air extérieur, ou presque. On pourrait presque comparer l’ingénieux système à une tour à vent à deux étages. Le premier étage est la salle informatique, le second sert à la ventilation. L’air capté au travers de lattes d’admission entre dans une zone de grilles de ventilation équipée de contrôleurs logiques programmables (PLC) pour réguler l’ouverture du réseau et contrôler le débit d’air. Plus l’air est frais, plus la grille se ferme et vice-versa. Les automates sont contrôlés par des sondes de température et d’humidité pour ajuster leur ouverture et l’utilisation du milieu adiabatique. Au total, le système traite plus de 400 informations en temps réel pour ajuster et s’optimiser à l’aide d’algorithmes complexes.

Les filtres
Capter poussières et particules

Le flux d’air est ensuite dirigé vers une seconde série de grilles dont le rôle est d’assurer la répartition égale des flux sur toute la paroi de filtration. Des murs de filtres en laine de roche et en cellulose de qualité F7, changés régulièrement, sont déployés pour fixer les particules, les impuretés et l’humidité. Un air trop humide pourrait être néfaste aux équipements IT… L’air est filtré et analysé, avant d’être canalisé dans de grandes galeries qui vont ensuite le dispatcher dans les allées froides des différentes salles, depuis le plafond. C’est d’ailleurs une particularité de DC5, la distribution du refroidissement, de l’électricité et du réseau est fournie à partir du plafond, tandis que dans la conception traditionnelle, la distribution se fait généralement par le sol. 

Le plafond d’une allée, distribution du refroidissement, de l’électricité et du réseau

100% de l’air extérieur passe par un processus adiabatique. Quant à la chaleur perdue, elle est mélangée à l’air extérieur dans la zone de brassage pour atteindre la température de consigne et réchauffer l’air avant qu’il n’entre dans le datacenter afin de maintenir une température de 30° C dans les allées froides. Idem lorsque l’air extérieur est trop froid, il est mélangé à l’air chaud du datacenter dans la zone de brassage.

Refroidissement (devant) et ‘gros glaçon’ enfermé derrière

Scaleway DC5 exploite également une unité de stockage de glace d’une capacité de 6 MWh. Cette glace – l’équivalent d’un glaçon de la taille d’un conteneur – offre de nombreux avantages : répondre rapidement à la demande de refroidissement sans utiliser de refroidisseur ; éviter un cycle court sur les unités de refroidissement ; fournir un secours en cas de panne de l’unité de refroidissement. Et elle est rentable car la glace est produite la nuit lorsque l’énergie est moins chère.

DC5, un datacenter puissant et green

Le datacenter DC5 est conçu pour déployer des infrastructures à très haute densité. Il est alimenté par une ligne haute tension à 20 MW. Chaque tranche a une consommation moyenne de 1,8 MW. Chaque salle peut contenir entre 280 et 300 baies 52U (taille par défaut) et jusqu’à 292 racks. Chaque baie démarre à 1 MW et peut être poussée jusqu’à 14 MW. Chaque rack peut prendre en charge jusqu’à 6 kW. Les racks sont alimentés par deux chemins différents. Un seul chemin est protégé par des onduleurs et des générateurs hors ligne. L’autre chemin est uniquement protégé par les générateurs. Cette conception donne le bon niveau de redondance avec une infrastructure beaucoup plus efficace, et près de 100% de la capacité installée utilisable à tout moment, contrairement à l’architecture 2N traditionnelle avec son maximum 50% de la capacité installée utilisable pour les serveurs.

Pour le reste – salles blanches, baies, salles techniques (alimentations, onduleurs, opérateur télécoms, etc.) – DC5 reste un datacenter…