Les DataCenters ont jusqu’à présent réussi à maîtriser leur demande énergétique à environ 2 % de la consommation mondiale. Aujourd’hui, les technologies très gourmandes en calcul, comme la vidéo à la demande, la voiture autonome ou encore la 5G, accentuent la consommation énergétique.
En 2007, le rapport de l’Agence américaine de protection de l’environnement (EPA) sur la consommation énergétique des DataCenters surnommait le secteur d’ogre énergétique. Cependant, elle n’a progressé qu’à la marge ces six dernières années, passant de 70 milliards de kilowattheures (kWh) en 2014 à quelque 73 milliards en 2020 aux Etats-Unis.
Plusieurs leviers facilement actionnables ont permis ces gains de performance : élévation de la température de fonctionnement des DataCenters, diminution de la proportion de serveurs sous-exploités grâce à la virtualisation, meilleur rendement des alimentations sans interruption (ASI), remplacement des registres de réglage des débits de ventilation par des variateurs de fréquence.
Aujourd’hui, ce type de DataCenter est moins énergivore que les sites de moindre envergure tout en drainant une fraction de plus en plus importante du trafic de données. Pour autant, il n’est pas toujours envisageable, techniquement et économiquement, de viser les très hauts rendements des DataCenters des géants du Net, pour qui chaque watt compte.
Vue globale
L’efficacité de l’infrastructure indique ainsi la puissance réellement fournie à la charge IT et celle prélevée par les systèmes de refroidissement et de secours. Ces deux valeurs indiquent la performance énergétique au fil du temps et identifient les leviers d’économies d’énergie. L’augmentation de la puissance IT et la baisse concomitante de la puissance d’entrée diminuent les pertes de sources et réduisent l’inefficacité dans les systèmes de soutien.
Charge IT
L’unité de traitement d’un serveur est responsable à elle seule de plus de la moitié de sa consommation. Les processeurs employés sont de plus en plus éco-performants, tandis que les architectures multicœurs autorisent plus de traitements avec moins de puissance électrique.
D’autres solutions permettent également de réduire la consommation des processeurs. Ces derniers disposent souvent de fonctionnalités de gestion de la puissance, qui optimisent la consommation en adaptant automatiquement la tension et la fréquence d’horloge aux besoins de performance, et réduisent ainsi le gaspillage d’énergie.
L’exploitant du DataCenter peut ainsi alléger sa facture électrique sans rogner sur la capacité de traitement : une manne lorsque le taux d’occupation des processeurs est variable.
Amélioration de l’alimentation
Le module de puissance (PSU) transforme le courant alternatif (CA) d’entrée en courant continu (CC). C’est le deuxième poste de consommation électrique après le processeur (environ 25 % de la charge serveur). Les régulateurs de point de charge, qui déclinent la tension de 12 V en différentes valeurs exigées par les processeurs et puces, sont eux aussi de gros consommateurs. Diverses certifications, dont le label « 80+ » garantissant qu’une alimentation électrique délivre plus de 80 % de l’énergie à l’appareil qu’elle équipe, améliorent d’ores et déjà le rendement des composants informatiques.
La puissance en entrée du DataCenter transite d’abord par l’ASI et les PDU avant d’arriver à l’informatique. Le rendement d’une PDU se situant généralement entre 94 et 98 %, c’est l’ASI qui détermine l’efficacité énergétique de ce poste.
Consolidation à tous les étages
Pour les DataCenters, la virtualisation dope l’utilisation du matériel et se traduit par une diminution du nombre de serveurs et de disques de stockage énergivores. Le taux d’activité des serveurs peut alors atteindre 50 à 60 %.
Les serveurs lames améliorent l’efficacité énergétique : affichant une puissance de traitement par watt supérieure à celle des serveurs classiques, ils réduisent de 20 à 40 % la consommation de ce poste.
Autre axe d’amélioration : le stockage. L’efficacité énergétique des disques durs augmentant avec leur capacité, la consolidation du stockage accroît la mémoire disponible tout en abaissant la consommation de courant.
D’autres facteurs jouent également, notamment l’amélioration constante de la performance des serveurs, les baies de stockage et d’infrastructures physiques. Mais aussi l’augmentation de la taille des DataCenters (hyperscale) et l’essor du cloud vont de pair avec une meilleure éco-performance. Ces facteurs garantissent un refroidissement proportionnellement plus efficace.
Enfin, il est possible de rassembler sur un même site plusieurs salles sous-exploitées et ainsi de mutualiser les systèmes de secours et de refroidissement pour réaliser d’importantes économies.