Recherche pour :
Equinix, le datacenter vu par n°1 mondial – Régis Castagné
Journée du datacenter 2021

Régis Castagné, Directeur général d’Equinix, décrypte le secteur du datacenter et de la colocation en mutation, son engagement dans la transition énergétique, et le rôle stratégique des interconnexions.

Data Center Tier IV, définition d’une certification de pointe
Par EBRC

Les standards Tier définissent ainsi les niveaux de disponibilité des Data Centers. Le niveau Tier I est le niveau le plus élémentaire, non redondant, il n’est pas tolérant aux défaillances ni aux besoins de maintenance à chaud. Le niveau de défaillance, dans ce cas, pourrait par exemple générer plusieurs dizaines d’heures d’indisponibilité annuelle. A l’inverse, le niveau le plus élevé, Tier IV, est hautement tolérant aux défaillances potentielles. Seul le niveau Tier IV dit « tolérant aux pannes » permet, par la redondance de ses équipements, d’approcher le « zéro-défaut » et donc une disponibilité approchant les 100%.

Ces niveaux de disponibilité Tier sont basés sur un ensemble de critères couvrant les domaines mécanique, électrique et structurel du site ainsi que les processus d’exploitation, tout comme leur parfaite maîtrise par les équipes en charge de la conduite des opérations au quotidien, que ce soit pour des activités de maintenance ou de réponse à un incident (panne, départ de feu…). Ceci permet d’aligner la conception de l’infrastructure aux objectifs de l’entreprise qui va en utiliser les services. Confier ses données à un prestataire de services de Data Center est une décision importante pour laquelle il convient de s’assurer des garanties offertes. Et la certification Tier de l’Uptime Institute répond à ce besoin.

La certification Tier IV : une certification relativement nouvelle

Fin des années 1990, l’Uptime Institute a développé un système, mondialement reconnu, de classification des Data Centers par typologie des infrastructures critiques : de Tier I à Tier IV pour le plus performant. Chaque Data Center peut obtenir une certification Tier sur la base d’un audit pointu de l’Uptime Institute.

Les premières certifications Tier remontent à 2005. Elles permettent aux entreprises de s’assurer d’un niveau de service évalué par un organisme indépendant, sur un référentiel international.

En 2005, certains clients exprimaient déjà leur intérêt pour un hébergement en Data Centre Tier IV. A cette époque, si des livres blancs étaient déjà publiés, le processus de certification n’existait pas encore. C’est pourquoi nous avons décidé la même année de nous lancer dans la création du premier Data Centre Tier IV Design ready au Luxembourg. Ensuite, en 2013, le Resilience Centre South a été certifié Tier IV Constructed Facility. Il s’agissait du tout premier Data Centre au Luxembourg à obtenir le niveau le plus élevé de certification, le troisième en Europe et le neuvième dans le monde.

Les clients qui gèrent des données sensibles Par conséquent, ils doivent pouvoir avoir pleine confiance en leur fournisseur de services IT avec la garantie de haute disponibilité pour leurs services critiques et la performance des réseaux. Au fil des ans, EBRC a développé une expertise unique dans la conception, la mise en œuvre et l’exploitation d’infrastructures IT critiques devant assurer ces garanties ainsi que des niveaux de résilience et de sécurité très élevés.

Afin de garantir une disponibilité constante, les Data Centers Tier IV s’appuient sur des infrastructures de pointe. Les systèmes et les données des clients peuvent être hébergés, et ce de façon redondante, dans un ou plusieurs des Data Centres certifiés Tier IV Fault-Tolerant Design & Constructed Facility.
Pour les clients, les certifications émises par l’Uptime Institute représentent la seule l’assurance tangible du niveau de qualité délivré par leur prestataire de services de Data Centre.

Pourquoi suivre la procédure de certification Tier IV pour un Data Center

« La certification internationale Tier IV de l’Uptime Institute, tout comme les normes ISO 27001, ISO 20000 et ISO 22301 permettent de qualifier la qualité des offres en tant que prestataire de services IT. Disposer d’un référentiel international est un prérequis pour développer des affaires avec des sociétés internationales. Et c’est précisément l’activité d’EBRC avec plus de 400 clients de 45 nationalités différentes.

Le choix d’un Data Centre s’inscrit la plupart du temps dans une stratégie de développement d’activité en Europe, souvent loin de leur centre de décision. Disposer de certifications d’un tel niveau représente une garantie factuelle sur le savoir-faire, qui repose sur un audit indépendant. C’est aussi un gain de temps important pour nos clients », explique Bruno Fery.

La certification représente pour les entreprises une garantie de la haute disponibilité et confidentialité de leurs données. En effet, un Data Center certifié Tier IV démontre d’une disponibilité de 99,995% soit 26 minutes cumulées d’interruption de services par an. Ces infrastructures informatiques répondent particulièrement aux besoins des sociétés des domaines de la finance, FinTech et RegTech, la Santé & Sciences de la Vie, les institutions internationales, la sécurité-défense-spatial, les services en ligne ainsi que les Opérateurs de services essentiels.

L’avantage d’un Data Center Tier IV pour l’industrie du gaming.

VALVE, le leader mondial des jeux en ligne basé à Seattle a voulu offrir à leurs clients européens une expérience de jeu optimale. Ceci implique une garantie de fonctionnement permanent, une haute disponibilité et des temps de latence très faibles. En quelques semaines, EBRC a mis en place l’infrastructure européenne dans des data centers Tier 4. VALVE bénéficie à présent de l’excellente connectivité disponible au Luxembourg.

Ces avantages sont transposables dans bien d’autres secteurs d’activités, comme celui des FinTech.

Quelles activités sont soutenues par le Data Center Tier IV ? Et comment ?

EBRC offre une approche de services IT complets et intégrés avec six lignes d’activités : Conseil, Managed Services, Cloud, Sécurité, Résilience (Business Continuity) et Data Centre. Ce positionnement permet à chaque client de développer la totalité de son projet avec un seul fournisseur maîtrisant l’ensemble des composantes IT. Nous avons modélisé quatre types de parcours qui répondent aux attentes de nos clients : Transformation digitale ; Projet sur mesure ; Start-up et innovation ; Développement du business en Europe. Cette organisation permet d’apporter des réponses optimisées et de réduire les temps de réalisation en capitalisant sur l’expérience développée.
Le secteur financier a originairement façonné les offres d’EBRC en intégrant la composante de sécurité « by design » nécessaire à leurs infrastructures. Par extension, cette proposition de valeur est devenue une priorité croissante pour chaque secteur d’activités avec lequel nous travaillons : banque, finances et assurances, gouvernement, e-commerce, santé, FinTech, défense, institutions et spatial.

Pour aller encore plus loin, en 2018, EBRC a cristallisé une approche transversale de Cyber-Résilience propre à assurer la gestion de crises et à garantir la continuité des affaires. Cette approche s’applique en priorité à la préservation du business de nos clients. Au départ d’un Business Impact Analysis (BIA), sept étapes clés font partie du processus d’amélioration continue :

  1. Préparer
  2. Identifier
  3. Protéger
  4. Détecter
  5. Analyser
  6. Répondre
  7. Redémarrer

Ce processus s’appuie lui aussi sur les normes ISO.

Cyber-Résilience = ISO 31000 + ISO 27001 + ISO 22301 + ISO 22316

Il fait également appel à des moyens de protection et de réponse très élaborés tel qu’un CERT et un SOC dont EBRC dispose.

Quels sont les avantages apportés par la certification Data Center Tier IV ? Quels challenges cela vous-a-t-il permis de relever ?

Un centre de données de niveau 4 intègre toutes les capacités des niveaux 1, 2 et 3.

Ainsi, tous les composants d’alimentation et de refroidissement de niveau 4 sont entièrement redondants 2N. Ce qui signifie que si un seul composant de l’infrastructure d’alimentation ou de refroidissement tombe en panne dans un Data Center de niveau 4, le traitement se poursuivra sans problème garantissant une continuité des activités.

« Le principe de l’Uptime Institute ‘Démarrez avec l’objectif en tête’ constitue le fondement de nos méthodes », souligne Bruno Fery. Cela s’est révélé particulièrement parlant dans le contexte de l’alignement des infrastructures sur les opérations, en tenant compte des exigences de nos clients, CAPEX, OPEX ainsi que les objectifs Tier IV. Chaque test a été préparé en amont du processus TCCF (Tier Certification Constructed Facility) :

  • Procédures normalisées d’exploitation
  • Méthode des procédures
  • Procédures d’urgence d’exploitation

Une technologie de pointe derrière les Data Center Tier IV

Un autre grand défi relevé a été celui de combiner la technologie de pointe en matière de réduction de l’empreinte carbone avec les critères Tier IV. Pour y parvenir, EBRC a opté pour des solutions certes plus coûteuses en termes de CAPEX lors de la construction, mais significativement efficaces dans leur consommation énergétique. EBRC a ainsi réduit ses émissions de carbone de 10.000 tonnes par an grâce à de nouvelles technologies telles que :

  • Roues de Kyoto (refroidissement par air indirect avec échangeur adiabatique en tant que système de refroidissement libre)
  • Utilisation d’eau de pluie stockée
  • Topologie IP-Bus pour les composants de capacité UPS et les chemins de distribution
  • Des racks équipés de couloirs canalisant l’air de refroidissement pour optimiser la performance énergétique
  • Refroidissement naturel par « free cooling », utilisé et optimisé par eau pulvérisée

Quelques précisions sur votre parc de Data Centers ?

Il se constitue de cinq Data Centres interconnectés, sur plus de 15.000 m² d’espace réseau certifié privé et partagé répartis sur le territoire luxembourgeois, EBRC offre des infrastructures de pointe qui répondent aux exigences les plus élevées de ses clients.

Entreprise luxembourgeoise, EBRC bénéficie d’une connectivité réseau qui permet d’accéder à 70 % du PIB européen dans un rayon de moins de 500 km. En outre, par le biais d’une connexion directe de fibre optique, le centre de données European Reliance Centre East est relié au leader mondial des opérateurs satellite SES. Avec plus de 70 satellites répartis sur deux orbites différentes, en orbite géostationnaire (GEO) et en orbite terrestre moyenne (MEO), SES supporte des clients de tous secteurs avec des services de distribution vidéo et de transfert de données.

Des procédures et une communication derrière les Data Center Tier IV d’EBRC

L’obtention de la certification Tier IV Constructed Facility du Resilience Centre South a été un réel challenge. Ce Data Centre a été le premier des trois à subir un audit sur site mené par les experts de l’Uptime Institute. La certification a été obtenue « en charge » c’est-à-dire avec des clients présents et opérationnels, alors que les auditeurs pratiquent des simulations de panne. Nos clients eux-mêmes ont ainsi suivi le processus de certification. Cela a nécessité une communication étroite de nos équipes avec celles des clients et de cette expérience est né un niveau de confiance supplémentaire.

Concrètement, 63 tests critiques ont été réalisés sur une semaine. « L’équipe Services Data Centre d’EBRC a dû travailler de manière très efficace tout en subissant une forte pression. En fin de compte, les retours de nos clients ont été excellents », se félicite le Head of Data Centre Services.

« Ce qui m’a le plus impressionné dans ce projet, ce ne sont pas les « choses » mais l’humain. La leçon la plus convaincante tirée de cette démonstration TCCF d’EBRC ne se situe pas au niveau des capacités techniques de l’installation, qui sont conséquentes, mais dans le sentiment d’engagement de la direction et du personnel technique. Bruno Fery a sincèrement habilité son équipe d’ingénieurs. Toutes les organisations de haute performance sont engagées à valoriser la contribution de leurs ressources humaines à l’organisation mais EBRC est un exemple type de cette façon de penser et de cette culture d’entreprise. Je pense que nous continuerons d’entendre parler d’EBRC et de ses succès. » Ed Rafter, Principal de l’Uptime, juin 2013.

Datacenter : que signifie la classification en tiers ?
Par Netiwan

Les niveaux sont une manière efficace de classer les datacenters en fonction de leur niveau d’équipement et de leur niveau de disponibilité. Le niveau 1 est l’infrastructure la plus simple, tandis que le niveau 4 est la plus complexe.

Une certification internationale

Cette classification en Tiers est établie par l’Uptime Institute, c’est l’une des références internationales qui permet de classer l’ensemble des datacenters sur des critères communs. Très peu d’acteurs français la possèdent à ce jour.

  • Tier 1 : Le Datacenter dispose d’équipements non redondés et de réseaux d’approvisionnement uniques. Les équipements incluent un système de stabilisation du courant, un système de climatisation et un générateur de secours couvrant les éventuelles interruptions. Les réseaux d’approvisionnement incluent le réseau électrique, le réseau de refroidissement et le réseau de communication. Les systèmes sont arrêtés lors des opérations de maintenance. Le taux de disponibilité moyen est de 99,67 %.
  • Tier 2 : Les équipements critiques sont redondés afin de réduire les interruptions de service. Le taux de disponibilité monte ainsi à 99,75 %, ce qui représente environ 22 h d’arrêt cumulé par an.
  • Tier 3 : Tous les équipements du Datacenter sont redondés (n+1) pour éviter tout arrêt de fonctionnement durant les opérations de maintenance. Le site dispose de réseaux de secours pour l’approvisionnement électrique, le refroidissement et les communications. Le taux de disponibilité est de 99,98 % (moins de 2 heures d’arrêt cumulé annuel).
  • Tier 3+ : Par rapport au Tier 3, le Datacenter dispose de réseaux d’alimentation électrique et de refroidissement doublés.
  • Tier 4 : L’infrastructure est intégralement redondée (2n+1). Les réseaux d’approvisionnement électrique, de refroidissement et de communication sont doublés et actifs en permanence. Cette configuration implique un accès à des réseaux électriques gérés par deux distributeurs d’électricité indépendants. Ce niveau offre la garantie la plus forte, avec un taux de disponibilité de plus de 99,99 %.

Des enjeux critiques

Pour s’assurer un bon fonctionnement, un datacenter doit donc répondre à plusieurs enjeux majeurs.

  • La continuité électrique : La concentration d’équipements informatiques fait d’un datacenter un gros consommateur d’électricité. Pour alimenter les serveurs hébergés sans les détériorer, le datacenter doit garantir la continuité en cas de panne, la stabilité du courant ainsi que la puissance électrique..
  • La maîtrise du froid : La consommation d’énergie électrique dégage beaucoup de chaleur. Dans un datacenter, où la densité des équipements est importante, la température dépasse rapidement les seuils recommandés pour le bon fonctionnement des équipements. Un dispositif de refroidissement est donc nécessaire. Il s’articule autour du refroidissement des baies, ainsi que de l’optimisation de la circulation de l’air dans le datacenter.
  • L’accès réseau : Pour offrir une accessibilité optimale, un datacenter doit disposer d’une bande passante importante sur les réseaux des opérateurs. Il faut privilégier la proximité d’un point d’échange internet lors de l’implantation d’un datacenter pour pouvoir bénéficier de l’interconnexion avec un maximum d’opérateurs sur un réseau Très Haut Débit.
  • La sécurisation du site : Les données hébergées par les datacenters sont souvent critiques. Pour assurer leur sûreté, il existe différentes exigences de sécurité comme la sécurité d’accès qui comprend les sas d’accès et les technologies d’authentification des personnes, ainsi que la surveillance continue et les systèmes d’alerte en cas d’incident.
  • La haute disponibilité : Pour minimiser les effets d’une panne, il est important que les ressources nécessaires à la mise à disposition d’un service puissent pallier toute défaillance. Les datacenters dupliquent donc les infrastructures et incluent des mécanismes de redondance permettant de basculer automatiquement les données et applications sur un site de repli en cas de défaillance du site principal.

Quel Tier pour mon entreprise ?

Le choix d’un datacenter doit se faire en fonction des besoins informatiques des entreprises. Ceux-ci dépendent de leurs activités, de leurs tailles, de leur emplacement géographiques, de leurs applications et du type de serveurs exploités.

Si les données stockées ont une importance vitale, le choix d’un datacenter ayant un niveau de qualification adapté aux conditions exigées par le contenu de ces données est indispensable, car l’entreprise ne peut pas prendre le risque de voir ces données effacées.

L’Edge Computing, c’est quoi ? Technologie et perspectives
Par Valnaos

Selon un récent rapport de Frost & Sullivan, d’ici 2 ans 90% des entreprises industrielles seront des utilisatrices de l’Edge computing et ce marché devrait dépasser les 7 milliards de dollars dès 2024. Voici dans cet article de quoi mieux comprendre ce qu’il est et quoi en attendre.

Qu’est-ce que l’Edge computing :

Edge veut dire « périphérie », en réseau, la périphérie désigne les points les plus éloignés des installations et services fournis aux clients. Dès lors, on comprend qui s’agit d’une architecture distribuée et décentralisée qui est en adéquation avec les besoins créés par l’informatique mobile et l’internet des objets (IoT).

Le principe de l’Edge computing est donc de ramener la donnée, des capacités de stockage et de calcul au plus près de l’utilisateur ou du périphérique connecté au cloud. Dans le cas de l’IoT, les calculs et traitements peuvent-être délégués à l’ordinateur auquel le capteur est, les résultats sont ensuite envoyés sur l’Edge node le plus proche.

C’est un peu le principe des CDN (Content Delivery Network) qui dupliquent et stockent l’information dans différents lieux géographiques afin de la livrer au plus près de ceux qui la consomme, que ce soit un site web, de la vidéo ou tout autre contenu du web. Cela réduit la latence, améliore la performance et l’expérience utilisateur.

Edge computing infrastructure

Les avantages et promesses de l’Edge Computing :

Latence faible et performance :

Que ce soit pour le traitement ou le calcul dans le cadre de l’intelligence artificielle, le fait de rapprocher la charge de travail au plus près du lieu de capture de l’information rendra quasi possible l’analyse en temps réel ce qui est aujourd’hui impossible dans le cadre du cloud.

Maintenance simplifiée :

La taille réduite et la conception des micro-centres de données (µDC) qui constituent les Edge nodes facilitera la maintenance ainsi que leur installation. Ce sont des boitiers compacts et avec un bon degré de portabilité, une simple fourgonnette pourra assurer son transport.

Exemple de micro-centre de données
Exemple de micro-centre de données

Plus écologique :

C’est à vérifier dans les faits, mais il est assuré par les promoteurs de l’edge computing que de petites installations consomment moins d’énergie, même collectivement. Selon de premières études, tout dépendrait de l’efficacité des calculs effectués sur ces nœuds.

Moins couteux :

En théorie, il est moins couteux de refroidir de petits centres de donnés qu’un seul grand. Il est important de rappeler que pour les grands centres de données actuels, le coût de l’électricité utilisé au refroidissement est souvent supérieur au coût de l’électricité utilisé pour le traitement et le calcul.

Pour conclure

Avec l’arrivée de la 5G (et sa très faible latence) et l’essor de l’IoT (Internet des Objets), l’Edge computing trouve de nouveaux soutiens et séduira certainement de nombreuses entreprises dans les prochaines années. Un marché du MEC (Multi-access Edge computing) pour amener la puissance de calcul au plus près du client est en train de naitre. Toutefois des partenariats devront se mettre en place entre les opérateurs de télécommunications et les fournisseurs de cloud computing afin de proposer des offres innovantes et de saisir ces opportunités de croissance.

Qu’est ce que le DCIM ?
Par DATA4

La gestion de l’infrastructure des Data Centers (DCIM) offre une fenêtre sur l’infrastructure physique d’un Data Center – couvrant la gestion des actifs, la surveillance et l’optimisation. Elle permet de garantir les meilleures performances d’une installation et des équipements informatiques qu’elle contient, tout en soutenant des programmes importants tels que la durabilité environnementale. Mais aujourd’hui, le DCIM redéfinit également la relation entre les fournisseurs de services de colocation et l’équipe du DSI.

POURQUOI LE DCIM EST-ELLE IMPORTANTE ?

Les infrastructures devenant de plus en plus complexes, tant sur site que hors site, les outils DCIM ont gagné en importance. Avant même la migration croissante des données et des applications vers des environnements hébergés, les entreprises avaient besoin d’une meilleure visibilité de leurs équipements, des sources d’énergie associées et de la connectivité requise. Le DCIM offre une fenêtre claire à travers laquelle on peut les voir.

Aujourd’hui, le DCIM offre une valeur ajoutée encore plus grande dans un contexte distant. Frost & Sullivan a montré que 47 % des organisations utilisent aujourd’hui des services de colocation, et que ce chiffre est appelé à augmenter considérablement. Comme de plus en plus de données et d’applications résident dans des environnements hébergés, le DCIM donne au DSI la certitude qu’il a le contrôle total de son infrastructure critique. Que peut donc faire le DCIM pour améliorer la façon dont les organisations utilisent la colocation ?

LE DCIM POUR LA GESTION DES ACTIFS ET DES CAPACITÉS

Un outil DCIM efficace offre une visibilité au niveau du Data Center, de la salle et du rack, afin que vous puissiez comprendre exactement où se trouve un serveur spécifique. Il vous permet de comprendre la consommation électrique des équipements à proximité et d’évaluer les risques en conséquence. Et, ce qui est peut-être le plus important pour de nombreuses entreprises dans la façon dont elles optimisent leur utilisation de l’espace de colocation, le DCIM vous aide à maximiser l’utilisation de votre capacité. Par exemple, les équipes informatiques peuvent identifier les ports de connectivité disponibles sur les tableaux de connexions, les prises inutilisées et l’alimentation et l’espace sous-utilisés au niveau du rack. Il peut même aider à identifier les moyens sûrs d’introduire des racks supplémentaires.

LE DCIM POUR LA SURVEILLANCE

Étant donné l’importance de garantir le temps de fonctionnement, le DCIM est également utilisée pour identifier les problèmes et anticiper le besoin de réparations. Pour ce faire, il faut évaluer les conditions environnementales, notamment la température et ses variations, l’hygrométrie et l’énergie consommée. Les équipes informatiques peuvent utiliser les données historiques et l’analyse des tendances, ainsi que des alertes personnalisables, pour s’assurer qu’elles ont une connaissance complète des performances de l’environnement. Les taux de réponse sont ainsi plus rapides et les modifications plus faciles, ce qui constitue un avantage indéniable pour les espaces hébergés.

LE DCIM POUR LA PUISSANCE ET LA RÉSILIENCE

Les équipes informatiques peuvent utiliser le DCIM pour comprendre leur infrastructure de bout en bout du point de vue de l’alimentation ou de la connectivité des fibres. Cela peut révéler des anomalies, telles qu’une connectivité en fibre optique perçue comme diverse n’est pas aussi diverse que prévu ou un équipement informatique capable d’une double connexion électrique mais qui n’est actuellement alimenté que par une seule source. Le DCIM peut donc avoir un impact profond sur la résilience de l’infrastructure, grâce aux nombreuses améliorations apparemment « mineures » qui sont apportées.

UTILISER LE DCIM POUR OPTIMISER LA COLOCATION

Dans un scénario type, on peut s’attendre à voir des entreprises ou des fournisseurs de services en nuage utiliser le DCIM pour gérer leurs équipements informatiques, ou des opérateurs de Data Centers l’utiliser pour optimiser leurs installations. Mais cette approche laisse des lacunes dans la gestion globale de l’infrastructure. En conséquence, DATA4 a déployé sa propre solution DCIM – donnant aux clients l’avantage d’une visibilité complète de bout en bout. Cela améliore tout, de la compréhension de l’alimentation électrique et de la connectivité des fibres jusqu’à un engagement plus fort en matière de responsabilité environnementale.

Le DCIM n’est absolument pas un nouveau concept. Cependant, comme les environnements hébergés jouent un rôle de plus en plus important dans le mix d’infrastructures, le DCIM aidera les entreprises à tirer le meilleur parti d’une stratégie de colocation.

Qu’est-ce qu’un data Center?
Par Check Point

En définition, un data center est une installation qui fournit un accès partagé aux applications et aux données via une infrastructure complexe de réseau, d’informatique et de stockage. Des normes industrielles existent pour aider à la conception, la construction et la maintenance des installations et infrastructures de centres de données afin de garantir la sécurisation des données et leur haut niveau de disponibilité.

Types de centres de données

Les centres de données varient en taille, d’une petite salle de serveurs à des groupes de bâtiments géographiquement répartis, mais ils partagent tous une chose en commun : ils constituent un atout commercial essentiel où les entreprises investissent souvent dans le déploiement des dernières avancées en matière de data center networks (réseaux), d’informatique et de technologies de stockage.

Le fonctionnement des data centers modernes est passé d’une installation contenant une infrastructure sur site à une infrastructure qui connecte les systèmes sur site aux infrastructures cloud où les réseaux, les applications et les charges de travail sont stockés numériquement dans plusieurs clouds privés et publics.

  • Les centres de données d’entreprise sont généralement construits et utilisés par une organisation unique à ses propres fins internes. De tels centres sont courants parmi les géants de la technologie.
  • Les centres de données de colocation fonctionnent comme une sorte de propriété locative où l’espace et les ressources d’un centre de données sont mis à la disposition des personnes désireuses de les louer.
  • Les centres de données de services administrés offrent des services tels que le stockage de données, l’informatique et autres en tant que tiers, directement au service des clients.
  • Les centres de données cloud sont distribués et parfois offerts aux clients avec l’aide d’un prestataire de services administrés par un tiers.

Évolution du centre de données vers le Cloud

Le fait que le centre de données cloud virtuel puisse être approvisionné ou réduit en seulement quelques clics constitue une raison majeure de passer au cloud. Dans un data center moderne, le software-defined networking (SDN) gère les flux de trafic via un logiciel. Les offres d’infrastructure en tant que service (IaaS), hébergées sur des clouds privés et publics, proposent des systèmes entiers à la demande. Lorsque de nouvelles applications sont requises, la plateforme en tant que service (PaaS) et les technologies de conteneurs sont disponibles en un instant.

De plus en plus d’entreprises migrent vers le cloud, mais ce n’est pas une décision que tout le monde est prêt à prendre. En 2019, il a été rapporté que pour la première fois, les entreprises avaient dépensé davantage en un an pour des services d’infrastructure cloud que pour du matériel physique. Cependant, un sondage de l’Uptime Institute révèle que 58 % des organisations affirment que le manque de visibilité, de transparence et de responsabilisation des services de cloud public entraînent le stockage de la plupart des charges de travail dans les centres de données d’entreprise.

Composants d’architecture des centres de données

Le fonctionnement du data center repose sur trois types de composants principaux : informatique, stockage et réseau.  Cependant, ces composants ne sont que la partie émergée de l’iceberg dans un centre de données moderne.  En dessous de la surface, l’infrastructure de soutien est essentielle pour respecter les contrats de niveau de service d’un centre de données d’entreprise.

Informatique des centres de données

Informatique des centres de données

Les serveurs sont les moteurs du fonctionnement de tout data center. Sur les serveurs, le traitement et la mémoire utilisés pour exécuter les applications peuvent être physiques, virtualisés, distribués entre des conteneurs ou distribués entre des nœuds distants dans un modèle d’Edge Computing. Les centres de données doivent utiliser les processeurs les mieux adaptés à la tâche, car les processeurs à usage général peuvent ne pas être le meilleur choix pour résoudre les problèmes d’intelligence artificielle (IA) et d’apprentissage machine (ML).

Stockage des centres de données

Stockage des centres de données

En définition, un data center héberge de grandes quantités d’informations sensibles, à la fois à ses propres fins et pour les besoins de ses clients. La diminution des coûts des supports de stockage augmente la quantité de stockage disponible pour sauvegarder les données localement, à distance, ou les deux à la fois. Les progrès réalisés dans les supports de stockage non volatiles réduisent les temps d’accès aux données. En outre, comme pour tout autre paramètre défini par logiciel, les technologies de stockage définies par logiciel augmentent l’efficacité du personnel en termes de gestion d’un système de stockage.

Réseaux des centres de données

Réseaux des centres de données

Les équipements réseau des centres de données incluent le câblage, les commutateurs, les routeurs et les pare-feux qui connectent les serveurs entre eux et au monde extérieur. Correctement configurés et structurés, ils peuvent gérer des volumes élevés de trafic sans impact sur la performance. Une topologie typique de réseau à trois niveaux est constituée de commutateurs centraux à la périphérie reliant le centre de données à Internet et d’une couche d’agrégation centrale qui connecte la couche centrale à la couche d’accès où se trouvent les serveurs. Des améliorations comme la sécurité réseau hyperscale et les réseaux définis par logiciel apportent encore plus d’agilité et d’évolutivité du cloud aux réseaux sur site de data center.

Infrastructure de prise en charge des centres de données

Les centres de données constituent un actif critique, protégé par une infrastructure de prise en charge robuste et fiable composée de sous-systèmes d’alimentation, d’alimentations sans interruption (UPS), de générateurs de secours, d’équipements de ventilation et de refroidissement, de systèmes anti-incendie et de systèmes de sécurité des bâtiments.

Des normes industrielles existent auprès d’organisations comme la Telecommunications Industry Association (TIA) et l’Uptime Institute pour aider à la conception, construction, maintenance des installations et fonctionnement des data centers. Par exemple, l’Uptime Institute définit les quatre niveaux suivants :

  • Niveau I : Capacité de base, devant inclure une UPS
  • Niveau II : Capacité doublée, ajout d’une alimentation et d’un refroidissement
  • Niveau III : Possibilité de maintenance sans interruption et garantie que tout composant peut être mis hors service sans que la production n’en soit affectée
  • Niveau IV : Tolérant aux défauts, permettant à toute capacité de production d’être isolée de TOUT type de défaillance

Sécurité du centre de données

En plus des systèmes de sécurité du bâtiment prenant en charge une installation de centre de données susmentionnée, les data center networks nécessitent une analyse « Zero Trust » approfondie incorporée dans tous les designs de centres de données. Les pare-feux de centres de données, contrôles d’accès aux données, IPS, WAF et leurs systèmes équivalents modernes de protection des applications Web et API (WAAP) doivent être spécifiés correctement de manière à ce qu’ils évoluent selon les besoins pour répondre aux exigences des réseaux de centres de données.  De plus, si vous choisissez un fournisseur de stockage de données ou un prestataire de services cloud pour votre data center, il est important que vous compreniez les mesures de sécurité qu’ils utilisent pour leur propre centre de données. Investissez dans le plus haut niveau possible de sécurité pour protéger vos informations.

Qu’est-ce que l’edge computing ?
Par Cloudflare

L’informatique périphérique (ou edge computing) désigne une philosophie d’architecture réseau qui vise à amener le traitement informatique aussi près que possible de la source des données afin de réduire la latence et l’utilisation de la bande passante. En termes plus simples, cette approche implique l’exécution d’une moindre quantité de processus dans le cloud et la migration de ces derniers vers des points locaux, comme l’ordinateur d’un utilisateur, un appareil IdO ou un serveur périphérique. Le fait de déplacer le traitement informatique vers la périphérie du réseau permet de réduire le volume de communications à longue distance qui doivent avoir lieu entre un client et un serveur.

Qu’est-ce que la périphérie du réseau ?

Pour les appareils Internet, la périphérie du réseau désigne l’endroit où l’appareil, ou le réseau local contenant l’appareil, communique avec Internet. Le terme « périphérie » est un peu flou. Ainsi, si l’ordinateur d’un utilisateur ou le processeur interne d’une caméra IdO peuvent être vus comme la périphérie du réseau, le routeur, le FAI ou le serveur périphérique local de l’utilisateur sont également considérés comme tels. Le point important à retenir réside dans l’idée que la périphérie du réseau se situe à proximité géographique de l’appareil, contrairement aux serveurs d’origine et aux serveurs cloud, qui peuvent se révéler très éloignés des appareils avec lesquels ils communiquent.

Qu’est-ce qui différencie l’informatique périphérique des autres modèles informatiques ?

Les premiers ordinateurs se présentaient sous la forme de machines volumineuses et encombrantes, auxquelles on ne pouvait accéder que directement ou par l’intermédiaire de terminaux qui ne constituaient, finalement, qu’une extension de l’ordinateur lui-même. L’invention des ordinateurs personnels a permis à l’informatique d’adopter une forme beaucoup plus distribuée. Pendant un temps, l’informatique personnelle est restée le modèle informatique dominant. L’exécution des applications et le stockage des données s’effectuaient localement sur l’appareil de l’utilisateur, voire dans un datacenter sur site.

Développement plus récent, le cloud computing (ou informatique en nuage) offrait un certain nombre d’avantages par rapport à cette approche locale, sur site, de l’informatique. Les services cloud se voient ainsi centralisés au sein d’un « nuage » (cloud) géré par le fournisseur (ou un ensemble de datacenters) et sont accessibles depuis n’importe quel appareil inscrit sur Internet.

Le cloud computing peut toutefois introduire une certaine latence en raison de la distance entre les utilisateurs et les datacenters hébergeant les services cloud. L’informatique périphérique rapproche le traitement informatique des utilisateurs finaux afin de minimiser la distance que les données doivent parcourir, tout en conservant la nature centralisée du cloud computing.

Pour résumer :

  • Débuts de l’informatique : applications centralisées ne pouvant être exécutées que sur un ordinateur isolé.
  • Informatique personnelle : applications décentralisées exécutées localement.
  • Cloud computing : applications centralisées exécutées dans des datacenters.
  • Informatique périphérique : applications centralisées exécutées à proximité des utilisateurs, soit sur l’appareil lui-même, soit à la périphérie du réseau.

Quel exemple pourrait illustrer l’informatique périphérique ?

Imaginez un bâtiment sécurisé par des dizaines de caméras vidéo IdO haute définition. Il s’agit de caméras « classiques » qui se contentent de produire un signal vidéo brut et de le transmettre en continu à un serveur cloud. Sur le serveur cloud, les sorties vidéo de l’ensemble des caméras font l’objet d’un traitement par une application de détection de mouvement afin de garantir que seules les images présentant une activité sont enregistrées dans la base de données du serveur. L’infrastructure Internet du bâtiment se trouve donc constamment et fortement sollicitée, car une considérable partie de la bande passante est consommée par le volume élevé de séquences vidéo transférées. De plus, la charge pesant sur le serveur cloud responsable du traitement simultané des séquences vidéo provenant de l’ensemble des caméras s’avère très lourde.

Imaginez maintenant que le capteur de mouvement soit déplacé à la périphérie du réseau. Que se passerait-il si chaque caméra utilisait son propre ordinateur interne pour exécuter l’application de détection de mouvement et envoyer ensuite les images au serveur cloud en fonction des besoins ? Il en résulterait une réduction significative de l’utilisation de la bande passante, car une grande partie des images des caméras n’auraient pas à être transférées au serveur cloud.

Le serveur cloud ne serait en outre chargé que du stockage des seules séquences importantes et pourrait donc communiquer avec un plus grand nombre de caméras sans se trouver surchargé. La description de ce système constitue un parfait exemple d’informatique périphérique.

Quels sont les autres scénarios d’utilisation possibles de l’informatique périphérique ?

Cette approche de l’informatique peut s’intégrer à une vaste gamme d’applications, de produits et de services. Voici quelques-unes de ces possibilités :

  • Surveillance des systèmes de sécurité : comme décrit ci-dessus.
  • Appareils IdO : les appareils intelligents qui se connectent à Internet peuvent bénéficier de l’exécution du code sur l’appareil lui-même, plutôt que dans le cloud, afin d’interagir de manière plus efficace avec les utilisateurs.
  • Voitures autonomes : les véhicules autonomes doivent réagir en temps réel, sans attendre les instructions d’un serveur.
  • Mise en cache plus efficace : en exécutant du code sur un CDN intégré à un réseau périphérique, une application peut personnaliser la manière dont le contenu est mis en cache afin de diffuser plus efficacement le contenu aux utilisateurs.
  • Appareils de surveillance médicale : la capacité de réagir en temps réel, sans attendre de réponse d’un serveur cloud, s’avère essentielle pour les dispositifs médicaux.
  • Visioconférence : la vidéo interactive en direct nécessite une quantité importante de bande passante. La migration des processus backend au plus près de la source de la vidéo permet donc de réduire le décalage et la latence.

Quels sont les avantages de l’edge computing ?

Réduction des coûts

Comme illustré dans l’exemple ci-dessus, l’informatique périphérique permet de réduire l’utilisation de la bande passante et des ressources du serveur. La bande passante et les ressources cloud sont limitées et présentent un coût financier certain. Avec l’essor des dispositifs intelligents (caméras, imprimantes, thermostats, voire grille-pain) dans chaque foyer et chaque bureau, Statista prévoit que plus de 75 milliards d’appareils IdO seront installés à travers le monde d’ici 2025. La prise en charge de tous ces équipements nécessitera donc la migration d’une importante quantité de traitement informatique vers la périphérie.

Performances

Un autre avantage important du déplacement des processus vers la périphérie est la réduction de la latence. Chaque fois qu’un appareil doit communiquer avec un serveur distant quelque part, cela crée un retard. Par exemple, deux collègues du même bureau qui discutent sur une plateforme de messagerie instantanée peuvent être confrontés à un retard important parce que chaque message doit être acheminé hors du bâtiment, communiquer avec un serveur quelque part dans le monde et être ramené avant d’apparaître sur l’écran du destinataire. Si ce processus est ramené à la périphérie, et que le routeur interne de l’entreprise est chargé de transférer les conversations internes, ce retard notable n’existerait pas.

De même, lorsque les utilisateurs de toutes sortes d’applications web exécutent des processus qui doivent communiquer avec un serveur externe, ils rencontrent des retards. La durée de ces retards varie en fonction de la largeur de la bande passante disponible et de l’emplacement du serveur, mais ces retards peuvent être évités en faisant passer davantage de processus en périphérie du réseau.

Nouvelle fonctionnalité

En outre, l’edge computing peut fournir de nouvelles fonctionnalités qui n’étaient pas disponibles auparavant. Par exemple, une entreprise peut utiliser l’edge computing pour traiter et analyser ses données à la périphérie, ce qui permet de le faire en temps réel.

En résumé, les principaux avantages de l’edge computing sont les suivants :

  • Diminution de la latence
  • Diminution de l’utilisation de la bande passante et des coûts associés
  • Diminution des ressources serveur et des coûts associés
  • Fonctionnalités ajoutées

Quels sont les inconvénients de l’edge computing ?

L’un des inconvénients de l’informatique périphérique réside dans l’augmentation potentielle des vecteurs d’attaque. L’apparition d’équipements plus « intelligents » (comme les serveurs périphériques et les appareils IdO dotés de puissants ordinateurs intégrés) offre aux acteurs malveillants de nouvelles possibilités de compromettre ces dispositifs.

Le deuxième inconvénient tient au fait que l’edge computing nécessite plus de matériel local. Par exemple, alors qu’une caméra IdO a besoin d’un ordinateur intégré pour envoyer ses données vidéo brutes à un serveur web, il lui faudrait un ordinateur beaucoup plus sophistiqué, disposant d’une plus grande puissance de traitement, pour pouvoir exécuter ses propres algorithmes de détection de mouvement. Toutefois, avec la baisse de coût des équipements informatiques, la construction d’appareils plus intelligents se révèle désormais moins chère.

L’un des moyens de réduire le besoin en équipements physiques supplémentaires consiste à tirer parti des serveurs périphériques. Ainsi, grâce aux 250 emplacements périphériques géographiquement distribués composant le réseau Cloudflare, nos clients peuvent exécuter du code en périphérie dans le monde entier à l’aide de la solution Cloudflare Workers.

Qu’est-ce qu’un centre de données ?
Par IBM

Découvrez en détails ce qu’est un centre de données, installation physique au cœur de l’informatique d’entreprise, ce qu’il contient, ce qu’implique sa création, ainsi que les avantages et les risques liés aux ressources de centre de données partagées.

Qu’est-ce qu’un centre de données ?

Un centre de données est l’installation physique qui est au cœur de l’informatique d’entreprise. Il héberge les éléments suivants :

  • Systèmes informatiques d’entreprise.
  • Équipement réseau et matériel connexe nécessaires pour assurer la connectivité continue des systèmes informatiques à Internet ou à d’autres réseaux métier.
  • Alimentations électriques et sous-systèmes, commutateurs électriques, générateurs de secours et contrôles environnementaux (tels que la climatisation et les dispositifs de refroidissement du serveur) qui protègent le matériel du centre de données et lui permettent de fonctionner.

Un centre de données est au cœur des opérations informatiques d’une entreprise. C’est un référentiel pour la majorité des systèmes critiques, où la plupart des données métier sont stockées, traitées et diffusées auprès des utilisateurs.

Assurer la sécurité et la fiabilité des centres de données est essentiel à la protection de la continuité opérationnelle d’une entreprise, à savoir sa capacité à mener ses activités sans interruption.

Qu’est-ce qui constitue un centre de données ?

L’équipement informatique d’un centre de données est constitué de trois éléments principaux indispensables au fonctionnement d’un environnement informatique :

  1. Calcul : La mémoire et la puissance de traitement nécessaires pour exécuter des applications généralement fournies par des serveurs d’entreprise.
  2. Stockage : Les centres de données comportent des unités de stockage principales et de secours. Il peut s’agir de disques durs ou même d’unités de bande, mais les meilleures installations comportent généralement des grappes 100 % Flash.
  3. Réseaux : Ils contiennent un large éventail d’équipements réseau, des routeurs et des commutateurs aux contrôleurs et aux pare-feu.

Outre l’équipement informatique qu’il contient, chaque centre de données héberge son infrastructure de support, y compris les éléments suivants :

  • Contrôles environnementaux : Des capteurs surveillent en permanence le débit d’air, l’humidité et la température dans l’installation. Des systèmes s’assurent que la température et l’humidité restent dans les plages spécifiées par les fabricants de matériel.
  • Armoires de serveur : La majorité des équipements du centre de données se trouve dans des armoires, des meubles ou des étagères conçus spécialement.
  • Alimentations électriques : La plupart des centres de données utilisent des systèmes d’alimentation de secours basés sur des batteries, capables de compenser des pannes d’alimentation à court terme et des générateurs plus importants qui peuvent assurer l’alimentation en cas de pannes de réseau électrique commercial plus longues.
  • Câblage et systèmes de gestion des câbles : Un centre de données d’entreprise peut contenir des centaines de kilomètres de câbles à fibre optique. Il est indispensable de disposer des systèmes et de l’équipement pour organiser ce câblage et y accéder.

Installations de centre de données

De nombreux centres de données importants se trouvent dans des bâtiments dédiés et spécialement construits pour eux. Les petits centres de données peuvent être placés dans des pièces spécialement conçues, à l’intérieur de bâtiments dédiés à différents usages. Les centres de données consommant beaucoup d’énergie, il est important que les structures physiques qui les abritent soient bien conçues et convenablement isolées pour optimiser les contrôles de température et l’efficacité énergétique.

Les centres de données doivent être proches de sources fiables d’électricité et de connectivité réseau à grande vitesse. Le site ne doit pas se trouver dans ou à proximité de zones inondables, il ne doit pas non plus être vulnérable à d’autres dangers environnementaux. La force portante des murs et des planchers du bâtiment doit pouvoir supporter le poids du matériel, des armoires et de tout autre infrastructure de support qu’il abritera. L’installation doit disposer de nombreux systèmes de sécurité et d’extinction de feu, ainsi que des systèmes de surveillance appropriés.

Centres de données cloud

Lorsque les entreprises font migrer leurs données et leurs charges de travail vers des centres de données cloud, ils résident dans des infrastructures physiques comme celles des meilleurs centres de données sur site. Le client cloud n’est plus obligé de concevoir, construire, entretenir, alimenter, sécuriser un bâtiment physique ni d’y affecter du personnel. En revanche, le fournisseur de cloud se doit de fournir des ressources informatiques hautement disponibles et tolérantes aux pannes dans le cadre de ses services. Les consommateurs de cloud d’entreprise peuvent alors consacrer davantage de ressources à leurs activités.

L’adoption du cloud computing ne cessant d’augmenter, les centres de données cloud hébergent un pourcentage toujours plus important de charges de travail d’entreprise. Selon le cabinet de recherche Gartner (lien externe à IBM), 80 % des entreprises auront fermé leurs centres de données sur site traditionnels d’ici 2025.

Le fournisseur de cloud offre généralement aux clients un accès partagé à des ressources informatiques virtualisées (par exemple, des machines virtuelles) ou un accès dédié à des ordinateurs physiques, du stockage et du matériel réseau spécifiques. Vous pouvez en savoir plus sur les différents types d’hébergement cloud ici.

Avantages des centres de données cloud

Les fournisseurs de cloud font des économies d’échelle et peuvent donc fournir aux entreprises locataires un matériel à jour, une sécurité de pointe, ainsi qu’une meilleure disponibilité et une meilleure résilience que ce qu’elles seraient en mesure de s’offrir dans leurs propres centres de données.

Les principaux avantages des centres de données cloud sont les suivants :

  • Utilisation efficace des ressources : Dans les architectures de cloud public, plusieurs locataires partagent la même infrastructure physique. Les entreprises individuelles n’ont donc pas besoin d’acheter, de créer et de gérer des ressources comme le calcul et le stockage à des fins d’utilisation en périodes de pics ou de reprise en ligne.
  • Déploiement et évolutivité rapides : Les ressources peuvent être mises à disposition en quelques clics, de sorte que le déploiement de nouveaux services ne prend qu’une infime fraction du temps qui serait nécessaire si des installations sur site devaient être construites pour supporter le déploiement.
  • Frais d’investissement réduits : Les locataires cloud payant les services en fonction des besoins, généralement via un modèle d’abonnement, il n’est pas nécessaire d’effectuer d’importants investissements initiaux dans du nouveau matériel.
  • Disponibilité du personnel informatique : Le fournisseur de cloud est responsable de la sécurisation et de la maintenance de l’infrastructure, ce qui libère les services informatiques des clients des tâches quotidiennes de maintenance matérielle.
  • Accès à un réseau mondial de centres de données : Les principaux fournisseurs de cloud ont réparti leurs centres de données sur plusieurs régions et continents. Ainsi les clients peuvent satisfaire leurs exigences en matière de sécurité et de réglementation et s’assurer que les performances de traitement sont optimisées pour leur clientèle, où qu’elle se trouve dans le monde. La performance des réseaux mondiaux peut être estimée en comparant la distance que les données doivent parcourir et la vitesse à laquelle le signal lumineux se déplace dans la fibre, ce qui donne un temps d’aller-retour potentiel pour les données. Plus vos données sont stockées près de leurs utilisateurs, plus vos services seront efficaces.

Colocation de centres de données

La colocation offre une option supplémentaire pour les entreprises qui tentent de trouver un intermédiaire entre le cloud computing et la création de centres de données dédiés. Avec les services de colocation, les entreprises peuvent louer de l’espace pour leur propre matériel informatique dans des locaux de centres de données.

Généralement, le colocataire loue de l’espace dans des armoires ou des salles de serveurs ; au sein des locaux, il dispose alors d’alimentation, de connectivité Internet et de bande passante, de sécurité physique et de contrôles environnementaux. Les clients tendent à se charger de la maintenance et de l’administration de leurs propres unités matérielles.

Ils bénéficient de quelques-uns des avantages du cloud computing grâce à la colocation. Par exemple, les frais d’investissement sont réduits et ils n’ont pas à construire ni assurer la maintenance de locaux de centre de données, tout en gardant le contrôle de leur propre équipement.

Sécurité du centre de données

Les centres de données d’entreprise doivent être protégés via des contrôles de sécurité physiques et logiques rigoureux. Les mesures de sécurité physique doivent comprendre la surveillance, des systèmes de prévention des incendies et de lutte contre ceux-ci et des contrôles d’accès, afin que seuls les employés autorisés puissent entrer dans les locaux.

Les mesures de sécurité doivent protéger les données stockées ou traitées dans les locaux lorsqu’elles sont au repos (sur n’importe quel support de stockage), en transit (depuis ou vers les locaux) et en cours d’utilisation (lors du traitement ou lorsqu’elles résident en mémoire).

Les contrôles de sécurité logiques doivent inclure le chiffrement des données, la surveillance du réseau (généralement via une équipe de sécurité d’un centre des opérations de sécurité disponible en permanence (24×7)), la consignation et l’audit de toutes les activités d’utilisateurs. La plupart des experts cloud favorisent un modèle de responsabilité partagée pour la sécurité : Les fournisseurs garantissent la sécurité physique de l’infrastructure, mais le locataire est responsable de celle de ses données, y compris les contrôles d’accès, la gestion de la configuration et la surveillance de la sécurité.

Centres de données et IBM

Le réseau IBM Cloud repose sur une infrastructure physique de plus de 60 centres de données situés dans 19 pays sur tous les continents, à l’exception de l’Antarctique. Ces centres de données ont été construits pour répondre aux besoins des clients mondiaux en matière d’accès aux données locales, de fiabilité et de performances élevées, et de faible latence. Le réseau de centres de données IBM Cloud est subdivisé en 18 zones de disponibilité globale conçues pour assurer la résilience, la redondance et la haute disponibilité.

Tous les locaux des data centers IBM sont construits selon des conceptions standardisées, basées sur les meilleures pratiques. Ils sont équipés de matériel et d’équipement de support de pointe. Ils offrent une bande passante élevée pour garantir une faible latence et une performance cohérente. Les contrôles de sécurité physique sont rigoureux et IBM Cloud ne fournit jamais de clés de chiffrement aux agences gouvernementales ou à tout autre tiers (y compris ses propres équipes internes).

Le réseau mondial de centres de données IBM Cloud fournit l’infrastructure physique nécessaire à la prise en charge de plus de 170 produits et services d’entreprise : analyse métier et IA avancées, outils de développement de pointe et ressources de calcul et de stockage de classe mondiale.

C’est quoi un Datacenter ?
Par Stratosfair

Définition et fonctionnement 

Le terme « datacenter » vient de l’anglais et signifie « centre de traitement des données » en français. C’est tout de suite un peu plus clair non ? 

C’est un lieu dans lequel des serveurs sont disposés et qui permet de stocker des informations. Ces bâtiments prennent en charge le stockage en ligne de vos données. Les hébergeurs de données quant à eux s’occupent de la maintenance des équipements et de la continuité des opérations associées. 

Un datacenter est un des éléments indispensables au traitement et au stockage de nos données numériques. Sans data center, Internet n’existe pas. 

À quoi ça sert ?

L’objectif principal du datacenter est de stocker et traiter la donnée. Le réseau fibre est quant à lui l’autoroute qui permet aux données de voyager et permet d’interconnecter les data centers. 

Un datacenter se doit d’être extrêmement sécurisé. Il propose à ses clients une protection contre tous les risques dont notamment les risques incendies, les inondations, les vols, les intrusions, les pannes ou encore les coupures électriques. Pour faire simple, un datacenter est censé être infaillible. C’est pour cette raison qu’il est judicieux de stocker ses données dans une structure parfaitement résiliente. 

Comment sont stockées les données dans un datacenter ?

Parlons un peu technique… 

Dans un Datacenter, les disques durs sont généralement stockés dans une baie de stockage. C’est une sorte d’armoire métallique conçue spécifiquement pour relier une grande quantité de disques durs. L’avantage d’une baie de stockage est que les disques durs ne sont pas la seule partie redondée (en double).

Où sont-ils ? 

Ou plutôt … Où sont stockées nos données ? Selon datacentermap.com on compte plus de 4500 Datacenters à travers le monde, répartis dans 122 pays dont plus de 1800 aux États-Unis. Malheureusement, il y en a encore très peu en France (156). Ne serait-il pas judicieux de rester local ? 

C’est quoi le cloud ?

Le terme cloud vient de l’anglais et se traduit par nuage en français. En bref, le cloud recouvre l’ensemble des solutions de stockage à distance. Au lieu de stocker vos données sur vos disques durs ou sur la mémoire de votre ordinateur, il existe des serveurs éloignés et accessibles directement depuis Internet qui stockent, traitent et distribuer pour vous et selon les besoins cette données. 

Le cloud permet de délocaliser un grand nombre de services informatiques. Son avantage est de pouvoir accéder à ses données n’importe où et n’importe quand. Ici, on parle flexibilité. 

Quel est l’impact des data centers sur l’environnement ?

Parlons peu, parlons bien… Les datacenters sont un incontournable de l’air numérique et malheureusement, ils n’ont pas que des biens faits : c’est un des plus gros acteurs de la pollution numérique.

Ils contribuent de plus en plus au réchauffement climatique. La dépense énergétique des data centers représente plus de 60 % de leur coût d’exploitation. La production de l’énergie non renouvelable utilisée pour Internet pollue en émettant des gaz à effet de serre (4 %). L’empreinte carbone de ces structures est comparable à celle du transport aérien. 

Pourquoi les centres de données nécessitent-ils autant d’énergie ?

Voyons voir ce qui consomme autant et donc ce qui pollue dans les datacenters… 

La principale consommation est bien sûr l’électricité. Cette électricité est utilisée pour alimenter les serveurs mais aussi pour les refroidir principalement. Les serveurs dispersent de la chaleur et ont besoin d’énergie pour assurer leur refroidissement. On utilise souvent de grosses souffleries climatisées pour refroidir ces derniers. 

Par ailleurs, les installations d’un centre de donnée produisent énormément de chaleur faisant de la climatisation un élément indispensable pour éviter la surchauffe et garantir une température (autour de 24 degrés) qui permette aux appareils de fonctionner. 

La climatisation et les systèmes de refroidissement représentent environ la moitié de la consommation énergétique des Datacenters. Par exemple, les datacenters américains ont consommé 91 milliards de kWh en 2013 et 56 milliards en Europe (Prévision : 104 milliards en 2020).

La colocation en datacenter, qu’est-ce que c’est ?
Par Euclyde 

La colocation en datacenter est un moyen présentant de nombreux avantages pour déléguer l’hébergement des infrastructures IT d’une entreprise auprès d’un prestataire disposant lui-même de centres de données.

Toute entreprise qui doit gérer ses propres serveurs en ayant son datacenter en interne sait combien d’efforts cela nécessite en termes de gestion.  Les installations qui abritent l’ensemble des technologies nécessaires au bon fonctionnement des serveurs doivent respecter de nombreuses directives strictes et répondre à de forts enjeux environnementaux, de fiabilité et de sécurité.

Par ailleurs, les serveurs doivent être refroidis en permanence et leur fonctionnement doit être ininterrompu, même en cas de panne d’électricité. Pour les entreprises, avoir un datacenter en interne peut nécessiter une gestion fastidieuse et une charge financière importante. Une alternative à cette situation est l’intégration de votre propre serveur dans un centre informatique externe.

Voyons ensemble ce qu’est la colocation en datacenter. A qui cette solution est adressée et quels en sont les principaux avantages.

Définition de la colocation en datacenter

Un datacenter en colocation est un grand centre de données qui loue de l’espace à des tiers, généralement des entreprises, pour qu’ils puissent y héberger leurs serveurs et autres équipements informatiques. Il s’agit d’un service de plus en plus populaire grâce aux différents avantages qu’il procure.

Le terme “colocation” fait référence à plusieurs aspects de ce service.

Tout d’abord, « colocation » fait allusion au fait que les infrastructures IT de nombreuses entreprises différentes sont « colocalisées » dans un même centre de données. Le matériel appartient généralement à l’entreprise elle-même et est simplement hébergé (et en principe entretenu) par le personnel du datacenter.

Ainsi, la colocation en datacenter est un service fourni par des sociétés spécialisées dans la gestion et le stockage de données informatiques. Elles proposent une location d’espace partagé et sécurisé aux organismes, TPE, PME et grands groupes pour qu’ils puissent y déléguer la gestion de leurs infrastructures informatiques.

L’entreprise cliente s’engage ainsi avec la société de colocation d’une manière similaire à une relation de location avec un gestionnaire immobilier.

À qui la colocation en datacenter est-elle destinée ?

L’externalisation du serveur vers un datacenter de colocation est extrêmement pratique pour les entreprises dont les propres installations et connexions réseau ne répondent pas aux exigences minimales pour un datacenter en matière de sécurité, de gestion de maintenance et de fiabilité. Grâce à la colocation, ces entreprises peuvent profiter des différents avantages d’une infrastructure informatique de pointe tout en continuant à exploiter leur propre serveur.

La colocation est également plébiscitée par les entreprises dont les serveurs contiennent des données sensibles qui doivent être protégées contre tout accès non autorisé ou si les logiciels des serveurs sont personnalisés et complexes.

Ainsi, la colocation en datacenters convient particulièrement aux entreprises qui ne peuvent renoncer à exploiter leur propre serveur mais dont les installations sur place ne sont parfaitement adaptées et/ou qui souhaitent se décharger de cette contrainte.

les normes de sécurité indispensables dans les datacenters

Quels sont les coûts d’un tel type d’hébergement dans un datacenter ?

Les coûts engagés sont une autre bonne raison de choisir un mode d’hébergement de serveurs en colocation.

En effet, l’installation et l’exploitation d’un datacenter privé pour une entreprise est très couteuses et nécessite beaucoup d’efforts. L’externalisation des serveurs d’une entreprise vers un centre de données externe peut faire économiser beaucoup d’argent.

Toutefois, les frais d’hébergement des serveurs varient considérablement. Cela tient principalement au fait qu’il existe des différences de qualité de service entre les fournisseurs. La qualité est mesurée selon ce que l’on appelle le “système de classification par niveaux”, le niveau 1 étant le plus bas et le niveau 4 correspondant au plus haut niveau de qualité.

Lorsque vous faites le choix de la colocation en datacenter, il est recommandé de se concentrer sur les fournisseurs qui sont au minimum de niveau 3. Ce niveau garantit que le serveur soit accessible 99,98 % du temps, ce qui correspond à un temps d’arrêt maximal de 1,6 heure par an. En outre, les datacenters de type 3 assurent une alimentation électrique stable et un accès Internet fiable avec une bande passante élevée pouvant atteindre 10 Go par seconde. Tous ces facteurs sont essentiels au bon fonctionnement du serveur et à sa faible latence.

Les avantages de la colocation en centres de données

Maintenant que vous savez ce qu’est la colocation en data centers, voyons quels en sont les grands avantages.

La colocation fournit un environnement de haute performance pour votre infrastructure informatique. Cela permet aux entreprises qui font ce choix de bénéficier d’un prestataire qui s’occupe intégralement ou partiellement de leur environnement IT et de se concentrer uniquement sur leur activité principale. Par ailleurs, la colocation auprès de datacenters neutres offre des options de connexion privées et dédiées auprès de nombreux fournisseurs de réseaux, de clouds et de services informatiques pour pouvoir rationaliser l’architecture IT des entreprises qui y louent des baies.

Mais quels sont les autres grands avantages de la colocation en datacenter ?

La fiabilité

Dans le monde en perpétuel mouvement dans lequel nous vivons, les entreprises ont souvent besoin de s’assurer que leurs services soient disponibles 24 heures sur 24, 7 jours sur 7. Ceci est généralement garantit par les entreprises qui font de la colocation en datacenter. Grâce à une infrastructure robuste et à des redondances intégrées entre les générateurs, les équipes veillent à ce que les données des entreprises soient toujours opérationnelles lorsqu’elles en ont besoin.

La Sécurité et conformité

La sécurité et les exigences réglementaires sont une préoccupation majeure pour la plupart des entreprises. La colocation de centres de données offre des mesures complètes pour répondre à ces exigences. Les bâtiments sont par exemple surveillés par des agents de sécurité internes 24 heures sur 24, 7 jours sur 7 et 365 jours par an, des clôtures de périmètre, des caméras de surveillance, des systèmes biométriques, des lecteurs de cartes-clés…

Pour en savoir plus sur les enjeux de sécurité des datacenters, consultez notre article à ce sujet.

Des coûts grandement réduits

La colocation offre plusieurs possibilités de réduire les coûts. Par exemple, les frais d’alimentation pour le fonctionnement de vos serveurs ou bien encore pour le refroidissement des matériels informatiques peut être grandement réduit par rapport aux coûts en électricité d’un datacenter interne.

Par ailleurs, avec la colocation, il n’est pas nécessaire de s’inquiéter de la planification des dépenses d’investissement telles que les onduleurs (source d’alimentation ininterrompue), les multiples générateurs de secours, les réseaux électriques ou encore les unités de climatisation.

Outre ces dépenses d’investissement, il existe également des coûts de maintenance permanents liés à l’entretien et à la gestion d’un serveur interne inexistants en colocation.

Une évolutivité des besoins plus facile à prendre en compte

Les installations en colocation doivent être en mesure de soutenir votre croissance future. À mesure que votre entreprise se développe, vous pourrez facilement étendre vos besoins en infrastructures informatiques grâce à la colocation.

En fonction du secteur d’activité de l’entreprise et de sa taille, ses exigences et ses besoins en termes de fonctionnalités du centre de données pour l’espace disponible, l’alimentation, l’assistance et la sécurité… varieront au fil du temps.

La colocation facilite cette flexibilité et votre fournisseur de services travaillera avec vous pour déterminer vos besoins et procéder à des ajustements rapides.

Une bande passante sur mesure

Les services de colocation délivrent la bande passante dont les serveurs des entreprises clientes ont besoin pour fonctionner correctement. Avec de grands tuyaux de bande passante pour alimenter plusieurs entreprises, les colocations en datacenters sont prêtes à soutenir les entreprises d’une manière généralement bien plus efficace qu’avec un centre de données interne.

Réduire son empreinte carbone

la consommation d'énergie des datacenters

Les datacenters nécessitent une grande quantité d’électricité pour fonctionner mais aussi pour refroidir les différents équipements informatiques présents dans un datacenter.

Le fait de faire appel à un datacenter en colocation plutôt qu’à une solution interne à votre entreprise vous permettra de bénéficier d’un équipement ultra moderne à la pointe de la technologie et de faire ainsi des économies d’énergie.

Par ailleurs, de nombreux acteurs du marché des datacenters se sont engagés à réduire leur impact environnemental en signant l’initiative européenne dont Euclyde est membre fondateur, le « Climate Neutral Data Center ». Il s’agit d’une démarche européenne volontaire en vue d’atteindre la neutralité carbone des data centers d’ici 2030. Faire le choix de la colocation, c’est donc également un moyen pour votre entreprise de réduire son empreinte carbone.

Pour en savoir plus sur les enjeux environnementaux des datacenters, lisez notre article sur le sujet.

Ainsi, la colocation en datacenter est une solution parfaitement adaptée aux entreprises qui souhaitent déléguer la gestion de leur infrastructure informatique tout en profitant d’une technologie de pointe. Les avantages de la colocation sont nombreux : plus de sécurité, une meilleure évolutivité en fonction des besoins, des coûts réduits ou encore une réduction de leur empreinte carbone en sont quelques exemples.

Si vous aussi vous souhaitez profiter des offres de colocation en datacenter d’Euclyde, n’hésitez pas à nous contacter ! Nous vous rappellerons sous 48h pour faire le point sur vos besoins et vous proposer la solution la mieux adaptée pour vous.

Qu’est-ce qu’un datacenter ? Les différents types de centre de données
Par Eaton

Chaque jour, le monde dépend un peu plus des données. Qu’il s’agisse de connecter des centres de données régionaux, de soutenir des réseaux transactionnels importants ou de fournir des services à de multiples clients, vous pouvez tirer profit d’un partenaire qui comprend les demandes et les nuances de votre environnement informatique spécifique. Indépendamment de la taille de l’environnement, Eaton fournit l’inventivité et les innovations nécessaires pour créer des systèmes informatiques qui possèdent une fiabilité et une agilité exceptionnelles et qui sont conçus sur mesure en fonction de vos besoins.

Petites entreprises

Soyez plus productif avec moins de moyens et optimisez la performance de votre centre de données.

Dans le monde actuel dominé par les données, les entreprises attendent des capacités importantes même de la part des plus petits centres de données. La solution se trouve au niveau de l’informatique, y compris la prise en charge de la virtualisation, de l’architecture cloud et des technologies émergentes. Les limitations de l’espace, les contraintes financières, le vieillissement des équipements, le changement des priorités commerciales et le raccourcissement des délais représentent autant de défis supplémentaires.

Soyez conscients des limites et de ce qui est possible. Appuyez-vous sur Eaton, un partenaire en qui vous pouvez avoir confiance.

Optimisez vos actifs

Eaton possède l’expérience et le savoir-faire pour vous permettre de garder une longueur d’avance. Notre approche d’architecture ouverte peut vous être utile pour réussir l’intégration des solutions de qualité et de distribution de l’énergie avec les logiciels et le matériel essentiels pour l’alimentation des applications informatiques sophistiquées actuelles. Nous pouvons mettre en place des solutions capables de fonctionner dans un nouvel environnement ou créer des éléments pouvant travailler avec l’équipement existant pour prolonger sa durée de vie.

Obtenez de la fiabilité et de l’efficacité en respectant votre budget

Grâce à nos relations professionnelles avec les principaux innovateurs de l’industrie, y compris EMC, NetApp, HP, IBM, Dell, Cisco, Citrix, VMware et Microsoft, vous pouvez être certains de connaître les possibilités actuelles et les prochaines avancées. Nous identifions vos besoins et nous les équilibrons avec ce qui est possible et abordable. Des solutions prêtes à l’emploi simplifient et accélèrent le processus. Grâce à notre gamme de services et de produits, vous savez que vos systèmes informatiques fourniront l’efficacité, la fiabilité et la souplesse dont vous avez besoin.

Moyennes / Grandes entreprises

Affinez la gestion des données dans un environnement commercial changeant.

Les centres de données doivent incorporer les dernières technologies, s’aligner avec les stratégies commerciales et être toujours sur le qui-vive. Le risque n’est pas une option. Les systèmes doivent être redondants et l’efficacité énergétique doit être améliorée en permanence. Cependant, le vrai défi consiste à déterminer si un centre de données actuel est le modèle optimal pour gérer les données d’une entreprise pour aujourd’hui et pour demain.

Quelle est la méthode la plus efficace, fiable et économique pour concrétiser vos exigences en informatique ? Comment pouvez-vous prolonger la vie de votre centre de données actuel ? Comment pouvez-vous savoir s’il a dépassé son cycle de vie ? La sous-traitance est-elle une option ? Qu’en est-il des applications cloud ? Faites confiance à un partenaire qui ne se contente pas de vous donner des réponses, mais qui a l’expertise pour vous aider à concrétiser vos décisions.

Explorez le portefeuille de solutions le plus important et complet de tout le secteur.

Aucune autre entreprise ne propose autant de possibilités qu’Eaton, grâce à des solutions complètes qui vous permettent de développer sur mesure des solutions d’ingénierie en fonction de vos exigences.

De la puce au réseau, nous vous aidons à mesurer et à gérer votre système d’alimentation énergétique avec un portefeuille complet et une expertise incontestable. Notre offre inclut les domaines concernant la distribution de l’alimentation, la qualité de l’énergie, la gestion thermique, la gestion des câbles, les soutiens structurels, l’ingénierie grandeur nature, les services de soutien et les systèmes de gestion informatique. Nous nous intégrons avec les principales plates-formes virtuelles, y compris CA, VMware, Cisco, NetApp, Citrix, Microsoft, VCE, SimpliVity et EMC. Vous bénéficiez ainsi des idées les plus innovantes possible.

Tous nos produits fonctionnent ensemble pour créer des processus opérationnels harmonieux. Par ailleurs, n’avoir qu’un seul interlocuteur engendre une réduction des coûts de projet et minimise les coûts d’exploitation futurs. De l’équipement aux logiciels et à l’entretien, Eaton relève tous vos défis urgents de gestion de l’alimentation énergétique des centres de données.

Obtenez une efficacité et une fiabilité de la prochaine génération avec des résultats mesurables.

Votre centre de données doit être une vitrine opérationnelle des technologies de pointe fournissant une efficacité et une redondance inégalées avec un risque et des coûts minimes. Chez Eaton, nous comprenons ce type de défi. Nos décennies d’expérience avec tous les types de centres de données associées à notre savoir-faire reconnu et nos solutions innovantes font de nous un partenaire idéal.

Nous pouvons vous aider à déterminer si une technologie d’avant-garde est totalement alignée avec vos stratégies commerciales et à valider si sa performance rendra obsolètes les méthodes éprouvées existantes. Pour terminer, nous vous aiderons à prévoir et à légitimer la période appropriée de délai de récupération sur investissement.

Locataires multiples / Collocation

Dépassez la concurrence grâce à une fiabilité et une agilité exceptionnelles.

Vous subissez des pressions et vous vous heurtez à des complexités uniques et vous avez besoin d’un fabricant capable de répondre à de multiples exigences en adaptant sous un même toit différents modèles commerciaux. Pour réussir, vous devez tenir compte de l’évolution rapide des architectures informatiques dont vous aurez peut-être besoin à la demande. La fiabilité et l’agilité sont essentielles. Minimiser les coûts d’équipement, de planification et d’installation est d’une importance critique. Eaton vous offre tout ce dont vous avez besoin pour alimenter votre réussite.

Bénéficiez d’un déploiement et d’une commercialisation plus rapides.

Eaton propose des solutions souples et à faible encombrement, faciles à déployer et à gérer. Les centres de données à locataires multiples sont dynamiques et ont besoin d’une fondation électrique irréprochable capable de soutenir une croissance et des changements rapides. Voilà pourquoi les solutions de White Space d’Eaton sont conçues avec une extensibilité modulaire. En considérant votre centre de données comme un système intégré, les experts d’Eaton peuvent garantir l’interopérabilité, ce qui réduit vos coûts, diminue le risque et engendre un environnement plus sûr tout au long du cycle de vie du centre de données.

Profitez des avantages d’une solution complète issue d’une seule entité.

De l’alimentation du site à la sortie, Eaton vous aide à mesurer et à gérer votre système d’alimentation énergétique avec un portefeuille complet et une expertise incontestable. Notre offre couvre les domaines concernant la distribution de l’alimentation, la qualité de l’énergie, la gestion thermique, l’ingénierie grandeur nature, les services de soutien et les systèmes de gestion informatique. Les solutions sont conçues pour garantir des processus opérationnels harmonieux et en n’ayant qu’un seul interlocuteur avec un portefeuille complet de solutions, vous pouvez réduire les coûts du projet tout en minimisant les coûts opérationnels. Des appareillages à l’entretien, Eaton est votre partenaire pour des solutions complètes de centre de données.

Réduisez votre coût total de possession.

Les solutions à haute efficacité de qualité et de distribution de l’énergie produisent des économies maximales grâce à une performance inégalée des fonctionnalités d’efficacité et de compatibilité du site telles que la distorsion harmonique du courant et le facteur de puissance élevé. Notre conception innovante sans transformateur d’alimentation sans interruption réduit la consommation de matières premières ainsi que les coûts de fret grâce à un encombrement considérablement diminué. Notre gestion de la circulation d’air et nos systèmes de contrôle de la chaleur optimisent la température dans votre centre de données et augmentent la capacité individuelle du rack ainsi que l’efficacité de refroidissement du système de climatisation de la salle d’ordinateurs.

Hyperscale

Laissez Eaton relever vos défis hyperscales.

Dans le monde des centres de données hyperscales, il n’y a qu’une constante. Le volume de données continuera d’augmenter exponentiellement sans pour autant permettre des cycles de construction plus longs. Le Big Data présente des défis majeurs. La demande croissante pour différentes applications doit être satisfaite de façon précise, rapide et économique. L’alimentation énergétique de l’informatique haute performance passe par des solutions « hyper » innovantes. Fiabilité, réactivité et agilité financière sont les caractéristiques les plus recherchées. En vous associant à Eaton, vous réussirez à les atteindre.

Prenez en charge les exigences de la haute densité avec des solutions haute performance souples.

Eaton offre la solution ultime pour un environnement haute densité. Notre système d’alimentation sans interruption fournit une performance énergétique inégalée ainsi qu’une fiabilité et une extensibilité optimales pour tenir compte des besoins croissants en alimentation. Des produits avancés de suivi et de mesure permettent un contrôle et une efficacité optimisés.

Augmentez l’efficacité dès le commencement.

Chez Eaton, nous réalisons que les améliorations les plus infimes peuvent se transformer en efficacités et économies énormes. Des encombrements moins importants d’équipement permettent d’utiliser l’espace plus efficacement. Mettre en place un système d’économie d’énergie afin de réduire progressivement la consommation électrique même à un rythme modeste peut avoir un impact important sur vos bénéfices. Les systèmes de contrôle à distance peuvent améliorer vos délais de réaction et réduire les pannes. Nous pouvons vous aider à minimiser les pannes onéreuses et optimiser votre disponibilité.

Soyez flexibles. Déployez-vous rapidement.

Si vous ne pouvez pas déployer un système suffisamment rapidement, il n’est tout simplement pas à la hauteur. Eaton conçoit des solutions tournées vers l’avenir pour garantir que vous bénéficiez de la souplesse qui vous permettra de vous déployer rapidement et économiquement. Nos produits sont modulaires pour que vous puissiez vous développer progressivement de bloc en bloc sans avoir à payer aujourd’hui ce dont vous n’aurez besoin que demain. Plusieurs de nos solutions sont prêtes à l’emploi ou préfabriquées afin d’accélérer et de rationaliser l’installation. Nos équipes expertes peuvent faciliter le processus ainsi que prendre en charge l’entretien afin que votre opération ne soit jamais interrompue par une panne.

Hyperscale computing : le load balancing pour les gros volumes de données
Par Ionos

De nos jours, le Big data et le cloud computing sont sur toutes les lèvres et s’accompagnent de mots tendance comme industrie 4.0, Internet des objets ou conduite autonome. Ces technologies requièrent la mise en réseau d’un très grand nombre de capteurs, d’appareils et de machines. Cela génère une quantité de données phénoménale qui devra être traitée en temps réel et se traduire par des actions immédiates sur le terrain. Que ce soit dans un cadre industriel ou privé, dans le domaine scientifique ou dans la recherche, cette quantité de données croît de façon exponentielle. À l’heure actuelle, chaque minute voit la création d’env. 220 000 posts Instagram, 280 000 tweets et 205 millions d’Emails.

Avec de tels chiffres, il n’est pas toujours aisé de prévoir quelles capacités seront nécessaires à tel ou tel moment. Afin de pouvoir réagir à des exigences évoluant aussi rapidement, les capacités sur les serveurs doivent être évolutives. Dans notre guide sur l’hyperscale computing, vous découvrirez quelles structures physiques sont nécessaires pour y parvenir et comment faire pour qu’elles s’articulent de la meilleure façon possible. Avec ces connaissances, vous pourrez opter pour les solutions de serveur répondant le mieux à vos exigences.

Qu’est-ce que l’hyperscale ?

Le terme « hyperscale » peut se traduire en français par « hyperconvergence ». En informatique, cette notion est utilisée pour désigner une certaine forme d’organisation de serveurs. 

Le terme « hyperscale » décrit des systèmes de cloud computing évolutifs dans lesquels un très grand nombre de serveurs sont reliés ensemble au sein d’un réseau. Le nombre de serveurs utilisés peut être revu à la hausse ou à la baisse en fonction des besoins. Un réseau de ce type peut traiter un nombre incroyable d’accès, mais aussi mettre à disposition des capacités plus restreintes en cas d’utilisation plus faible.

L’évolutivité est l’expression qui traduit la capacité d’un réseau à s’adapter à des exigences de performance changeantes. Les serveurs hyperscale sont des systèmes petits et simples conçus précisément pour atteindre un but défini. Pour parvenir à cette évolutivité, les serveurs sont mis en réseau de façon horizontale. Le terme « horizontal » décrit ici le fait que d’autres capacités de serveur peuvent être ajoutées afin d’augmenter la performance d’un système informatique. Dans la littérature internationale, on utilise également le terme anglais « scale-out » pour traduire ce même phénomène.

L’approche inverse dite d’évolutivité verticale (scale-up) décrit l’expansion d’un système local existant. Dans ce cadre, un système informatique existant est équipé avec un matériel supérieur, c’est-à-dire une plus grande mémoire principale, un processeur ou une carte graphique plus rapides ou des disques durs plus performants. Dans la pratique, avant de procéder à une évolutivité horizontale, la technologie est souvent mise à niveau sur site jusqu’aux limites de ce qui est techniquement possible ou acceptable en termes de rapport coûts/matériel. Une fois ce stade atteint, le passage à l’hyperscale est généralement inévitable.

Comment fonctionne l’hyperscale ?

L’hyperscale computing consiste à mettre en réseau des serveurs simples de façon horizontale. Dans ce contexte, le mot « simple » ne signifie pas « primitif », mais « facilement combinable » avec d’autres matériels. Il existe donc peu de conventions de base, comme des protocoles réseau ce qui permet une communication facile à gérer entre les serveurs.

L’« adressage » des serveurs nécessaires à un moment donné s’effectue avec un ordinateur, appelé load balancer, qui gère les requêtes entrantes et les répartit entre les capacités disponibles. Dans ce cadre, la charge des serveurs résultant des volumes de données à traiter est contrôlée en permanence et d’autres serveurs sont activés en cas de besoin ou désactivés si le nombre de requêtes baisse.

Représentation schématique de l’hyperscale computing
Si le volume de données entrant est faible, l’hyperscale computing utilise un très petit nombre de serveurs. La charge des différents serveurs est communiquée en permanence.

Différentes analyses ont montré que seuls 25 à 30 % des données présentes dans les entreprises étaient activementutilisées. Parmi les données non utilisées, on trouve notamment les copies de sécurité, les données clients et les données de restauration. En l’absence de système d’organisation rigoureux, ces données sont difficiles à localiser lorsqu’elles sont nécessaires. Dans le cas de sauvegardes, cette recherche peut parfois demander des jours. L’hyperscale computing simplifie tout cela. Avec cette approche, il n’existe qu’un seul point de contact entre l’intégralité du matériel pour le computing, la mémoire et les réseaux d’une part et les sauvegardes de données, les systèmes d’exploitation, et les autres logiciels nécessaires d’autre part. Associer le matériel à des dispositifs de soutien permet d’étendre l’environnement de computing actuellement nécessaire à plusieurs milliers de serveurs.

Load balancing (répartition de la charge) avec l’hyperscale computing (schéma)
Face à une augmentation du volume de données, les serveurs sont activés de façon flexible et automatisée pour affronter la charge.

Cette méthode permet de limiter les copies de données excessives et de simplifier l’application des directives et des contrôles de sécurité dans les entreprises ce qui, à terme, baisse également les coûts de personnel et de gestion.

Avantages et inconvénients de l’hyperscale computing

La possibilité d’étendre ou de réduire en toute simplicité les capacités de serveurs présente à la fois des avantages et des inconvénients.

Les avantages

  • Cette évolutivité ne connaît aucune limite et permet aux entreprises de rester flexibles face à de futurs volumes de données. Permet une adaptation au marché rapide et économique.
  • Les entreprises doivent disposer de stratégies à long terme pour le développement de leur propre infrastructure informatique.
  • Les fournisseurs d’hyperscale computing garantissent une sécurité élevée contre les pannes grâce à des solutions redondantes.
  • Évite les dépendances grâce à l’utilisation de plusieurs fournisseurs en parallèle.
  • Des coûts clairement calculables et une rentabilité élevée favorisent la réalisation des objectifs de l’entreprise de façon optimale.

Les inconvénients

  • Les données arrivent de manière incontrôlée.
  • Les capacités de mémoire/serveur nouvellement ajoutées peuvent également être source d’erreur.
  • Les exigences en matière de gestion interne et de responsabilité des employés sont plus importantes – sur le long terme, c’est toutefois un avantage.
  • Les utilisateurs deviennent dépendants du modèle de prix du fournisseur d’hyperscale.
  • Chaque fournisseur a sa propre interface d’utilisation.

Afin de pouvoir mieux peserle pour et le contre, les entreprises peuvent emprunter une voieintermédiaire et stocker les sauvegardes importantes ou les données rarement utilisées sur un Cloud. De cette façon, ces données n’occuperont pas les capacités de serveur d’un centre de calcul interne. On peut citer comme exemple les données personnelles des utilisateurs d’une boutique en ligne devant être restituées ou supprimées à la demande de l’utilisateur ou les données d’entreprise concernées par une obligation de conservation.

Qu’est-ce qu’un « hyperscaler » ?

On entend par « hyperscaler » l’exploitant d’un centre de calcul proposant des services de Cloud computing évolutifs. Amazon est la première entreprise à avoir occupé ce marché en 2006 avec les Amazon Web Services (AWS). Il s’agit d’une filiale de la multinationale permettant à Amazon de mieux répartir la charge de données entre les différents centres de calcul de l’entreprise. AWS propose aujourd’hui de très nombreux services spécifiques. Sa part de marché est d’environ 40 pour cent. Les deux autres grands acteurs de ce marché sont Microsoft avec le service Azure (2010) et la Google Cloud Platform (2010). L’entreprise IBM est elle aussi un grand fournisseur d’hyperscale computing. Ces possibilités techniques sont également proposées en France à travers les centres de calcul de partenaires autorisés. Depuis l’entrée en vigueur du nouveau règlement général sur la protection des données personnelles, il s’agit d’une considération importante pour de nombreuses entreprises.