Recherche pour :
Les avantages d’un système de surveillance centralisé pour la construction, la mise en service et la maintenance des réseaux d’accès ftth/pon
Par Viavi

C’est un véritable challenge pour les fournisseurs de services de déployer rapidement des réseaux FTTH/PON fiables afin d’être en mesure d’offrir des services haut débit répondant à la demande croissante en bande passante. En moyenne, le taux d’échec de mise en service d’un nouveau client fibre optique s’élève à 25 %. La moitié de ces échecs serait due à des problèmes « techniques » dont la plupart proviennent d’une mauvaise manipulation de la fibre ou d’un manque de test lors de la construction du réseau.

Il en résulte des revenus différés, une rentabilité réduite et des clients frustrés. Comment nettement diminuer le taux d’échec de mise en service des nouveaux clients fibre optique et accélérer le rétablissement du service en cas de panne ? À l’aide d’un système de test et de surveillance centralisé qui peut être utilisé tout au long du cycle de vie du réseau PON.

Comment fonctionne un système de gestion des réseaux optiques à distance ?

  1. Le système doté d’un réflectomètre optique (Optical Time Domain reflectometer, OTDR) haute résolution, ainsi que d’un commutateur optique peut tester à distance tous les liens optiques entre l’OLT et les ONTs en seulement quelques minutes, tout en enregistrant les résultats des tests.
  2. Lors de la construction du réseau, le système de gestion du réseau localise en temps réel à l’aide du réflectomètre les problèmes et fournit leurs coordonnées au technicien déjà sur place qui peut effectuer les réparations nécessaires. Ceci évite l’envoi en différé d’une équipe de maintenance.
  3. Lorsque le lien est parfaitement installé et que plus aucun problème n’est détecté, la trace OTDR est enregistrée comme référence. Elle sera utilisée pour détecter les futurs problèmes en la comparant à chaque nouvelle mesure OTDR.

Les avantages d’une gestion des réseaux optiques à distance telle que la solution ONMSi de VIAVI incluent notamment :

  • Des procédures d’installation identiques pour les sous-traitants et le personnel interne et des rapports de test systématiques accélèrent le déploiement de la fibre et la fiabilité du réseau.
  • Une identification rapide des problèmes sur les liens optiques permettent de les corriger lors de la phase d’installation
    *Les câbles sont-ils correctement installés ? Y a-t-il des courbures, des écrasements, etc. ? Y a t-il des pertes de signal dues à des connecteurs optiques sales ou endommagés ?
  • Le réseau fibre optique est entièrement cartographié. Une trace OTDR de référence est sauvegardée pour chacun des liens, ce qui permet de localiser instantanément une dégradation ou une intrusion.
  • Le niveau de qualification technique des techniciens n’a pas besoin d’être élevé. Une fois la fibre installée, il leur suffit de suivre la procédure de test prédéfinie qui consiste à lancer la mesure à distance (les critères de succès/d’échec et les paramètres de configuration étant déjà entièrement configurés).
  • La surveillance centralisée du réseau PON minimise les pannes. Ce qui est d’autant plus important dans un réseau PON car un défaut sur une fibre optique peut affecter plusieurs clients.

Ressources supplémentaires :

Et si l’avenir énergétique du datacenter était aussi dans le gaz ?
Par GRDF

Gaz, gaz vert, hydrogène, trigénération… José Guignard, Chef d’Agence Marché d’Affaires Ile de France chez GRDF, nous ouvre les perspectives d’un mix énergétique où le gaz, en particulier le gaz renouvelable, et la production d’énergie par le datacenter ont leur place, et accompagnent la transition énergétique.

Stockage sur cloud hybride : définition
Par Interxion

Aujourd’hui, les entreprises gèrent plus de données et de charges de travail informatiques que jamais. Dans la bataille visant à contrôler cette multitude d’informations, le stockage sur cloud hybride offre une solution à la fois pratique et stratégique.

Pratique, car les solutions de cloud hybride permettent aux entreprises de gérer efficacement le coût du stockage des données. Stratégique, car les sociétés faisant appel au cloud hybride tirent parti de la flexibilité informatique dont elles ont besoin pour accroître leur avantage concurrentiel, notamment une meilleure qualité de service pour leurs clients.

Une nouvelle étude menée par IDC a révélé que le cloud hybride constituait une stratégie informatique populaire auprès des « leaders du numérique », ces entreprises affichant la progression la plus rapide sur la voie de la transformation numérique. D’après les résultats de l’enquête, 44 % des leaders du numérique envisagent d’utiliser le cloud hybride à l’avenir, par rapport à 36 % chez leurs concurrents. En outre, 28 % utilisent déjà le cloud hybride, par rapport à 11 % à peine du reste des répondants.

Les résultats révèlent une tendance croissante en faveur du cloud hybride, notamment par les entreprises désireuses d’être considérées comme des leaders de leur secteur. Mais qu’est-ce que le cloud hybride exactement, et pourquoi l’intégrer dans votre environnement informatique ?

Les avantages du cloud hybride

Le stockage sur cloud hybride allie l’utilisation d’un stockage sur cloud privé à des services de cloud public. Certaines données et charges de travail sont stockées dans votre data center, le reste étant conservé sur le site d’un fournisseur tiers. Cette stratégie offre plusieurs avantages :

  • Sécurité – Le cloud hybride vous permet de définir le meilleur équilibre de sécurité pour vos données. Vous pouvez choisir de continuer à héberger les informations les plus sensibles dans votre cloud privé, tout en tirant pleinement parti de la performance et de l’agilité du cloud public.
  • Agilité – Le cloud hybride est également la promesse d’une grande agilité. Vous pouvez bénéficier des points forts de chaque plate-forme afin de satisfaire les exigences en constante évolution de vos clients. Il peut par exemple être nettement plus rapide et facile de déployer des applications client à partir du cloud public, alors que des charges de travail internes peuvent être mieux gérées au sein de vos locaux.
  • Performance – Grâce au cloud hybride, vous n’avez plus à faire le moindre sacrifice en matière de performance au profit de la sécurité, ou inversement. Vous bénéficiez au contraire de la flexibilité requise pour exploiter pleinement la puissance de calcul du cloud public alliée à la sécurité du cloud privé.
  • Flexibilité – La maintenance d’une infrastructure privée coûte cher. Vous devez en effet payer pour cet espace, pour un équipement, du personnel et une infrastructure. Le cloud hybride est le gage d’une flexibilité budgétaire, puisque vous pouvez choisir où stocker différents types de données en vous appuyant sur ce qui est le plus avantageux sur le plan financier.

Quelle est la prochaine étape pour le cloud hybride ?

Pour résumer, le cloud hybride représente une solution plus dynamique pour la gestion informatique des entreprises. Il confère à votre société une maîtrise totale du lieu de stockage et de déploiement de données, d’applications et de charges de travail. Ceci permet un meilleur rapport coût/efficacité et une flexibilité renforcée de votre informatique, deux pierres angulaires d’une entreprise croissante et évolutive.

C’est donc sans surprise que les entreprises citent le cloud hybride comme une composante essentielle de leur stratégie informatique à long terme. Dans le cadre de notre enquête, 44 % des répondants ont déclaré envisager de faire appel au cloud hybride en tant que transition vers une stratégie informatique totalement basée sur le cloud. D’autre part, 28 % ont expliqué envisager de faire du cloud hybride leur stratégie informatique principale dans un avenir proche. Quelle que soit votre approche, vous gagnerez en flexibilité, en agilité, en performance et en sécurité. C’est la raison pour laquelle le cloud hybride est voué à un avenir durable et prometteur.

Migration des infrastructures : plus de possibilités, moins de pannes
Par DATA4

Votre stratégie de migration des infrastructures est-elle solide ? C’est une question qui va empêcher de nombreux responsables de data centers de dormir. Cependant, malgré toute la complexité que peut représenter une migration, il existe des phases claires qui vous permettront de réaliser un déménagement efficace et efficient.

Grâce au travail d’équipe conduit entre nos experts et nos partenaires, nous avons aidé des centaines d’organisations à effectuer une migration réussie vers nos locaux. Chacun de ces cheminements comporte généralement trois phases :

  1. La pré-migration – où vous désignez les responsabilités et créez votre plan de migration. Cette phase conditionne le succès de l’ensemble de l’entreprise et sera conduite par une approche engagée de la gestion de projet. Elle englobe tout, du savoir-faire technique à la gestion des parties prenantes et chaque élément est documenté dans un plan de migration complet.
  2. La migration – il s’agit de la phase au cours de laquelle la transition physique (et digitale) a lieu. Il est clair que c’est à ce moment-là que le risque d’interruption de service, et la base des opportunités futures, se concrétisent. Il est donc normal que ce moment vous semble angoissant. Cependant, avec une préparation méticuleuse et une équipe soigneusement constituée, vous pouvez vous attendre à une migration réussie.
  3. La post-migration – c’est ici que le succès de votre stratégie de migration peut prendre forme, car les avantages de votre nouvel environnement apportent une valeur ajoutée à l’entreprise. Toutefois, c’est aussi le moment d’affiner votre stratégie d’infrastructure en fonction de ce que vous avez appris au cours du processus.

Pour en savoir plus sur la manière de concevoir et de réaliser une migration efficace, téléchargez notre eBook sur la migration.

Comment DATA4 accompagne votre migration

Les infrastructures sont de plus en plus hétérogènes et nous voyons différentes organisations migrer vers nos centres de colocation pour différentes raisons et à différentes échelles. Notre approche consiste à admettre que les organisations cherchent généralement à conserver un degré de contrôle important sur leurs actifs, tout en bénéficiant de la gestion des locaux que nous proposons.

Le challenge que nous nous lançons est simple : comment faire en sorte que le client se sente comme si nos locaux étaient les siens ? Grâce à notre technologie intelligente, à notre vaste réseau de campus et à notre équipe d’experts, tel que Stephya, nous sommes en mesure d’offrir à nos clients une expérience sans faille. Pour en savoir plus sur la façon dont nos campus de data center peuvent soutenir votre stratégie digitale, consultez…….

Implantation de data centers : la France dans le top 10 mondial des pays les plus attractifs

Par Arcadis

Avec une très bonne cybersécurité, un réseau énergétique fiable et des initiatives gouvernementales visant à accélérer la numérisation de l’économie, la France offre un environnement favorable à l’accueil de data centers, à condition néanmoins d’en améliorer les performances énergétiques.

Arcadis, société internationale d’ingénierie et de conseil, publie « The Arcadis Data Center Location Index 2021 », une étude comparative des pays dans lesquels il est intéressant d’investir dans les data centers. Les Etats-Unis, le Japon et Singapour trustent le podium, tandis que la France se classe 9ème sur une cinquantaine de marchés intérieurs étudiés. L’index prend en compte plusieurs critères : le PIB par habitant et la taille du marché intérieur, la facilité à obtenir les autorisations d’urbanisme, le prix de l’électricité, la sécurité énergétique, la cybersécurité ou encore le niveau d’équipement en haut débit et la bande passante moyenne.

La crise sanitaire a mis en lumière et renforcé des tendances de fond comme le télétravail, le commerce en ligne et plus largement l’utilisation du numérique dont les besoins explosent, et nécessitent la construction et l’exploitation de datacenters à travers le monde. Des implantations elles-mêmes accélérées par la création de nouveaux réseaux d’accès (5G, FTTH).

La France est aujourd’hui le troisième plus grand marché des technologies de l’information et de la communication en Europe et est le dixième plus grand marché intérieur mondial. Par ailleurs, la France est un territoire favorable au développement des data centers car elle offre de bonnes performances en termes de cybersécurité et son réseau énergétique est l’un des plus fiables d’Europe, constituant ainsi un environnement idéal de ce point de vue. L’intérêt des investisseurs pourrait être décuplé par les initiatives gouvernementales récentes, comme l’allégement de la fiscalité énergétique en complément du développement du très haut débit sur l’ensemble du territoire. Une volonté régulièrement affirmée, comme lors de l’inauguration d’un centre de données en 2019, où Bruno Le Maire déclarait vouloir faire de la France « la première terre d’accueil de data centers en Europe. »

Une volonté qui s’inscrit également dans la compétition sur le contrôle des données, dans le sillage de la promulgation du CLOUD (Clarifying Lawful Overseas Use of Data) act américain, l’Union européenne préparant via son plan de relance numérique des mesures destinées à mieux contrôler ses données et son autonomie.

L’investissement en data centers en France représente donc un véritable enjeu au niveau national avec une très forte concentration d’installations en région parisienne. Le sud de la Seine Saint-Denis est ainsi particulièrement prisé et offre des possibilités de reconversion de friches industrielles, une aubaine pour les collectivités en périphérie qui souhaitent capter ces investissements. « Ces implantations massives soulèvent néanmoins des interrogations majeures, sur l’impact foncier à long terme et l’intégration urbaine ou encore la faible création locale d’emplois », précise Nicolas Boffi, City Executive Paris chez Arcadis.

Cette volonté d’attirer les data centers dans l’hexagone a néanmoins très récemment été tempérée par une proposition de loi adoptée au Sénat en janvier 2021 pour réduire l’empreinte environnementale du numérique. Elle prévoit d’obliger les data centers à prendre des engagements juridiquement contraignants auprès de l’Arcep (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse). « Des mesures qui vont de toute manière dans le sens des initiatives prises par les acteurs du secteur pour réduire leur consommation énergétique via des innovations à tous les niveaux : matériel comme logiciel », ajoute Nicolas Boffi. L’idéal étant d’intégrer à terme ces équipements dans d’autres programmes immobiliers pour améliorer l’impact foncier et faciliter la récupération de chaleur fatale, à l’instar de l’initiative de la Ville de Paris à Chapelle International.

Comment protéger votre entreprise contre les ransomwares ?

Par Huawei

Les attaques par ransomware font désormais la une des médias. Tout le monde aura vu dans les actualités ce producteur de viande au Brésil qui en a été victime ou l’approvisionnement en essence aux États-Unis qui été affecté pendant des semaines.

Viennent ensuite les nombreux cas locaux dans les hôpitaux, les administrations publiques et les entreprises. Le rapport Unit 42 Ransomware Threat Report indique que les demandes de rançon ont augmenté pour atteindre une moyenne de 570 000 dollars au cours du premier semestre 2021. Cela représente une augmentation surprenante de 82 % par rapport à l’année précédente (312 000 $). Et cela prend uniquement en compte les demandes de rançon, sans inclure les pertes de production et l’énorme préjudice de réputation pour les victimes concernées. Il est donc vital pour les entreprises et autres opérateurs informatiques de mettre en place des solutions efficaces.

Différentes approches

En principe, deux approches différentes peuvent être adoptées. D’une part, il faut tout mettre en place pour prévenir une telle attaque. Cela commence par la formation des employés et se poursuit par la sécurité des terminaux, des réseaux et des applications, pour ne citer que quelques mesures. Compte tenu du nombre de périphériques réseau aujourd’hui – pensez à l’IoT et à ceux qui travaillent à domicile -, atteindre une sécurité à 100 % semble impossible. Par conséquent, des solutions sont nécessaires pour minimiser les dommages en cas d’attaque réussie par ransomware.

Dans cette optique, la seconde approche induit que la protection des données devient de plus en plus importante et doit être adaptée à ces scénarios d’attaque en termes d’objectif de temps de récupération (RTO) et d’objectif de point de récupération (RPO).

Huawei aborde ces questions avec le tout nouveau portefeuille de solutions de protection des données.

Ocean, pour une protection complète de vos données

Notre gamme d’équipements est multicouche et couvre le stockage primaire comme la conservation des sauvegardes et l’archivage, englobant ainsi la continuité des activités, la capacité de récupération des données et la conformité réglementaire. Des solutions actives/actives ou actives/passives peuvent être mises en correspondance, même à travers plusieurs data centers et le cloud, et incluent même l’archivage vers le cloud ou vers un stockage de masse OceanStor Pacific.

D’autre part, le portefeuille est extrêmement flexible et peut être intégré de manière transparente dans les environnements existants. Même le logiciel de sauvegarde n’a pas besoin d’être modifié pour bénéficier de nombreux avantages.

Au premier niveau, le stockage primaire, par exemple avec notre OceanStor Dorado, nous avons implémenté la fonction HyperCDP (Continuous Data Protection). Celle-ci peut, par exemple, créer des instantanés d’un LUN toutes les 3 secondes et conserver jusqu’à 60 000 instantanés. Comme vous pouvez vous y attendre, les groupes de cohérence sont également pris en compte. Par conséquent, le RPO est réduit à trois secondes. Il s’agit d’une augmentation considérable par rapport aux fenêtres de sauvegarde classiques de 24 heures.

Les sauvegardes et les snapshots cohérents avec les applications sont créés via OceanStor BCManager. Cet outil clé analyse les serveurs d’application pour les applications en place et installe les plug-ins appropriés. Des snapshots et des sauvegardes cohérents peuvent être créés et transférés vers la destination de sauvegarde en fonction des besoins. L’interface graphique HTML5 effectue également une représentation graphique de la structure des applications et des sauvegardes.

Dans cette gamme de produits, le stockage de sauvegarde OceanProtect présente beaucoup d’atouts. Il offre des paramètres impressionnants dans deux classes de performance pour stocker les sauvegardes de façon efficace et hautement disponible. Les points forts sont une compression allant jusqu’à 55:1, une bande passante de 155 To/h et une capacité de stockage maximale de 9,2 Po. À cette fin, les OceanProtect X8000 and X9000 peuvent être connectés avec FC, iSCSI, NFS et CIFS en utilisant jusqu’à 32 Gb FC et 100 GbE. Différents types de stockage primaire et une variété de logiciels de sauvegarde peuvent être utilisés via les interfaces ouvertes. Cela en fait une destination de sauvegarde idéale pour de grandes quantités de données, facilitant des cycles de sauvegarde rapides et permettant de restaurer les données aussi rapidement que possible.

L’appliance OceanProtect est une solution complète. Elle combine les éléments d’un logiciel de sauvegarde, d’un serveur de sauvegarde et du stockage de la sauvegarde en un seul système, ce qui simplifie considérablement les opérations. Les copies de sauvegarde sont conservées dans le format original. Cela réduit le RTO à quelques minutes lors de la restauration. Les données sont disponibles instantanément, sans copie, pour le développement de logiciels ou l’analyse de données. Cette solution est particulièrement adaptée aux piles d’applications séparées et aux environnements de petite et moyenne taille.

L’archivage basé sur des politiques peut être utilisé comme troisième étape dans l’architecture de protection des données. L’interface S3 permet, par exemple, d’utiliser OceanStor Pacific, les systèmes Blu-ray ou le cloud comme stockage d’archives. La solution permet des processus d’archivage conformes à la législation et offre une connexion à l’architecture globale. Ainsi, les archives sont immédiatement accessibles pour l’analyse des données, si nécessaire.

Les données peuvent être protégées rapidement et en toute sécurité grâce à cette solution flexible de protection des données à trois niveaux. Les objectifs de temps de récupération (RTO) et de point de récupération (RPO) sont extrêmement réduits. Même en cas d’attaque par ransomware, l’environnement système peut être restauré de manière efficace. S’il s’agit uniquement de remplacer les systèmes de sauvegarde, les modèles OceanProtect X8000 and X9000 ou OceanProtect A8000 sont particulièrement intéressants.

Gestion des coûts d’un Data Center : l’apport de l’innovation et du Value Engineering
Par Marion Porée, Cost Manageur, et Matthieu Gallego, Directeur associé, Project Director & Project Advisor, Data Centre and Manufacturing, chez Turner & Townsend

« Si on veut connaître un peuple, il faut écouter sa musique. »

Retranscrit dans un cadre professionnel, Platon abordait déjà la notion d’écoute. Une écoute active de nos collaborateurs, de nos clients qui, à l’instar de l’innovation, amène au cœur du Value Engineering. Or, qu’est-ce que le VE ? En quoi consiste-t-il ? Et pourquoi l’utilise-t-on ?

Qu’est-ce que le Value Engineering ?

Loin des procédés purement arithmétiques, le VE est une méthode simple et à la fois complexe mêlant jeu d’analyse et de recherches à la compréhension des besoins, à la volonté de leadership, tout en sachant accompagner adroitement son client.

Dans cette habileté d’écoute se dessine le recadrage d’un budget alloué à un projet. Une estimation supérieure à l’enveloppe budgétaire ou la nécessité de restreindre finalement les coûts, malgré le respect du budget initial, peut justifier l’utilisation du Value Engineering. Un phénomène dépeint en cinq points ci-dessous :

  • Ponctuel ou cyclique
  • Décidé par le maître d’ouvrage ou son équipe technique et/ou design
  • Pratiqué dès le début du projet jusqu’à la définition claire et définitive des besoins
  • Qui a pour but de réduire le montant initial par un objectif précis
  • Le tout en garantissant la technicité, la sécurité et le standing demandé

Néanmoins, comment s’assurer de sa réussite ? De quelle manière accorder succès à la baisse de budget ? Prenons le sujet sous un autre angle et déterminons le Value Engineering comme une optimisation des coûts.

Extrait de Value Engineering Criteria Assesment – 23/04/2013 par Tuerner & Townsend

Ici, dans le cadre d’un Data Center, l’économiste en charge de cette tâche cible dans un premier temps ce qui ne peut être négociable (par exemple les éléments structurels ou emblématiques du projet). En résumé, il ou elle définit, grâce à l’écoute de son client et de son équipe, les attentes immuables. A l’image de la structure d’une construction neuve, l’économiste s’abstient de toucher aux marques des groupes électrogènes ou à la dimension des climatiseurs dans un DC et va plutôt véhiculer ses recherches vers le second œuvre, c’est-à-dire, tout ce qui pourrait éviter l’intervention d’un BET.

Dans un second temps, l’économiste identifie rapidement les postes les plus onéreux, les options pouvant être supprimées, les matériaux remplaçables par d’autres plus abordables et etc. Le but étant d’aller chercher l’économie en préservant l’esprit du projet.

En parallèle, il ou elle peut s’appuyer sur une des méthodes les plus infaillibles au sein du Value Engineering : le Six Sigma, très utilisée au sein de l’industrie et du Supply Chain. Un principe qualitatif qui tend vers un lissage parfait d’un processus, en d’autres termes, qui valorise au maximum sa fluidité. Cette démarche doit être approuvée par le client et nécessite des indicateurs de production fiables et mesurables, toujours dans le but de réduire les coûts tout en garantissant et/ou en améliorant la qualité du programme.

Mettre en avant la technique et l’innovation

Cette méthode est également l’occasion d’apporter son savoir-faire via ses connaissances techniques mais surtout par la présentation d’innovations. Nous y voilà, bienvenu au centre du Value Engineering. En effet, la recherche de l’innovation présente de multiples avantages :

  • Un gain de temps et une facilité de mise en œuvre :

Le VE permit de réduire la durée du projet de 12 mois (17% du temps de travail prévu) ainsi que d’économiser 43 millions de dollars (6% du coût du projet)

  • Une meilleure gestion des ressources :
The Center Hill Dam Safety Rehabilitation Project (2015)

Trois études de VE combinées ont permis la réduction de 54.2millions de dollars (21% du coût du projet).

  • Une optimisation du design :
QEW at Bronte Road (2004)

L’optimisation du design du projet permis d’augmenter les performances et la fluidité du trafic des nouvelles infrastructure pour un coût limité de 200,000 dollars (projet global 32 millions de dollars).

L’innovation inscrit l’équipe technique dans une démarche moderne, démontre sa flexibilité, son aptitude à se démarquer de ses concurrents, sa volonté forte de relever les défis techniques et financiers. Elle devient alors la vitrine du savoir de l’entreprise. Il suffit donc à l’économiste d’y puiser les idées adaptées, de suivre les progressions du marché et d’y trouver les meilleures plus-values, contribuant à l’optimisation du projet.

Une application concrète dans le Data Center

Le data center est un des domaines, avec l’industrie pharmaceutique et les entrepôts industriels, où le Value Engineering trouve une de ses applications les plus techniques. Dans ce secteur les dépenses touchant la partie mécanique et électrique représentent plus de 60% du budget total d’un projet. Cela concerne essentiellement les projets de construction de Data Center sur terrain vierge.

Ce budget exclut le coût des serveurs, rarement intégré dans ces projets, qui représente cependant un pourcentage important des montants finaux.

Régulièrement appliqué dans les projets de Data center dès la phase Business Plan, le Value engineering s’applique au cours de l’avant-projet dans une démarche globale d’optimisation des configurations électrique et mécanique. Afin de respecter le cahier des charges client, qui demande fréquemment une remise en question pour être optimisé, il est indispensable de ne pas « sur-dimensionner » les systèmes comme ne pas ajouter des groupes froids pour une redondance en N+2 alors qu’une N+1 est par exemple demandé. Dans le cas d’un design selon les principes de l’Uptime Institute, il est primordial de respecter les critères stricts du Tiering (voir ci-dessous) dans le but de garantir la certification du projet.


Les classifications de Tiering selon l’Uptime Institute sont l’objet dès le départ dans un projet de data center avec l’optimisation et la suivi du cahier des charges clients du Value Engineering

Une fois le concept global du design optimisé, le Value Engineering guide le projet selon les principaux critères du « Time to Market » (date à laquelle le data center est pleinement opérationnel) qui réduit au maximum la gestion des coûts, garantissant ainsi la qualité finale du produit.

C’est souvent à ce stade que le BIM fait son introduction dans le projet. En effet, cette maquette numérique est devenue un élément incontournable pour ceux souhaitant adopter une future transition du Value Engineering.

En créant en 3D toutes les interfaces du Data Center et en faisant interagir les connections énergétiques, il est aisé de déterminer à la fois la consommation du DC en question, mais également d’identifier bien plus rapidement les éléments interchangeables, permettant une réduction des coûts et ce, dès le début du projet. Dans le VE, un processus tel que celui-ci accélère l’adaptation des solutions et du design, rend l’impact des changements visuel, augmente la prise de décisions et permet donc une meilleure rentabilité du programme dans son ensemble.

Evidemment, cela nécessite une prise de conscience collective, une volonté de progresser avec le BIM malgré ses imperfections actuelles et une main d’œuvre très qualifiée, aussi bien à l’aise sur la complexité d’un Data Center que sur la maîtrise des maquettes numériques.

Le Value Engineering peut être ainsi utilisé en amont et en aval de l’appel d’offre. Il se révèle être un outil décisionnel indispensable, aussi bien dans choix d’une stratégie que dans la sélection d’une entreprise.

Parlons énergie, parlons carbone !
Par Nexeren

Les Datacenters des grands acteurs IT mondiaux sont régulièrement remis en question par les populations locales et leurs gouvernements, le plus souvent pour des préoccupations quant à leur usage de l’énergie, et depuis peu pour la question plus large de leurs impacts environnementaux. On voit ainsi une halte annoncée sur les constructions à Singapour, une longue pause et nouvelles obligations à Amsterdam, moratoire sur les implantations en examen en Irlande, et même le projet de déploiement d’une nouvelle Amazon en France a été récemment retoqué par le préfet du département concerné.

Face à cela les exploitants de Datacenter de colocation neutre – entendre par là les opérateurs de Datacenters qui proposent à des entreprises tierces un service d’hébergement en mutualisant pour eux la mise à disposition d’une architecture résiliente – ces opérateurs, donc, se sont saisis du sujet et annonce désormais à grand bruit leur neutralité carbone, immédiate ou à très court terme. Le plus souvent derrière ces annonces il y a le recours à des PPA (Power Purchase Agrement), des contrats d’approvisionnement d’énergie renouvelable.

LE POSITIONNEMENT DE NOTRE DATACENTER FACE À L’ÉNERGIE

Depuis leur conception et leur construction, il y a maintenant huit ans pour NEXEREN 1 , les Datacenters de NEXEREN sont alimentés avec de l’énergie renouvelable. Nous parlons d’un contrat à énergie « sourcée » : ce n’est l’électron qui est utilisé dans nos datacenters qui est forcément produit par une énergie renouvelable, mais nous achetons – avec un surcout que nous devons assumer sur le prix – la garantie que notre consommation est équilibrée par une production en renouvelable. Nous sommes donc là sur un principe de compensation, qui évite, en passant, la perte d’énergie qui serait associée au transport depuis une source possiblement lointaine jusqu’à nos infrastructures.

Une fois notre énergie sourcée et acquise avec sa compensation en production renouvelable, il convient encore d’en faire le meilleur usage. Et pour paraphraser l’adage connu, la meilleure énergie dans ce cas reste bien celle que l’on économise, voire que l’on ne consomme pas, tout en rendant bien sûr un service identique.

Dans notre métier, cela s’appelle l’efficience énergétique, et elle a un instrument de mesure spécifique : le PUE, pour Power Usage Effectiveness.

Ce PUE est un ratio entre l’énergie utilisée par la production IT et l’énergie globale du Datacenter. Combien d’énergie totale en kilowatt faut-il pour fournir aux serveurs un kilowatt qui va servir à la production informatique.

POURQUOI NOUS CHOISIR ?

NOTRE PUE

Le PUE moyen en Europe est ainsi de 2,53 : il faut donc 2,53 kilowatts entrants dans le Datacenter pour que les serveurs puissent en consommer 1, le solde de 1,53 kilowatts étant lui utilisé par le Datacenter lui-même.

Chez NEXEREN, notre PUE est inférieur à 1,3. Quand la production IT consomme un kilowatt, nos infrastructures n’en demandent seulement que 0,3 supplémentaire pour fonctionner. Et comme nous sommes assez fiers de cette performance, nous publions cette information sur notre site web, en temps réel et accessible à tout le monde. Et cela, depuis la livraison du bâtiment. Nous n’avons jamais considéré que cette information était confidentielle, mais bien au contraire que nous devions cette transparence à nos clients. Nous aimerions que les hyperscalers et autres géants de la colocation fassent de même.

Enfin, et mieux encore, comme nos Datacenters sont dimensionnés pour qu’ils puissent accompagner le développement de nos clients, il nous reste beaucoup d’espace disponible dans la plupart d’entre eux. Ce qui veut dire que notre PUE va encore s’améliorer dans les mois et années à venir, par un effet de mutualisation de notre consommation propre.

EN SAVOIR PLUS

D’AUTRES SUJETS D’ANALYSES ET DE MESURES

Au-delà de la seule question – importante – de l’énergie, apparaissent désormais dans la communauté de métier d’autres sujets et d’autres angles d’analyses et de mesures.  Il s’agit par exemple de gestion des déchets électroniques, du recyclage, ou bien encore de l’usage de l’eau. Et là encore, ces sujets « nouveaux » sont des sujets anciens chez NEXEREN.

Nous confions par exemple les déchets électroniques de nos clients à des prestataires spécialisés, qui veillent à la fois à un décommissionnement dans les règles de l’art, mais aussi au recyclage de ces matériels.

Pour l’usage de l’eau – et tandis que Microsoft annonce qu’il veut réduire sa consommation d’eau de 95%, ce qui souligne l’ampleur du travail à accomplir – nous avons fait des choix technologiques qui induisent un usage de l’eau très limité. C’est en particulier vrai pour nos équipements de refroidissement, en évitant les solutions qui reposent sur de l’évaporation d’eau, mais c’est aussi vrai pour nos températures de fonctionnement que nous montons de quelques degrés pour ne refroidir que lorsque cela est vraiment nécessaire.

POUR EN SAVOIR PLUS, CONSULTEZ-NOUS

Au total , notre retour d’expérience sur plus de dix ans, et la comparaison avec les pratiques de grands géants mondiaux, nous amènent à réaliser que comme Monsieur Jourdain nous faisions de la prose sans le savoir. Ou en tout cas, que les acteurs rigoureux que nous sommes avons depuis l’origine choisi en matière de limitation des impacts environnementaux, sont désormais plus largement adoptées sous la pression des citoyens et des pouvoirs publics.

Il reste cependant beaucoup à faire, en analysant les bilans carbones de tous les équipements qui composent nos infrastructures, et en accélérant encore le rythme de nos améliorations sur ces sujets. Nous n’avons plus le temps d’attendre l’émergence d’un consensus entre professionnels, ou l’arrivée d’une loi qui encadrerait des obligations en matière environnementale : nous agissons d’ores et déjà à notre échelle au quotidien.

Pourquoi les nouveaux réfrigérants sont essentiels pour aider les datacenters à atteindre les objectifs environnementaux ?
Par Vertiv

La période estivale est généralement réservée aux vacances (ou cette année, peut-être des mini-séjours), profiter du soleil et se retrouver en famille et entre amis.

Toutefois, ces dernières années, dans certaines régions du monde, l’augmentation des phénomènes météorologiques extrêmes a donné à l’été un nouvel aspect, peu agréable.

Cet été, certaines parties du monde, y compris les États-Unis, le Canada et certaines régions du Royaume-Uni, ont connu une chaleur extrême, tandis qu’en Allemagne, en juillet, les pires inondations jamais enregistrées depuis des décennies sont survenues.

Des experts affirment que le nombre des phénomènes météorologiques extrêmes augmentera avec le changement climatique. Afin d’atténuer le changement climatique, tout le monde, y compris les datacenters, doit jouer leur rôle dans la réduction des émissions de carbone.

Pour les datacenters, cela signifie faire plus avec moins. Ils doivent fournir plus de puissance de calcul afin de pouvoir répondre à la demande croissante des clients et des entreprises, tout en consommant moins d’énergie et en réduisant leur empreinte carbone.

La chaleur monte : Réglementations environnementales et datacenters

Comment les datacenters, de plus en plus grands et répandus, peuvent-ils satisfaire aux nouvelles réglementations environnementales sans sacrifier les performances ? Comment peuvent-ils évoluer en toute confiance pour prendre en charge une vague de nouvelles technologies intensives en calcul, telles que l’intelligence artificielle (IA), la réalité virtuelle et la 5G ? Le passage aux réseaux mobiles de cinquième génération augmentera probablement la consommation électrique totale du réseau de 150-170 pour cent d’ici 2026.

Beaucoup dépendra de l’utilisation de technologies de refroidissement plus efficaces. Partout dans le monde, les gouvernements ont commencé à interdire ou à restreindre l’utilisation de réfrigérants produisant une quantité élevée d’émissions de carbone (ou ayant « un potentiel de réchauffement global élevé », « PRG » dans le jargon industriel), tels que les hydrocarbures fluorés (HFC).

En Europe, par exemple, une réglementation (517/2014) vise à éliminer progressivement l’utilisation de certains gaz à effet de serre utilisés dans les réfrigérants. La Chine et les États-Unis ont instauré des règlements similaires.

Les progrès vers une infrastructure numérique plus durable seront plus faciles si l’industrie peut convenir de normes de rendement énergétique. Le code de l’Union européenne relatif au rendement énergétique dans les datacenters pourrait aider à soutenir les progrès en matière de durabilité des technologies de refroidissement.

Les initiatives volontaires de l’industrie − telles que le « Climate Neutral Data Center Pact » (Pacte de neutralité climatique) conclu en Europe entre les fournisseurs d’infrastructures cloud et les opérateurs de datacenters, qui ont convenu de rendre les datacenters européens climatiquement neutres d’ici 2030, − constituent un autre développement encourageant.

Un avenir écologique

Certains fournisseurs de datacenter, tels que Green Mountain en Norvège, ouvrent également la voie. Situé au cœur des montagnes norvégiennes, Green Mountain, un ancien site de stockage de munitions haute sécurité de l’OTAN devenu datacenter, fonctionne entièrement à l’énergie hydraulique.

Ce site unique offre un avantage considérable en matière d’exploitation de sources d’énergie renouvelable et la minimisation des équipements de refroidissement pour des opérations avec des émissions de CO2 proches de zéro. Cependant, comme tous les datacenters, il requiert des systèmes de refroidissement afin de maintenir une disponibilité optimale.

Récemment, Green Mountain, l’un des datacenters les plus durables au monde, est devenu encore plus écologique en mettant à niveau ses technologies de gestion de l’énergie et du refroidissement en partenariat avec Vertiv.

Après des recherches approfondies, les dirigeants de Green Mountain se sont rendus dans les Centres d’expérience client Vertiv en Italie pour voir les technologies Vertiv en action et tester les performances dans des conditions extrêmes. En conséquence, Green Mountain a choisi les unités périphériques à eau glacée Vertiv™ Liebert® PCW à rendement élevé, pour une puissance frigorifique totale installée de 5 MW. Liebert PCW permet des normes de rendement élevé grâce à une combinaison des dernières technologies et une conception interne optimisant l’aérodynamisme des composants internes.

Selon l’Agence internationale des énergies renouvelables (IRENA) [1][2][3], les datacenters jouent un rôle central en étant l’épicentre en matière d’innovation technologique, de rendement énergétique, d’énergies renouvelables et en termes d’économie des données rendue possible par la numérisation. Les opérateurs de datacenter tels que Green Mountain peuvent être considérés comme un modèle pour accélérer une transition énergétique durable et ouvrir la voie à d’autres industries énergivores.

La dernière innovation de Vertiv en matière de refroidissement

Dans le cadre des efforts de Vertiv en matière de durabilité des datacenters, nous avons récemment lancé Vertiv™ Liebert® AFC, une gamme innovante de groupes de production d’eau glacée avec technologie à vis inverter et réfrigérant écologique. Le produit utilise moins d’énergie, avec un nouveau réfrigérant HFO qui produit généralement mille fois moins d’émissions de carbone que les réfrigérants traditionnels. Le groupe de production d’eau glacée est installé à l’extérieur des datacenters, généralement sur les toits des sites, ou dans la périphérie du bâtiment.

Le produit a plusieurs versions, ce qui signifie qu’il peut s’adapter à des climats variables (groupe de production d’eau glacée, Freecooling, technologies Freecooling sans glycol) et peut fonctionner dans une large gamme de températures, de -25 degrés Celsius à +56 degrés Celsius.

Les autres avantages incluent la possibilité d’utiliser de l’eau pure à l’intérieur du datacenter, ce qui réduit le risque de pollution de l’environnement, et garantit des coûts d’installation inférieurs et fournit des batteries freecooling optimisées (batteries 25 % plus grandes afin de maximiser l’échange de chaleur en utilisant l’air ambiant externe comme principale source de refroidissement ), offrant une capacité de freecooling accrue et plus d’heures de freecooling, ce qui se traduit par un meilleur rendement saisonnier et des coûts d’exploitation réduits.

Un autre plus est sa taille. Liebert AFC est jusqu’à 15 % plus compact que la norme dans l’industrie, ce qui signifie qu’il est plus facile à installer dans des espaces confinés. Ses configurations silencieuses et peu bruyantes, qui minimisent la pollution sonore dans les zones urbaines et résidentielles, sont bien adaptées aux différents besoins des infrastructures critiques, ce qui en fait un produit extrêmement polyvalent et hautement configurable. De plus, le Liebert AFC utilise des algorithmes informatiques pour contrôler l’approvisionnement en eau et la température, et optimiser le rendement de l’unité, permettant ainsi d’économiser jusqu’à 20 % en termes de consommation électrique annuelle par rapport à une solution traditionnelle.

Le marché du refroidissement chauffe

L’amélioration des performances environnementales des datacenters aidera les gouvernements à atteindre des objectifs ambitieux pour l’atteinte de la neutralité carbone d’ici 2050 ou plus tôt.

Par exemple, en juillet, l’Union européenne (UE) a annoncé des propositions relatives au changement climatique visant à soutenir son objectif de devenir neutre en carbone d’ici 2050. Elles comprennent des plans visant à taxer le kérosène et à interdire effectivement la vente de voitures à essence et diesel dans les 20 ans.

L’UE examine également les règlements relatifs aux gaz à effet de serre qui sont largement utilisés pour refroidir les datacenters. Le « règlement actuel sur les gaz F », −à savoir les gaz fluorés, une famille de gaz artificiels utilisés dans une gamme d’applications industrielles, − s’applique depuis 2015.

Le règlement limite la quantité totale des gaz F les plus importants pouvant être vendue dans l’UE à partir de 2015, les réduisant ainsi progressivement à un cinquième des ventes de 2014 d’ici 2030. Étant donné que des alternatives respectueuses du climat sont disponibles pour de nombreux produits et équipements dans lesquels les gaz F sont couramment utilisés, ceci incluant les datacenters, cette réduction ambitieuse est réalisable à un coût relativement faible.

La technologie de refroidissement a souvent été le héros méconnu des datacenters et de notre infrastructure numérique. Aujourd’hui, alors que les datacenters font face à une pression croissante pour réduire leur empreinte carbone tout en fournissant plus de puissance de calcul, la technologie fait l’objet de plus en plus d’attention. Notre tout dernier Liebert AFC avec réfrigérant à faible PRG constitue une étape dans la bonne direction, mais il reste beaucoup à faire si notre secteur veut atteindre ses propres objectifs en matière de durabilité et de rendement. Nous sommes impatients de participer au débat ainsi que de contribuer à la création de solutions.

La colocation : une option stratégique pour le cloud hybride
Par Interxion

Les entreprises européennes sont engagées dans la course au cloud afin de pouvoir créer de nouveaux produits plus rapidement, améliorer l’engagement des clients et s’adapter aux nouveaux marchés mondiaux. Mais la transition vers un environnement totalement cloud peut s’avérer complexe.

L’informatique hybride – qui combine l’informatique sur site et l’informatique basée sur le cloud – offre un compromis. Celle-ci associe la sécurité et la performance des installations sur site à la souplesse et aux économies du cloud public.

Afin de bénéficier d’un avantage sur leurs concurrents qui adoptent un modèle hybride, de nombreuses entreprises choisissent de travailler avec des fournisseurs de data centers tiers, qui offrent certains avantages par rapport à d’autres options de déploiement hybride. Voici ce que vous devez savoir sur la colocation.

Le chemin vers le cloud hybride

Le cloud incite tous les DSI à repenser leur approche de l’infrastructure informatique, les grands de l’industrie comme Microsoft Azure, Amazon Web Services‎ et IBM SoftLayer rivalisant pour offrir des coûts moins élevés et plus d’agilité.

Néanmoins, bon nombre d’entre eux ont l’impression qu’ils ne peuvent pas uniquement s’appuyer sur le cloud public. La sécurité des données sensibles suscite des préoccupations, et la réglementation pourrait également demander aux entreprises de conserver certaines données en interne. De plus, les DSI veulent être sûrs de pouvoir offrir une performance de qualité pour les applications proposées à leurs clients. Ainsi, plus de la moitié des professionnels de l’informatique d’entreprises que nous avons interrogés dans un récent rapport ont déclaré qu’ils avaient adopté ou prévoyaient d’adopter une solution de cloud hybride.

En attendant, les fournisseurs de cloud réalisent des investissements importants pour supprimer les barrières à l’entrée. Les services de connexion privée, comme Microsoft ExpressRoute et AWS Direct Connect, contournent Internet, ce qui permet aux organisations de créer des environnements informatiques hybrides qui répondent à des exigences strictes en matière de sécurité et de performance.

La colocation : un choix stratégique

Pour la plupart des DSI, la question est désormais de savoir comment connecter efficacement leur infrastructure existante à ces services d’accès privé au cloud. Une étude IDC a révélé que 90 % des entreprises européennes mentionnent la connectivité entre les applications sur site et celles basées sur le cloud comme étant le principal obstacle à l’adoption du cloud hybride.

Les data centers en colocation peuvent apporter des réponses tangibles à cette problématique. Ils permettent de placer une infrastructure informatique privée près des points d’accès aux plates-formes de cloud public, optimisant ainsi la performance et l’agilité du réseau. Ce type d’architecture, où les organisations profitent des avantages d’une solution de colocation externalisée et de points de connexion privée à une plate-forme de cloud, constitue le modèle de « cloud hybride en colocation ».

Les plus grandes entreprises européennes choisissent la colocation comme modèle de déploiement. Selon l’étude IDC, 36 % des personnes interrogées ont déclaré qu’elles utilisaient la colocation pour améliorer les services rendus aux clients et s’assurer un avantage stratégique.

Lorsque votre data center est au plus proche des clients, vous pouvez non seulement offrir une performance de meilleure qualité, mais également gagner en agilité pour répondre rapidement aux besoins opérationnels des clients, et ce au niveau local.

En d’autres termes, le fait de conserver les ressources informatiques clés dans les data centers tiers de choix vous permet d’améliorer l’engagement des clients et d’accroître votre présence dans le monde. La colocation vous offre l’environnement informatique agile dont vous avez besoin pour répondre aux objectifs de croissance de l’entreprise.

Découvrez dans notre livre blanc « Le guide de migration des applications dans le cloud » comment migrer vers un modèle de cloud hybride pour augmenter votre agilité.

Datacenter en France : les défis de l’implantation et l’attractivité des régions
Par CBRE - Arcadis
Nicolas Boffi, City Executive Paris chez Arcadis
Ludovic Chambe, Directeur Développement Durable chez CBRE
Pierre-Louis Dumont, Executive Director Agence Industriel & Logistique – Data Center Solutions, chez CBRE

On oublie souvent que la France possède des centaines de datacenters : des très gros stockant plusieurs dizaines de milliers de serveurs aux petits centres régionaux ou locaux ayant des capacités de quelques centaines de serveurs. Se posent de nombreuses questions : comment un pays peut-il attirer des datacenters ? Comment les implanter ? Au-delà du technique, il y a la question du foncier, la disponibilité énergétique et l’attitude des élus locaux et de la population. Autant de sujets sensibles qu’il ne faut pas négliger. 

Nous avons rencontré Pierre-Louis Dumont et Ludovic Chambe de CBRE, et Nicolas Boffi, City Executive Paris chez Arcadis.

Il faut distinguer les gros datacenters, typiquement ceux des hyperscaleurs, des opérateurs de datacenters et les autres. Les « autres » regroupent une réalité multiple : opérateurs régionaux, agglomérations et villes, éditeurs, grosses PME… Ils peuvent aussi correspondre au déploiement du Edge (souvent lié aux IoT) et à la 5G. En île de France, comme le rappellent les experts de CBRE, plusieurs clusters ont pris le marché : la Plaine Saint-Denis, et dans le sud parisien, les clusters de Vitry et de Marcoussis. Historiquement, la Plaine Saint-Denis a rapidement concentré les grands projets, notamment avec les importantes friches foncières. Cela a été favorisé par un volontarisme local et des autorités pour redynamiser un tissu urbain en souffrance. Et la taxe professionnelle était un avantage financier non négligeable pour certaines villes, du moins jusqu’à sa réforme. 

Mais ces clusters parisiens arrivent à saturation, excepté Marcoussis avec la stratégie de Data4 : le foncier disponible se réduit et il y a une réelle tension sur les sources électriques. Pour beaucoup d’acteurs, il faut être proche de ces clusters !

Tension sur le foncier

Tous les experts interrogés s’accordent sur les tensions sur le foncier. Le datacenter a besoin d’un terrain, qu’il soit déjà construit ou vierge. Mais le datacenter rentre en concurrence avec deux secteurs : l’immobilier (de bureau ou d’habitation) et la logistique. Cette dernière nécessite de grands espaces fonciers, et c’est justement ces superficies que les acteurs du datacenter cherchent. Comme l’explique CBRE, il faut savoir se positionner rapidement, mais le datacenter doit composer avec des conditions suspensives particulières, et l’obtention d’autorisations que la logistique et l’immobilier n’ont pas. Par exemple, il faut pouvoir étudier la faisabilité de raccordement au réseau haute tension, car une étude Ennedis peut prendre entre 6 et 8 semaines. Pour des cabinets de conseil comme CBRE, ces contraintes ralentissent les dossiers et la réactivité n’est pas en leur faveur.

Les autorisations administratives sont impératives pour pouvoir déposer le dossier d’un datacenter, le construire puis l’exploiter. Si l’ICPE est le document le plus souvent cité, d’autres ne sont pas à négliger et peuvent générer des retards dans les projets : D.I.U.O, plan ETARE (si besoin), plan sécurité / incendie, sans oublier les permis de construire. Bref, les préfectures et les municipalités regarderont de près les demandes.

Trois critères se dégagent de nos échanges :

  1. La localisation du foncier : comme dans l’immobilier, “la localisation, la localisation et la localisation”. Par exemple, à quelle distance se situe le futur datacenter par rapport aux interconnexions de la fibre.
  2. Les autorisations.
  3. Les risques : le foncier n’est pas dans une zone à risque ou s’il est proche d’un site industrie à risque.

La localisation est un facteur clé, notamment pour les gros datacenters, les opérateurs : il faut être proche d’un cluster, des sources électriques et bien entendu des interconnexions télécoms. Pour d’autres acteurs, la localisation reste importante, mais le postulat change ; ainsi la connectivité au réseau n’est pas forcément un critère primaire. 

La crise du Covid et la transformation numérique ont fait prendre conscience de la nécessité d’avoir des infrastructures et de la ressource informatique disponibles au plus près des entreprises et des utilisateurs. Le développement régional des datacenters répond aussi à cette nécessité. Des projets seront prêts à s’éloigner de quelques kilomètres pour avoir un meilleur prix du foncier, quitte à perdre un peu en qualité réseau. 

L’attractivité du datacenter

Aujourd’hui, CBRE constate que les demandes de datacenter restent majoritairement proches des métropoles actives et des centres urbains dynamiques. Les régions peu attractives ou ayant une activité technologique / économique moindre restent souvent à l’écart des datacenters et les élus ne chercheront pas forcément à les attirer. Nos experts font un constat récurrent vis-à-vis des élus locaux / régionaux : le datacenter n’est pas perçu comme une industrie créative de valeur ou d’emploi. Ils vont plutôt chercher les startups, qui sont vues comme créatrices de valeur et sans doute moins clivantes que le datacenter.

Le datacenter, même si le terme est répandu, garde une image peu attractive : gros bâtiment, peu écologique, consommateur d’énergie, peu d’emploi. Malheureusement, de nombreux élus ne comprennent pas la réalité du datacenter et les enjeux : oui, le datacenter génère peu d’emplois directs, mais il y a l’incroyable potentiel de l’emploi indirect, ainsi que l’intérêt des entreprises pour utiliser une infrastructure proche et donc être un élément pour s’implanter localement. La crise actuelle peut aider à changer cette image fantasmée du datacenter. Le rôle d’un partenaire comme Arcadis et CBRE est aussi d’évangéliser sur la réalité du datacenter et de discuter avec les acteurs et les élus locaux.

Plus globalement, la France est-elle une terre de datacenter ? Arcadis répond positivement : le pays possède de nombreux atouts. On peut citer : la position géographique, les câbles océaniques, le déploiement de la fibre, les plans étatiques pour favoriser le numérique et les datacenter, la qualité du réseau électrique. Les incitations gouvernementales, l’allégement de la fiscalité, des démarches administratives et d’urbanisme facilitées sont autant d’atouts, du moins des éléments positifs pour attirer les acteurs majeurs et donc les gros datacenters. 

Mais il faut aussi reconnaître qu’au-delà de cette relative positivité, la situation est diverse. Les élus locaux peuvent exprimer leurs craintes quand ce n’est pas des refus catégoriques. Mais globalement, la France n’est pas plus procédurière que d’autres pays, comme le notent les experts d’Arcadis. Ils notent, à l’instar de CBRE, une double tendance : la poussée des hyperscaleurs et des datacenters régionaux. Et les acteurs ne sont pas les mêmes et les besoins différents. Mais là encore, Arcadis ne peut que constater la concurrence sur le foncier. Si la construction de grands datacenters en périphéries des villes ou en pleine campagne reste une marque du marché, la tendance de créer des structures plus petites et plus proches des besoins locaux est forte. Arcadis voit aussi des convergences entre l’immobilier et le datacenter, avec la création de datacenters « boîte à chaussures » dans des projets mixtes. 

Les dernières élections municipales françaises ont vu plusieurs métropoles élire des maires écologistes (même si ce terme recouvre des réalités très diverses). Est-ce que des acteurs comme Arcadis ou CBRE en tiennent compte ? Sans plus de précisions, tout le monde constate la situation politique et compose avec. Les clients demandent de plus en plus d’améliorer les performances énergétiques des futures datacenters, répondre au mieux aux attentes et craintes locales, améliorer le design des bâtiments. 

Pourrait-on voir fleurir d’immenses installations solaires pour fournir l’énergie nécessaire aux datacenters, comme on peut le voir dans certains pays ? En France, cela semble difficile, le foncier en Arizona n’est pas celui d’un département français ! Mais le datacenter peut mieux valoriser et favoriser la production d’électricité renouvelable.

Les métiers juridiques liés au datacenter
Par IncentAct

La diversité des métiers juridiques liés au datacenter, par Celine Barbosa, Avocat chez IncentAct, un domaine qui s’impose et ne cesse d’évoluer, avec de nombreuses perspectives.