Recherche pour :
Criteo améliore sa capacité à traiter le « big data » (Huawei)

Face à son succès continu, l’entreprise française Criteo, un des leaders mondiaux dans le secteur des technologies, avait besoin de renforcer son réseau. FusionServer s’est révélé être une solution très efficace.

Contexte

Fondée en 2005, Criteo, entreprise technologique d’envergure internationale, aide les annonceurs à générer plus de ventes à travers la publicité à la performance personnalisée, à une échelle mondiale. Ses algorithmes prédictifs propriétaires sont capables de fournir une publicité avec le bon produit, à la bonne personne, au bon moment. En mesurant le retour sur les ventes post-clic, Criteo rend le retour sur investissement transparent et simple à mesurer. L’entreprise traite un volume considérable de données et s’appuie sur un réseau comptant près de dix-sept mille serveurs.

L’entreprise fonctionne autour de la plus importante plateforme Hadoop privée en Europe. Elle consiste en un ensemble de logiciels open source dédiés au stockage de « big data » et à l’exécution d’applications en clusters pour le matériel de base. Elle permet le stockage massif de tous types de données, une capacité de calcul énorme et la possibilité de traiter simultanément un nombre virtuellement illimité de tâches et de projets. Dans le cas de Criteo, la plate-forme Hadoop permet le traitement quotidien de 85 000 tâches.

Challenges

Alors que la vente en ligne continue de gagner de nombreux adeptes, la demande pour les solutions Criteo a connu une croissance exponentielle, entraînant ainsi une forte augmentation du volume de données gérées. Les études ont montré qu’il devenait nécessaire de mettre en place un nouveau cluster Hadoop avant janvier 2015. Matthieu Blumberg, Engineering Director for Infrastructure Operations chez Criteo, déclare :

« Ce que nous avons découvert avec le big data, c’est que plus vous avez de données, plus vous en voulez, et plus il vous en faut. Pour nous, cela signifiait que notre cluster Hadoop existant devenait trop petit pour nos besoins. C’est pourquoi nous avons décidé d’en développer un nouveau. Ce qui nous a également donné l’opportunité de remettre en question toute l’infrastructure et de chercher de nouveaux fournisseurs de matériel. »

Solution

Une demande de proposition (RFP) pour les serveurs supplémentaires a été envoyée à six entreprises, dont Huawei et un partenaire déjà présent chez Criteo. Une liste de trois solutions potentielles a été établie sur la base de leurs réponses. C’est là que Huawei a commencé à se distinguer comme un candidat sérieux. Matthieu Blumberg continue :

« Nous avons été très impressionnés par la proposition de Huawei. Ils avaient clairement fait leur travail et ont démontré une compréhension approfondie de ce que nous faisions avec Hadoop. Non seulement, toutes les réponses données étaient très pertinentes, mais des suggestions alternatives ont été émises pour l’approvisionnement énergétique du serveur, ce qui a clairement montré que leurs employés ont une maîtrise approfondie du fonctionnement d’un cluster Hadoop. »

La solution proposée par Huawei reposait sur son FusionServer, un serveur nouvelle génération à double socket 2U monté en rack. Il permet une extension flexible des ressources et offre des performances de calcul élevées, ce qui constitue un choix idéal pour Internet, le big data, le cloud computing et les applications-clés d’entreprise.

Dans le cadre du processus d’évaluation, Criteo a acheté un lot de dix serveurs à chacun des trois fournisseurs retenus, et a construit un petit cluster Hadoop sur chaque groupe, afin de pouvoir comparer chaque solution. Cet exercice d’analyse comparative évaluait les performances, la capacité à gérer Linux, la consommation énergétique et la prise en charge de pilotes. Criteo a sélectionné Huawei, qui a atteint un score élevé sur l’ensemble des critères. Matthieu Blumberg ajoute :

« FusionServer a fait plus que répondre à nos exigences. Mais ce qui nous a réellement impressionné avec cette entreprise a été sa volonté de nous aider et de répondre à nos questions. Par exemple, nous voulions accéder au disque dur à un niveau que les autres fournisseurs n’étaient pas prêts à permettre. En quelques jours, Huawei nous a fourni facilement les outils dont nous avions besoin pour faire cela. »

Avantages

FusionServer tient largement la comparaison avec ses concurrents. Il offre la densité de disque dur la plus élevée avec une prise en charge de seize disques par serveur, soit un de plus que son rival le plus sérieux. Et la consommation énergétique, inférieure de 20 %, s’est révélée bien meilleure. En outre, ce qui a motivé le choix de Criteo était que la solution Huawei répondait à toutes les demandes tout en conservant des tarifs abordables.

« Après quelques mois d’essai, nous avons décidé que le FusionServer de Huawei méritait de figurer dans notre catalogue mondial, aux côtés du matériel provenant de notre fournisseur principal. Depuis le début de l’année 2016, nous avons donc acheté des serveurs Huawei pour nos sites aux États-Unis, en Europe et dans la région Asie-Pacifique », a déclaré Matthieu Blumberg.

À l’avenir, Criteo voit Huawei comme un probable fournisseur majeur pour les nombreux produits nécessaires à la prise en charge d’un data center moderne, et a d’ailleurs déjà acheté des équipements réseau supplémentaires. Matthieu Blumberg conclut :

« Huawei fournit toute la gamme de produits nécessaires à la mise en place d’un data center puissant. Vous pouvez acheter le conteneur modulaire, les serveurs et les switches réseau à un même fournisseur. Cela constitue une offre très attractive. »

Technologie et ressources humaines, les choix stratégiques de Nexeren – Laura THALMANN

Deux conseils de Laura THALMANN, Directrice Marketing Cloud et Datacenters de Nexeren, pour une stratégie de datacenter gagnante, avec un taux de disponibilité au plus haut.

22 ans de datacenters avec Fabrice COQUIO, Président d’Interxion France: A Digital Realty Company

Journée du datacenter 2022 – Histoire du datacenter.

Fabrice COQUIO, Président d’Interxion France: A Digital Realty Company, évoque pour nous ses 22 ans de datacenters, la financiarisation des grands acteurs du secteur, les contraintes, l’évolution des technologies et l’innovation.

L’optimisation énergétique d’un datacenter : un concentré d’innovation
Par Jerlaure

L’efficacité énergétique et son impact sur l’environnement est une problématique globale et mondiale. Les Datacenters étant historiquement énergivores, l’innovation technologique permet de réduire ou valoriser l’énergie consommée. JERLAURE travaille à concevoir des Datacenters  et des salles serveurs répondant à ces orientations.

Le refroidissement des Datacenters est le principal potentiel d’optimisation qui concentre l’innovation.
Dans le cadre de votre projet, nous recherchons les opportunités de votre site et nous vous conseillons sur le choix des principes de refroidissement à adopter pour améliorer l’efficacité énergétique de votre Datacenter ou de votre salle serveurs.

Deux choix sont alors possibles en fonction des opportunités du site de votre projet Datacenter:

  • Valoriser les calories produites pour chauffer des bâtiments voisins, alimenter un réseau de chaleur existant, chauffer une piscine,…
  • Utiliser les énergies renouvelables de façon éco-responsable pour consommer le moins possible tout en préservant l’écosystème.

Valorisation des calories produites

La chaleur fatale(1), produite par les groupes de production d’eau glacée classiques, peut être directement valorisée dans un réseau de chaleur basse température ou haute température.

Contrairement aux idées reçues, le ROI est très rapide (2 à 3 ans) à condition que le bénéfice de la valorisation revienne directement à l’exploitant. Ces installations sont éligibles aux CEE(2).
Ce principe s’impose pour les centres de calcul particulièrement énergivores

Cas concret : L’université de Bourgogne

Le Total Freecooling sur air

L’ASHRAE(3) a récemment relevé les recommandations de température d’air d’admission pour les Datacenters et les salles informatiques. Ces changements permettent l’utilisation de technologies par évaporation directe et indirecte conduisant à de substantielles économies par rapport à l’utilisation de compresseurs avec des niveaux de performances de 12/1 soit 12 KWh de production pour 1 KWh d’électricité. (Exemple pour une installation sur Nice)

Ce mode de refroidissement est utilisable jusqu’à une densité de 10 KW/baie.

Cas concret : Le groupe CYRES

Le Geocooling

Le free cooling sur nappe phréatique utilise le sous sol comme source de fraicheur, sans avoir obligatoirement recours à un système de refroidissement traditionnel. Ce mode de fonctionnement permet d’atteindre des niveaux de performances de 50/1 soit 50 KWh de production de froid pour 1 KWh d’électricité consommé.

L’opportunité de ce mode de refroidissement doit être validée par une étude permettant de déterminer la productivité de la nappe et la facilité d’accès, l’interaction avec les ouvrages environnants et l’impact de l’application sur la nappe.

Cas concret : L’Université de Strasbourg

Le froid solaire

Cette solution de refroidissement intègre un principe innovant à réaction thermochimique solide/gaz qui permet de produire du froid grâce à une source d’énergie solaire et/ou de chaleur fatale : lorsque la température extérieure devient trop élevée, l’énergie solaire (ou la chaleur fatale) captée est utilisée pour produire le froid nécessaire au fonctionnement du datacenter et ce, sans aucune consommation d’énergie électrique.

Cette technologie, qui utilise un principe naturel sans impact sur l’environnement, est élaborée par la startup Coldinnov et distribuée par Jerlaure, qui dispose d’un accord d’exclusivité mondiale dans le cadre de son utilisation dans les datacenters.

Cas concret : Neticenter

La Trigénération

Le froid produit est directement utilisé pour refroidir le datacenter, quant à la chaleur fatale produite par la turbine gaz, celle-ci est utilisée via le principe à réaction thermochimique pour produire du froid dans le datacenter, mais peut également être valorisée dans le réseau de chaleur des bâtiments annexes.

Pour ce qui est de la production d’électricité, celle-ci permet d’une part d’améliorer la disponibilité énergétique pour le datacenter, et d’autre part de revendre ou de distribuer une partie de l’électricité produite auprès des entreprises alentours en période de pic de surconsommation.

6 Avantages de la technologie Lithium-Ion pour les ASI
Par Vertiv

Bien que connues pour alimenter les ordinateurs portables et les téléphones mobiles, les batteries lithium-ion changent désormais le domaine des alimentations statiques sans coupure (ASI ou onduleur), et cela pour le meilleur.

Ces batteries rechargeables constituent une réponse aux inconvénients rencontrés avec les batteries au plomb étanches (VRLA) traditionnelles couramment utilisées pour les ASI. Alors que les VRLA sont moins coûteuses, ces batteries plus lourdes sont plus grandes et requièrent un remplacement plus fréquent.

Examinons de plus près les avantages pratiques de l’utilisation de batteries lithium-ion pour les ASI.

Plus compactes et plus légères

Les batteries lithium-ion sont de 40 à 60% plus légères et ont un encombrement inférieur de 40% en comparaison des batteries VRLA. Cela se traduit par un niveau de densité énergétique remarquable, où moins d’espace est requis pour fournir la même quantité d’énergie.

Durée de vie plus longue

Les batteries lithium-ion ont une durée de vie significativement plus longue, environ deux fois ou trois fois supérieure à celle des batteries VRLA en moyenne. Par rapport à une technologie de batterie VRLA traditionnelle offrant généralement une durée de vie allant de trois à cinq ans, la technologie lithium-ion peut fournir une durée de vie des batteries allant de huit à dix ans (ou plus), souvent plus longue que l’ASI elle-même. En conséquence, l’ASI ne requiert presque aucune maintenance, avec un nombre de remplacements de batterie inférieur, voire nul, pendant toute sa durée de vie. Contrairement aux batteries VRLA, les batteries lithium-ion offrent un cycle de vie élevé, ce qui convient à de nombreuses applications pour lesquelles des cycles de charge et de décharge fréquents sont prévus.

Réduit le coût total de possession

En ce qui concerne le coût total de possession (TCO), les batteries lithium-ion peuvent permettre jusqu’à 50% d’économies sur leur durée de vie. Cela est principalement dû à leur durée de vie plus longue, à leur résistance aux hautes températures, à la réduction des frais de maintenance (avec moins ou aucun remplacement de batterie) et à la réduction des frais d’installation. Bien que les batteries VRLA puissent certainement vous faire économiser de l’argent initialement, envisagez la situation dans sa globalité et considérez le TCO.

Recharge plus rapide

Les batteries d’ASI doivent être rechargées au maximum de sa capacité aussi rapidement que possible. Alors que les batteries VRLA peuvent prendre plus de 6 heures pour se recharger de 0% à 90% de leur pleine capacité, les batteries lithium-ion ne prennent que 2 heures environ pour se recharger. Cela réduit le risque global de panne survenant avant que les batteries de votre ASI n’aient été complètement chargées.

La technologie de pointe des batteries lithium-ion a largement profité à de nombreux secteurs. Avec les nombreux avantages qu’elle offre, une ASI alimentée par batteries lithium-ion constitue un élément incontournable pour sécuriser vos opérations critiques et réduire vos coûts d’exploitation. En savoir plus sur les ASI avec batteries lithium-ion.

Résistance à des températures plus élevées

Les batteries lithium-ion peuvent fonctionner normalement à des températures allant jusqu’à 40 °C sans compromettre les performances. Il s’agit d’un avantage évident de cette technologie de batterie par rapport aux batteries VRLA, qui perdent environ la moitié de leur durée de vie pour chaque augmentation de température de 10 °C au-dessus de 25 °C.

Comme les batteries lithium-ion ont une large plage de températures de fonctionnement, elles deviennent pratiques pour des sites et des environnements non traditionnels extrêmes ne disposant pas de suffisamment de capacités en matière de refroidissement.

Système de gestion de batterie intégré avancé

Les batteries lithium-ion sont fournies avec un système de gestion de batterie intégré avancé (BMS). Un tel système fournit une image précise de l’état et de la durée d’autonomie d’une batterie et protège les cellules de la batterie contre les variations de courant et de température, et contre la surcharge ou la sous-charge. Le BMS ajuste continuellement la charge de la batterie afin de garantir des performances optimales et une durée d’autonomie de batterie maximale.

Souhaitez-vous voir la technologie lithium-ion en action ? Découvrez notre dernier onduleur Vertiv™ Edge Lithium-Ion!

Tests de la fibre optique : ayez le bon angle de vue
Par Viavi

Lorsque vous regardez cette image, voyez-vous un calice ? Ou voyez-vous deux hommes de profil ? Maintenant que j’ai cité les deux images, pouvez-vous les voir toutes les deux simultanément ? Il en va parfois de même pour les tests de la fibre optique : vous devez être capable de voir plus que ce qui saute aux yeux. Autrement dit, pour veiller à ce qu’une fibre optique fonctionne au maximum de sa performance, vous devez pouvoir observer son comportement sous différents angles.

Mais comment faire pour obtenir un meilleur angle de vue sur les fibres que vous testez ?

Vous pouvez bien sûr ne rien faire (et vous n’obtiendrez rien). Certains techniciens pratiquent la technique du « brancher et croiser les doigts» et s’abstiennent de tester la fibre optique en espérant simplement que tout fonctionnera au mieux. Selon moi, pourtant, cette approche crée simplement des retards et augmente les potentiels coûts opérationnels (OpEx) futurs. À un moment ou à un autre, une liaison fibre optique ne s’activera pas correctement ou une liaison récemment activée ne fonctionnera pas. Et là, vous devrez passer du temps supplémentaire à rechercher les défauts ou à vous rendre sur site pour commencer à dépanner le réseau. Dans un cas comme dans l’autre, il y aura des coûts opérationnels additionnels qui auraient pu être évités si vous aviez effectué quelques tests dès le départ..

Les bases

Les vendeurs d’équipement réseau communiquent des spécifications indiquant les conditions requises pour que leurs systèmes optiques fonctionnent correctement. En général, ces spécifications définissent des limites de budget de perte optique et de perte par réflexion optique. Les simples tests d’affaiblissement et de perte par réflexion optique (ORL) doivent donc répondre aux exigences de base suivantes :

  • L’affaiblissement doit demeurer en dessous du niveau spécifié pour maintenir un bon rapport signal/bruit optique (OSNR) pour une liaison de transmission optique, afin que l’équipement réseau (les récepteurs optiques) puisse recevoir les données dans un format acceptable.
  • La perte par réflexion optique doit être testée dans le respect des limites spécifiées afin de minimiser la puissance optique renvoyée vers un laser qui pourrait entraîner des erreurs ou des pertes de données et, à plus long terme, endommager le laser..

La valeur d’affaiblissement est la même dans les deux directions le long d’une liaison fibre optique (de l’origine à la fin, et vice versa). Néanmoins, une mesure bidirectionnelle fournira des résultats plus précis. La perte par réflexion optique peut être différente dans chaque direction. C’est pourquoi les mesures bidirectionnelles devraient être obligatoires pour l’ORL.

Alors que les tests d’affaiblissement et de perte par réflexion optique sont considérés comme essentiels, un autre type de test de la fibre optique, à savoir les tests de réflectométrie optique (Optical Time Domain reflectometer, OTDR), est souvent omis pour des questions de coûts, de temps et de complexité présumée. Les tests bidirectionnels d’affaiblissement et de perte par réflexion optique constituent le minimum requis, mais certains problèmes leur échappent et ils peuvent ne pas détecter certains défauts. Et, bien sûr, si vos tests d’affaiblissement et de perte par réflexion optique échouent, quel est l’outil dont vous allez avoir besoin pour dépanner efficacement une liaison fibre optique ? Un réflectomètre optique (Optical Time Domain reflectometer, OTDR)..

Au-delà des tests d’affaiblissement et de perte par réflexion optique

Qu’y a-t-il au-delà des tests d’affaiblissement et de perte par réflexion optique ? Toutes les informations relatives à la longueur totale réelle d’une liaison fibre optique, aux longueurs et aux pertes des différentes sections de la fibre optique, au nombre d’épissures et de connecteurs présents et à l’impact de chacun de ces éléments sur la performance globale de la liaison. Un réflectomètre optique caractérise ces événements en indiquant leur réflectance (quelle quantité de lumière ils reflètent ou rétrodiffusent) et les pertes optiques qu’ils ajoutent à la liaison. Un niveau trop important de l’un ou l’autre de ces deux aspects peut entraîner un échec des tests d’affaiblissement ou de perte par réflexion optique. Un réflectomètre optique peut aussi identifier d’autres défauts potentiels, comme les courbures, et indiquer à quelle distance se trouvent ces défauts.

Les tests effectués en connectant un réflectomètre optique à une extrémité de la liaison fibre optique à tester sont appelés tests d’OTDR unidirectionnels. En incluant de tels tests, vous vous prémunissez contre des coûts ultérieurs en temps, efforts et argent (sans parler de la mauvaise qualité de l’expérience client).

L’interprétation de ces traces d’OTDR peut être une tâche intimidante. C’est pourquoi un bon réflectomètre optique convertira automatiquement la trace pour la rendre facilement lisible et permettre d’identifier de nombreux événements. VIAVI utilise la fonctionnalité Smart Link Mapper, avec des icônes simples, comme vous pouvez le voir ci-dessous.

VIAVI OTDR Trace View
Smart Link Mapper

Vous venez d’effectuer votre test de réflectométrie optique unidirectionnel et tout est parfait ?

Malheureusement, ce n’est pas toujours le cas.

Tests de réflectométrie optique bidirectionnels

Il vous faut plus qu’un test de réflectométrie optique unidirectionnel pour obtenir une visibilité complète. La bonne approche consiste à utiliser des tests de réflectométrie optique bidirectionnels afin de révéler davantage de détails et, ainsi, de correctement diagnostiquer les problèmes (ou les faux problèmes), tels que :

Événements cachés:
les tests de réflectométrie optique bidirectionnels peuvent révéler des événements dissimulés dans les zones mortes de réflectométrie où des événements proches les uns des autres passent parfois inaperçus et apparaissent en tant qu’événement unique. En effet, la lumière réfléchie (ou rétrodiffusée) du premier événement masque la lumière réfléchie d’un événement proche, situé immédiatement après le premier, et le réflectomètre peut alors la confondre ou la manquer. Des tests réalisés depuis l’autre extrémité (à l’extrémité la plus distante) de la liaison fibre optique révèleront le second événement, offrant ainsi une visibilité plus précise de l’état réel/actuel de la liaison..

bi-directional OTDR test results

Gains:
Le problème du « gain » est un événement sur une trace OTDR présentant une perte négative. Il s’agit d’un événement semblant amplifier et réduire la perte de la liaison fibre optique, ce qui est impossible. Il en résulte un connecteur négatif ou une perte d’épissure (épissure A dans la première trace d’OTDR) et, généralement, une perte correspondante trop importante (épissure B) et aucun de ces deux événements n’obtiendrait la mention conforme (réussite) ni ne serait validé. Cette situation est généralement due à des fibres optiques dépareillées, dans une liaison où les fibres de lancement et de réception ne correspondraient pas à la fibre testée. Cela peut également provenir de différences entre des fibres optiques ayant été épissées ensemble pour créer une liaison, par exemple dans le cadre d’une réparation.

Les différences entre les fabricants ou même entre les lots de fabrication peuvent entraîner des disparités de coefficient de rétrodiffusion d’une fibre optique. Ces fibres, lorsqu’elles sont épissées, peuvent alors faire apparaître un « gain ». Les tests de réflectométrie optique bidirectionnels vous permettent d’équilibrer ces différences de fabrication/rétrodiffusion/mesure et ainsi d’obtenir la perte d’événement réelle, ce qui peut vous aider à déterminer si une épissure, un connecteur ou une section de la fibre optique pose réellement un problème et s’il faut le ou la remplacer. Vous économisez ainsi potentiellement du temps et de l’argent, ou vous évitez d’abandonner une liaison fibre optique de bonne qualité.

Une fois que les pertes des événements d’épissures ont été reliées et équilibrées, vous obtenez la perte réelle ou véritable et, comme vous pouvez le voir, il ne s’agit ici ni d’un gain optique ni d’une perte excessive requérant un travail de réparation. La perte véritable est inférieure à 0,1 dB, la valeur considérée comme la limite pour une bonne épissure par fusion.

Bien sûr, pour les techniciens ou les sous-traitants, le temps requis pour effectuer ces tests bidirectionnels peut être problématique. Ces tests impliquent potentiellement des durées prolongées sur site et la création de rapports plus nombreux, ce qui permet d’effectuer moins de tâches quotidiennement. Mais il est tout aussi important et judicieux de considérer le temps que vous économiserez dans le futur:

  • Prémunissez-vous contre de mauvaises expériences client dues à des défauts de la fibre optique non détectés
  • Minimisez la nécessité de retourner sur site physiquement pour des questions de dépannage
  • Évitez de jeter des fibres optiques en parfait état
  • Renforcez votre réputation d’un « bon fonctionnement du premier coup »

Le prix à payer suite à des tests de mauvaise qualité ne s’évalue pas seulement d’un point de vue financier (même si, en tant que sous-traitant, le prix final payé pour une seconde visite sur site a de grandes chances de sortir de votre poche). Votre réputation se crée sur vos travaux passés. Faire votre travail en suivant les meilleures pratiques possible est l’occasion d’impressionner les clients. La réalisation de tests de réflectométrie optique bidirectionnels montre que vous êtes rigoureux, que vous prenez votre travail au sérieux et que vous vous souciez de l’activité de vos clients. Enfin, réaliser des tests complets et proactifs vous permet de vous différencier de la concurrence.

Personne ne souhaite devoir retourner sur un site pour corriger quelque chose qui aurait dû fonctionner (Quel embarras ! Quelle honte !). Alors, faites bien les choses du premier coup et effectuez des tests de réflectométrie optique.

Pour obtenir encore plus d’astuces et de bonnes pratiques concernant les tests de la fibre optique, lisez les autres articles de cette série:

#N° 1 – Testez plus facilement les réseaux FTTH/PON avec un réflectomètre optique

N° 2 – Comment être sûr que mon réflectomètre détecte tous les événements ?

Les technologies du HPC, quelles perspectives ?
Par Nexeren


Les acteurs de l’hébergement informatique – les datacenters de colocation neutre comme NEXEREN en particulier – voient se confirmer de plus en plus une mutation technologique émergente : celle du HPCHigh Power Computing.

Cette technologie devient une tendance structurante de notre marché.
Par exemple, la crise sanitaire actuelle impose le recours massif partout dans le monde au HPC essentiellement dans l’univers de la pharmacie et de l’informatique dédiée à la biologie.

De ce fait, ce besoin mondial accélère la maturation des acteurs et des offres sur ce segment particulier.

LES TECHNOLOGIES DU HPC, QUELLES PERSPECTIVES ?

Le HPC regroupe les technologies et les équipements permettant de décupler les puissances de calcul.

Certains systèmes accessibles sur le marché français sont déjà sur des bases pour lesquelles l’unité de compte est le téraflops.
Le flops exprime le nombre d’opération en virgule flottante par seconde, et un téraflops fait 1012, soit …mille milliards d’opérations par seconde !

Ces systèmes ont des usages et des applications multiples :

  • soutenir une solution d’IA (Intelligence Artificielle)
  • faire du Deep Analysis (de l’analyse de très gros volumes de données à grande vitesse ou en temps réel) et du Deep Learning (analyse récurrente avec auto-apprentissage)
  • effectuer des calculs à fin scientifique par exemple.
  • héberger des applicatifs très consommateurs de puissance IT, comme la simulation industrielle, ou le Rendering dans des productions audiovisuelles. Technologiquement, il faut pour cela combiner la puissance de plusieurs milliers de processeurs.

Si certains domaines d’application sont très récents, il en est d’autres dans lesquels la course à la puissance de calcul est des plus importantes.
L’univers des jeux vidéo est un bon exemple grand public, dans une industrie dont le chiffre d’affaires mondial a dépassé celui de l’industrie du cinéma.

Plus discrètes, les applications d’analyses ou de trading bancaires sont elles aussi dans une demande toujours croissante de puissance de calcul, synonyme de performances accrues.

Si l’acronyme HPC renvoie à des puissances de calcul élevées, on ne doit pas confondre avec les supercalculateurs, qui ont souvent des configurations matérielles et des modes de fonctionnements très différents de ceux d’un ordinateur classique.

Et à l’inverse, les ordinateurs et les serveurs les plus récents sont désormais tous dans des productions de calcul qui se mesurent en quelques téraflops.

Pour reprendre un segment en tête, le jeu, les consoles atteignent désormais couramment des puissances à 20 téraflops et plus.
On est très en dessous des puissances extrêmes qui arrivent sur le segment haut, avec l’arrivée des systèmes « exascale ».POURQUOI NOUS CHOISIR ?

NEXEREN, VOTRE PARTENAIRE DE RÉFÉRENCE

Chez NEXEREN, le suivi de cette tendance majeure et de ses impacts sur les achats en hébergement est un point de vigilance depuis longtemps.

Nos datacenters sont donc « HPC-Ready », avec la possibilité d’accueillir dès à présent des équipements informatiques intensifs, très consommateurs d’énergie, dans le meilleur environnement possible.

Être à même de prendre en charge des équipements de HPC est un critère clé dans une décision d’externalisation de l’hébergement.

Pour offrir aux entreprises un accompagnement sur une activité techniquement très difficile, pour apporter une performance énergétique garantie, et donc une vraie maitrise de leurs coûts, et enfin pour sécuriser une production IT critique NEXEREN est votre partenaire de référence.POUR EN SAVOIR PLUS, CONSULTEZ-NOUS

Solutions de refroidissement pour les data centers décryptées
Par Interxion

Au cours des dernières années, les professionnels ont accordé une importance accrue à l’utilisation des technologies de l’information, et à ce titre, la gestion efficiente des data centers est devenue une priorité. Les chefs d’entreprise ont dû trouver des solutions efficaces pour organiser les racks de serveurs et optimiser la consommation énergétique.

La méthode traditionnelle de distribution de l’air a été jugée peu adaptée et les grands fabricants ont ainsi mis au point des systèmes de climatisation avancés. Les experts informatiques, attentifs à leur budget, étudient donc des approches alternatives.

Lex Coors, VP DTEG & Chief Engineering Officer, Interxion et Fabrice Coquio, Président d’Interxion France font le point sur cinq solutions de refroidissement existantes sur le marché des data centers.

1. Refroidissement à air libre

Les professionnels repoussés par les coûts élevés associés à l’intégration de systèmes de climatisation ont recours à la méthode de refroidissement à air libre (ou « free cooling »), qui consiste à filtrer et à faire circuler jusque dans les salles informatiques de l’air froid issu de l’environnement extérieur. L’air froid peut provenir de cours d’eau, de lacs et d’autres sources d’eau. Il convient toutefois d’utiliser des systèmes de climatisation industriels si l’air libre extrait est trop froid.

2. Refroidissement par évaporation

La méthode de refroidissement par évaporation pour réguler la température de son habitation est extrêmement répandue. Ce processus simple repose sur l’évaporation de l’air chaud et la circulation via des refroidisseurs électroniques. L’utilisation et l’entretien des systèmes de refroidissement par évaporation sont beaucoup moins onéreux que les systèmes de climatisation alternatifs. Cette option est particulièrement intéressante pour les entreprises installées dans des zones chaudes et humides.

3. Refroidissement liquide

Les composants liquides et l’électronique ne font généralement pas bon ménage. Cependant, les ingénieurs des data centers commencent à appréhender les nombreux avantages des systèmes de refroidissement liquide, compte tenu de l’efficacité relative des échangeurs de chaleur air/fluide. Selon certains experts informatiques, l’utilisation de systèmes de refroidissement par immersion améliore l’efficience et le fonctionnement des ordinateurs. De nombreuses entreprises ont toutefois été découragées par les coûts élevés des réserves de liquide et l’adaptation des équipements.

4. Refroidissement par confinement

Le refroidissement par confinement permet d’améliorer considérablement l’efficience énergétique des data centers. Cette méthode consiste à organiser les allées de serveurs de façon logique et à installer des barrières solides pour séparer l’air froid de l’air chaud. Il est également possible d’installer des panneaux au sol pour garantir une circulation efficace des différents courants d’air. Différentes méthodes de confinement sont ainsi disponibles pour réduire la consommation et les dépenses énergétiques.

5. Hot Hut

Google a mis au point le système de refroidissement « Hot Hut » pour stocker efficacement une infrastructure informatique à la fois gigantesque et complexe. Les serveurs sont organisés par groupe de racks et rangées. Les unités individuelles sont isolées du sol afin de garantir une efficacité optimale. Des méthodes de transfert de chaleur à base d’eau sont utilisées pour limiter les pertes d’énergie. D’autres entreprises se sont inspirées des techniques de refroidissement utilisées dans le cadre de ce grand projet. Il convient cependant de noter que le système « Hot Hut » requiert un entretien particulièrement important.

Les initiatives en matière de refroidissement sont multiples et représentent des innovations intéressantes pour le futur. Afin d’optimiser au maximum ce poste important en matière de gestion d’un data center, les recherches se poursuivent. Dernier exemple significatif, le projet Natick de Microsoft qui consiste à tester l’immersion d’un data center au fond de la mer. Ce projet ouvre de nouvelles perspectives et étend le champ des possibles. Mais si l’industrie cherche à toujours mieux optimiser ses performances énergétiques, le juste équilibre entre la consommation énergétique et l’efficacité doit être préservé pour pouvoir répondre aux exigences croissantes des utilisateurs finaux en matière de performance.

Les avantages d’un système de surveillance centralisé pour la construction, la mise en service et la maintenance des réseaux d’accès ftth/pon
Par Viavi

C’est un véritable challenge pour les fournisseurs de services de déployer rapidement des réseaux FTTH/PON fiables afin d’être en mesure d’offrir des services haut débit répondant à la demande croissante en bande passante. En moyenne, le taux d’échec de mise en service d’un nouveau client fibre optique s’élève à 25 %. La moitié de ces échecs serait due à des problèmes « techniques » dont la plupart proviennent d’une mauvaise manipulation de la fibre ou d’un manque de test lors de la construction du réseau.

Il en résulte des revenus différés, une rentabilité réduite et des clients frustrés. Comment nettement diminuer le taux d’échec de mise en service des nouveaux clients fibre optique et accélérer le rétablissement du service en cas de panne ? À l’aide d’un système de test et de surveillance centralisé qui peut être utilisé tout au long du cycle de vie du réseau PON.

Comment fonctionne un système de gestion des réseaux optiques à distance ?

  1. Le système doté d’un réflectomètre optique (Optical Time Domain reflectometer, OTDR) haute résolution, ainsi que d’un commutateur optique peut tester à distance tous les liens optiques entre l’OLT et les ONTs en seulement quelques minutes, tout en enregistrant les résultats des tests.
  2. Lors de la construction du réseau, le système de gestion du réseau localise en temps réel à l’aide du réflectomètre les problèmes et fournit leurs coordonnées au technicien déjà sur place qui peut effectuer les réparations nécessaires. Ceci évite l’envoi en différé d’une équipe de maintenance.
  3. Lorsque le lien est parfaitement installé et que plus aucun problème n’est détecté, la trace OTDR est enregistrée comme référence. Elle sera utilisée pour détecter les futurs problèmes en la comparant à chaque nouvelle mesure OTDR.

Les avantages d’une gestion des réseaux optiques à distance telle que la solution ONMSi de VIAVI incluent notamment :

  • Des procédures d’installation identiques pour les sous-traitants et le personnel interne et des rapports de test systématiques accélèrent le déploiement de la fibre et la fiabilité du réseau.
  • Une identification rapide des problèmes sur les liens optiques permettent de les corriger lors de la phase d’installation
    *Les câbles sont-ils correctement installés ? Y a-t-il des courbures, des écrasements, etc. ? Y a t-il des pertes de signal dues à des connecteurs optiques sales ou endommagés ?
  • Le réseau fibre optique est entièrement cartographié. Une trace OTDR de référence est sauvegardée pour chacun des liens, ce qui permet de localiser instantanément une dégradation ou une intrusion.
  • Le niveau de qualification technique des techniciens n’a pas besoin d’être élevé. Une fois la fibre installée, il leur suffit de suivre la procédure de test prédéfinie qui consiste à lancer la mesure à distance (les critères de succès/d’échec et les paramètres de configuration étant déjà entièrement configurés).
  • La surveillance centralisée du réseau PON minimise les pannes. Ce qui est d’autant plus important dans un réseau PON car un défaut sur une fibre optique peut affecter plusieurs clients.

Ressources supplémentaires :

Stockage sur cloud hybride : définition
Par Interxion

Aujourd’hui, les entreprises gèrent plus de données et de charges de travail informatiques que jamais. Dans la bataille visant à contrôler cette multitude d’informations, le stockage sur cloud hybride offre une solution à la fois pratique et stratégique.

Pratique, car les solutions de cloud hybride permettent aux entreprises de gérer efficacement le coût du stockage des données. Stratégique, car les sociétés faisant appel au cloud hybride tirent parti de la flexibilité informatique dont elles ont besoin pour accroître leur avantage concurrentiel, notamment une meilleure qualité de service pour leurs clients.

Une nouvelle étude menée par IDC a révélé que le cloud hybride constituait une stratégie informatique populaire auprès des « leaders du numérique », ces entreprises affichant la progression la plus rapide sur la voie de la transformation numérique. D’après les résultats de l’enquête, 44 % des leaders du numérique envisagent d’utiliser le cloud hybride à l’avenir, par rapport à 36 % chez leurs concurrents. En outre, 28 % utilisent déjà le cloud hybride, par rapport à 11 % à peine du reste des répondants.

Les résultats révèlent une tendance croissante en faveur du cloud hybride, notamment par les entreprises désireuses d’être considérées comme des leaders de leur secteur. Mais qu’est-ce que le cloud hybride exactement, et pourquoi l’intégrer dans votre environnement informatique ?

Les avantages du cloud hybride

Le stockage sur cloud hybride allie l’utilisation d’un stockage sur cloud privé à des services de cloud public. Certaines données et charges de travail sont stockées dans votre data center, le reste étant conservé sur le site d’un fournisseur tiers. Cette stratégie offre plusieurs avantages :

  • Sécurité – Le cloud hybride vous permet de définir le meilleur équilibre de sécurité pour vos données. Vous pouvez choisir de continuer à héberger les informations les plus sensibles dans votre cloud privé, tout en tirant pleinement parti de la performance et de l’agilité du cloud public.
  • Agilité – Le cloud hybride est également la promesse d’une grande agilité. Vous pouvez bénéficier des points forts de chaque plate-forme afin de satisfaire les exigences en constante évolution de vos clients. Il peut par exemple être nettement plus rapide et facile de déployer des applications client à partir du cloud public, alors que des charges de travail internes peuvent être mieux gérées au sein de vos locaux.
  • Performance – Grâce au cloud hybride, vous n’avez plus à faire le moindre sacrifice en matière de performance au profit de la sécurité, ou inversement. Vous bénéficiez au contraire de la flexibilité requise pour exploiter pleinement la puissance de calcul du cloud public alliée à la sécurité du cloud privé.
  • Flexibilité – La maintenance d’une infrastructure privée coûte cher. Vous devez en effet payer pour cet espace, pour un équipement, du personnel et une infrastructure. Le cloud hybride est le gage d’une flexibilité budgétaire, puisque vous pouvez choisir où stocker différents types de données en vous appuyant sur ce qui est le plus avantageux sur le plan financier.

Quelle est la prochaine étape pour le cloud hybride ?

Pour résumer, le cloud hybride représente une solution plus dynamique pour la gestion informatique des entreprises. Il confère à votre société une maîtrise totale du lieu de stockage et de déploiement de données, d’applications et de charges de travail. Ceci permet un meilleur rapport coût/efficacité et une flexibilité renforcée de votre informatique, deux pierres angulaires d’une entreprise croissante et évolutive.

C’est donc sans surprise que les entreprises citent le cloud hybride comme une composante essentielle de leur stratégie informatique à long terme. Dans le cadre de notre enquête, 44 % des répondants ont déclaré envisager de faire appel au cloud hybride en tant que transition vers une stratégie informatique totalement basée sur le cloud. D’autre part, 28 % ont expliqué envisager de faire du cloud hybride leur stratégie informatique principale dans un avenir proche. Quelle que soit votre approche, vous gagnerez en flexibilité, en agilité, en performance et en sécurité. C’est la raison pour laquelle le cloud hybride est voué à un avenir durable et prometteur.

Comment protéger votre entreprise contre les ransomwares ?

Par Huawei

Les attaques par ransomware font désormais la une des médias. Tout le monde aura vu dans les actualités ce producteur de viande au Brésil qui en a été victime ou l’approvisionnement en essence aux États-Unis qui été affecté pendant des semaines.

Viennent ensuite les nombreux cas locaux dans les hôpitaux, les administrations publiques et les entreprises. Le rapport Unit 42 Ransomware Threat Report indique que les demandes de rançon ont augmenté pour atteindre une moyenne de 570 000 dollars au cours du premier semestre 2021. Cela représente une augmentation surprenante de 82 % par rapport à l’année précédente (312 000 $). Et cela prend uniquement en compte les demandes de rançon, sans inclure les pertes de production et l’énorme préjudice de réputation pour les victimes concernées. Il est donc vital pour les entreprises et autres opérateurs informatiques de mettre en place des solutions efficaces.

Différentes approches

En principe, deux approches différentes peuvent être adoptées. D’une part, il faut tout mettre en place pour prévenir une telle attaque. Cela commence par la formation des employés et se poursuit par la sécurité des terminaux, des réseaux et des applications, pour ne citer que quelques mesures. Compte tenu du nombre de périphériques réseau aujourd’hui – pensez à l’IoT et à ceux qui travaillent à domicile -, atteindre une sécurité à 100 % semble impossible. Par conséquent, des solutions sont nécessaires pour minimiser les dommages en cas d’attaque réussie par ransomware.

Dans cette optique, la seconde approche induit que la protection des données devient de plus en plus importante et doit être adaptée à ces scénarios d’attaque en termes d’objectif de temps de récupération (RTO) et d’objectif de point de récupération (RPO).

Huawei aborde ces questions avec le tout nouveau portefeuille de solutions de protection des données.

Ocean, pour une protection complète de vos données

Notre gamme d’équipements est multicouche et couvre le stockage primaire comme la conservation des sauvegardes et l’archivage, englobant ainsi la continuité des activités, la capacité de récupération des données et la conformité réglementaire. Des solutions actives/actives ou actives/passives peuvent être mises en correspondance, même à travers plusieurs data centers et le cloud, et incluent même l’archivage vers le cloud ou vers un stockage de masse OceanStor Pacific.

D’autre part, le portefeuille est extrêmement flexible et peut être intégré de manière transparente dans les environnements existants. Même le logiciel de sauvegarde n’a pas besoin d’être modifié pour bénéficier de nombreux avantages.

Au premier niveau, le stockage primaire, par exemple avec notre OceanStor Dorado, nous avons implémenté la fonction HyperCDP (Continuous Data Protection). Celle-ci peut, par exemple, créer des instantanés d’un LUN toutes les 3 secondes et conserver jusqu’à 60 000 instantanés. Comme vous pouvez vous y attendre, les groupes de cohérence sont également pris en compte. Par conséquent, le RPO est réduit à trois secondes. Il s’agit d’une augmentation considérable par rapport aux fenêtres de sauvegarde classiques de 24 heures.

Les sauvegardes et les snapshots cohérents avec les applications sont créés via OceanStor BCManager. Cet outil clé analyse les serveurs d’application pour les applications en place et installe les plug-ins appropriés. Des snapshots et des sauvegardes cohérents peuvent être créés et transférés vers la destination de sauvegarde en fonction des besoins. L’interface graphique HTML5 effectue également une représentation graphique de la structure des applications et des sauvegardes.

Dans cette gamme de produits, le stockage de sauvegarde OceanProtect présente beaucoup d’atouts. Il offre des paramètres impressionnants dans deux classes de performance pour stocker les sauvegardes de façon efficace et hautement disponible. Les points forts sont une compression allant jusqu’à 55:1, une bande passante de 155 To/h et une capacité de stockage maximale de 9,2 Po. À cette fin, les OceanProtect X8000 and X9000 peuvent être connectés avec FC, iSCSI, NFS et CIFS en utilisant jusqu’à 32 Gb FC et 100 GbE. Différents types de stockage primaire et une variété de logiciels de sauvegarde peuvent être utilisés via les interfaces ouvertes. Cela en fait une destination de sauvegarde idéale pour de grandes quantités de données, facilitant des cycles de sauvegarde rapides et permettant de restaurer les données aussi rapidement que possible.

L’appliance OceanProtect est une solution complète. Elle combine les éléments d’un logiciel de sauvegarde, d’un serveur de sauvegarde et du stockage de la sauvegarde en un seul système, ce qui simplifie considérablement les opérations. Les copies de sauvegarde sont conservées dans le format original. Cela réduit le RTO à quelques minutes lors de la restauration. Les données sont disponibles instantanément, sans copie, pour le développement de logiciels ou l’analyse de données. Cette solution est particulièrement adaptée aux piles d’applications séparées et aux environnements de petite et moyenne taille.

L’archivage basé sur des politiques peut être utilisé comme troisième étape dans l’architecture de protection des données. L’interface S3 permet, par exemple, d’utiliser OceanStor Pacific, les systèmes Blu-ray ou le cloud comme stockage d’archives. La solution permet des processus d’archivage conformes à la législation et offre une connexion à l’architecture globale. Ainsi, les archives sont immédiatement accessibles pour l’analyse des données, si nécessaire.

Les données peuvent être protégées rapidement et en toute sécurité grâce à cette solution flexible de protection des données à trois niveaux. Les objectifs de temps de récupération (RTO) et de point de récupération (RPO) sont extrêmement réduits. Même en cas d’attaque par ransomware, l’environnement système peut être restauré de manière efficace. S’il s’agit uniquement de remplacer les systèmes de sauvegarde, les modèles OceanProtect X8000 and X9000 ou OceanProtect A8000 sont particulièrement intéressants.

Gestion des coûts d’un Data Center : l’apport de l’innovation et du Value Engineering
Par Marion Porée, Cost Manageur, et Matthieu Gallego, Directeur associé, Project Director & Project Advisor, Data Centre and Manufacturing, chez Turner & Townsend

« Si on veut connaître un peuple, il faut écouter sa musique. »

Retranscrit dans un cadre professionnel, Platon abordait déjà la notion d’écoute. Une écoute active de nos collaborateurs, de nos clients qui, à l’instar de l’innovation, amène au cœur du Value Engineering. Or, qu’est-ce que le VE ? En quoi consiste-t-il ? Et pourquoi l’utilise-t-on ?

Qu’est-ce que le Value Engineering ?

Loin des procédés purement arithmétiques, le VE est une méthode simple et à la fois complexe mêlant jeu d’analyse et de recherches à la compréhension des besoins, à la volonté de leadership, tout en sachant accompagner adroitement son client.

Dans cette habileté d’écoute se dessine le recadrage d’un budget alloué à un projet. Une estimation supérieure à l’enveloppe budgétaire ou la nécessité de restreindre finalement les coûts, malgré le respect du budget initial, peut justifier l’utilisation du Value Engineering. Un phénomène dépeint en cinq points ci-dessous :

  • Ponctuel ou cyclique
  • Décidé par le maître d’ouvrage ou son équipe technique et/ou design
  • Pratiqué dès le début du projet jusqu’à la définition claire et définitive des besoins
  • Qui a pour but de réduire le montant initial par un objectif précis
  • Le tout en garantissant la technicité, la sécurité et le standing demandé

Néanmoins, comment s’assurer de sa réussite ? De quelle manière accorder succès à la baisse de budget ? Prenons le sujet sous un autre angle et déterminons le Value Engineering comme une optimisation des coûts.

Extrait de Value Engineering Criteria Assesment – 23/04/2013 par Tuerner & Townsend

Ici, dans le cadre d’un Data Center, l’économiste en charge de cette tâche cible dans un premier temps ce qui ne peut être négociable (par exemple les éléments structurels ou emblématiques du projet). En résumé, il ou elle définit, grâce à l’écoute de son client et de son équipe, les attentes immuables. A l’image de la structure d’une construction neuve, l’économiste s’abstient de toucher aux marques des groupes électrogènes ou à la dimension des climatiseurs dans un DC et va plutôt véhiculer ses recherches vers le second œuvre, c’est-à-dire, tout ce qui pourrait éviter l’intervention d’un BET.

Dans un second temps, l’économiste identifie rapidement les postes les plus onéreux, les options pouvant être supprimées, les matériaux remplaçables par d’autres plus abordables et etc. Le but étant d’aller chercher l’économie en préservant l’esprit du projet.

En parallèle, il ou elle peut s’appuyer sur une des méthodes les plus infaillibles au sein du Value Engineering : le Six Sigma, très utilisée au sein de l’industrie et du Supply Chain. Un principe qualitatif qui tend vers un lissage parfait d’un processus, en d’autres termes, qui valorise au maximum sa fluidité. Cette démarche doit être approuvée par le client et nécessite des indicateurs de production fiables et mesurables, toujours dans le but de réduire les coûts tout en garantissant et/ou en améliorant la qualité du programme.

Mettre en avant la technique et l’innovation

Cette méthode est également l’occasion d’apporter son savoir-faire via ses connaissances techniques mais surtout par la présentation d’innovations. Nous y voilà, bienvenu au centre du Value Engineering. En effet, la recherche de l’innovation présente de multiples avantages :

  • Un gain de temps et une facilité de mise en œuvre :

Le VE permit de réduire la durée du projet de 12 mois (17% du temps de travail prévu) ainsi que d’économiser 43 millions de dollars (6% du coût du projet)

  • Une meilleure gestion des ressources :
The Center Hill Dam Safety Rehabilitation Project (2015)

Trois études de VE combinées ont permis la réduction de 54.2millions de dollars (21% du coût du projet).

  • Une optimisation du design :
QEW at Bronte Road (2004)

L’optimisation du design du projet permis d’augmenter les performances et la fluidité du trafic des nouvelles infrastructure pour un coût limité de 200,000 dollars (projet global 32 millions de dollars).

L’innovation inscrit l’équipe technique dans une démarche moderne, démontre sa flexibilité, son aptitude à se démarquer de ses concurrents, sa volonté forte de relever les défis techniques et financiers. Elle devient alors la vitrine du savoir de l’entreprise. Il suffit donc à l’économiste d’y puiser les idées adaptées, de suivre les progressions du marché et d’y trouver les meilleures plus-values, contribuant à l’optimisation du projet.

Une application concrète dans le Data Center

Le data center est un des domaines, avec l’industrie pharmaceutique et les entrepôts industriels, où le Value Engineering trouve une de ses applications les plus techniques. Dans ce secteur les dépenses touchant la partie mécanique et électrique représentent plus de 60% du budget total d’un projet. Cela concerne essentiellement les projets de construction de Data Center sur terrain vierge.

Ce budget exclut le coût des serveurs, rarement intégré dans ces projets, qui représente cependant un pourcentage important des montants finaux.

Régulièrement appliqué dans les projets de Data center dès la phase Business Plan, le Value engineering s’applique au cours de l’avant-projet dans une démarche globale d’optimisation des configurations électrique et mécanique. Afin de respecter le cahier des charges client, qui demande fréquemment une remise en question pour être optimisé, il est indispensable de ne pas « sur-dimensionner » les systèmes comme ne pas ajouter des groupes froids pour une redondance en N+2 alors qu’une N+1 est par exemple demandé. Dans le cas d’un design selon les principes de l’Uptime Institute, il est primordial de respecter les critères stricts du Tiering (voir ci-dessous) dans le but de garantir la certification du projet.


Les classifications de Tiering selon l’Uptime Institute sont l’objet dès le départ dans un projet de data center avec l’optimisation et la suivi du cahier des charges clients du Value Engineering

Une fois le concept global du design optimisé, le Value Engineering guide le projet selon les principaux critères du « Time to Market » (date à laquelle le data center est pleinement opérationnel) qui réduit au maximum la gestion des coûts, garantissant ainsi la qualité finale du produit.

C’est souvent à ce stade que le BIM fait son introduction dans le projet. En effet, cette maquette numérique est devenue un élément incontournable pour ceux souhaitant adopter une future transition du Value Engineering.

En créant en 3D toutes les interfaces du Data Center et en faisant interagir les connections énergétiques, il est aisé de déterminer à la fois la consommation du DC en question, mais également d’identifier bien plus rapidement les éléments interchangeables, permettant une réduction des coûts et ce, dès le début du projet. Dans le VE, un processus tel que celui-ci accélère l’adaptation des solutions et du design, rend l’impact des changements visuel, augmente la prise de décisions et permet donc une meilleure rentabilité du programme dans son ensemble.

Evidemment, cela nécessite une prise de conscience collective, une volonté de progresser avec le BIM malgré ses imperfections actuelles et une main d’œuvre très qualifiée, aussi bien à l’aise sur la complexité d’un Data Center que sur la maîtrise des maquettes numériques.

Le Value Engineering peut être ainsi utilisé en amont et en aval de l’appel d’offre. Il se révèle être un outil décisionnel indispensable, aussi bien dans choix d’une stratégie que dans la sélection d’une entreprise.