Pourquoi l’Edge Computing n’est pas (seulement) ce que vous croyez ?

Par DELL

Traiter les données à distance n’a rien de vraiment nouveau. En revanche, construire une chaîne complète de traitement ultraperformante exploitant de manière automatisée les infrastructures et les services cloud les plus optimisés à chaque étape du processus l’est davantage.

C’est l’une des grandes tendances actuelles dans l’IT. L’Edge computing est le troisième pilier du SI, avec le datacenter et le cloud. Mais à première vue, ces ressources informatiques déportées en périphérie du réseau, éloignées du datacenter, n’ont rien de nouveau. L’industrie par exemple utilise depuis des années des capteurs qui vont collecter et monitorer de la donnée. Il existe pourtant des différences fondamentales entre l’Edge computing que l’on déploie aujourd’hui chez nos clients, et les projets IoT que l’on mettait en œuvre auparavant. La principale étant que l’intelligence artificielle est venue mettre son grain de sel.

Description, prescription, action

Jusqu’à maintenant, l’IoT était essentiellement descriptif. C’est-à-dire qu’il était en mesure, à partir des informations collectées, de déduire par exemple quelle pièce était en cause lorsqu’une chaîne de production était à l’arrêt. L’IA permet aujourd’hui d’aller vers l’IoT prescriptif, qui va être capable de détecter les signes avant-coureurs d’une panne et d’alerter ses utilisateurs avant que cette même chaîne ne s’arrête, mais surtout de prescrire un correctif, voire de l’appliquer en toute autonomie lorsque c’est possible.

Les « Digital Twins », ces jumeaux numériques, alimentés par les données des capteurs, s’inscrivent également dans cette démarche. L’IA va pouvoir effectuer une immense quantité de tests et simulation sur le clone digital d’un bâtiment ou d’une machine afin de prédire ce qu’il se passera si un certain nombre de facteurs sont réunis et donc d’agir en conséquence pour éviter que tel ou tel scénario ne se produise. Le monde de l’IoT était celui des capteurs. Le monde de l’Edge est celui des actionneurs. Cette prise de décision automatisée se heurte toutefois à quelques obstacles.

D’une part, toutes les données collectées n’ont pas la même valeur pour l’entreprise. Face aux contraintes de coûts trop importants, de place ou de poids sur le Edge, il faut donc déplacer cette donnée vers le cloud et parfois l’en ramener en conciliant les contraintes de réseaux et de latence. Ensuite il est difficile d’exécuter des algorithmes d’IA en périphérie car la puissance de calcul nécessaire est trop importante et les données présentes trop pauvres. Enfin, le Edge étant par définition éloigné du Datacenter, s’ajoutent parfois des problèmes de connectivité sur des sites distants mal desservis par les réseaux, qui contraignent l’entrainement des IA, les mises à jour ou le support.

En réalité, il ne s’agit pas simplement de déporter des serveurs, mais de créer une nouvelle chaîne de traitement, un maillage permettant le « Offloading Edge » pour partager les ressources des différents Edges afin d’obtenir le résultat voulu avec un maximum d’efficacité. La question n’est finalement pas tant de savoir où doit être traitée la donnée, mais plutôt comment mettre en place un usage innovant répondant à un objectif b usiness.

Vers la microseconde de latence

Et la réponse à cette question est effectivement technologique. Les infrastructures dites Edge, sont un ensemble de PC Industriels et d’équipements serveurs, stockage et réseaux, qui vont réaliser le premier niveau de traitement de la chaîne au plus près des capteurs.

Comme toutes les données collectées n’ont pas la même valeur, certaines devront être traitées immédiatement et localement pour atteindre des temps de latence de quelques millisecondes ou microsecondes. C’est le cas par exemple des véhicules autonomes, qui pour des raisons évidentes doivent réagir extrêmement rapidement aux situations qui se présentent.

D’autres jeux de données transférées vers le datacenter ou le cloud pour réaliser des opérations de fond nécessitent, en fonction de leur sensibilité et de leur criticité, de les sécuriser en amont ou de les acheminer de manière sécurisée, quel que soit le chemin emprunté. Il faut donc disposer au sein du Edge des solutions de protection nécessaires.

J’ai très brièvement évoqué ici quelque cas d’usages de l’Edge computing, comme le factory 4.0 ou la voiture autonome, mais le potentiel est immensément plus large que cela, avec des applications dans le retail, la santé ou encore les smart cities. L’Edge existe partout où le monde virtuel croise le monde réel. Nous n’en sommes donc qu’aux prémices.

Pour aller plus loin, découvrez nos solutions en matière d’Edge Computing.