Qu’est-ce que l’edge computing ?

Par Cloudflare

L’informatique périphérique (ou edge computing) désigne une philosophie d’architecture réseau qui vise à amener le traitement informatique aussi près que possible de la source des données afin de réduire la latence et l’utilisation de la bande passante. En termes plus simples, cette approche implique l’exécution d’une moindre quantité de processus dans le cloud et la migration de ces derniers vers des points locaux, comme l’ordinateur d’un utilisateur, un appareil IdO ou un serveur périphérique. Le fait de déplacer le traitement informatique vers la périphérie du réseau permet de réduire le volume de communications à longue distance qui doivent avoir lieu entre un client et un serveur.

Qu’est-ce que la périphérie du réseau ?

Pour les appareils Internet, la périphérie du réseau désigne l’endroit où l’appareil, ou le réseau local contenant l’appareil, communique avec Internet. Le terme « périphérie » est un peu flou. Ainsi, si l’ordinateur d’un utilisateur ou le processeur interne d’une caméra IdO peuvent être vus comme la périphérie du réseau, le routeur, le FAI ou le serveur périphérique local de l’utilisateur sont également considérés comme tels. Le point important à retenir réside dans l’idée que la périphérie du réseau se situe à proximité géographique de l’appareil, contrairement aux serveurs d’origine et aux serveurs cloud, qui peuvent se révéler très éloignés des appareils avec lesquels ils communiquent.

Qu’est-ce qui différencie l’informatique périphérique des autres modèles informatiques ?

Les premiers ordinateurs se présentaient sous la forme de machines volumineuses et encombrantes, auxquelles on ne pouvait accéder que directement ou par l’intermédiaire de terminaux qui ne constituaient, finalement, qu’une extension de l’ordinateur lui-même. L’invention des ordinateurs personnels a permis à l’informatique d’adopter une forme beaucoup plus distribuée. Pendant un temps, l’informatique personnelle est restée le modèle informatique dominant. L’exécution des applications et le stockage des données s’effectuaient localement sur l’appareil de l’utilisateur, voire dans un datacenter sur site.

Développement plus récent, le cloud computing (ou informatique en nuage) offrait un certain nombre d’avantages par rapport à cette approche locale, sur site, de l’informatique. Les services cloud se voient ainsi centralisés au sein d’un « nuage » (cloud) géré par le fournisseur (ou un ensemble de datacenters) et sont accessibles depuis n’importe quel appareil inscrit sur Internet.

Le cloud computing peut toutefois introduire une certaine latence en raison de la distance entre les utilisateurs et les datacenters hébergeant les services cloud. L’informatique périphérique rapproche le traitement informatique des utilisateurs finaux afin de minimiser la distance que les données doivent parcourir, tout en conservant la nature centralisée du cloud computing.

Pour résumer :

  • Débuts de l’informatique : applications centralisées ne pouvant être exécutées que sur un ordinateur isolé.
  • Informatique personnelle : applications décentralisées exécutées localement.
  • Cloud computing : applications centralisées exécutées dans des datacenters.
  • Informatique périphérique : applications centralisées exécutées à proximité des utilisateurs, soit sur l’appareil lui-même, soit à la périphérie du réseau.

Quel exemple pourrait illustrer l’informatique périphérique ?

Imaginez un bâtiment sécurisé par des dizaines de caméras vidéo IdO haute définition. Il s’agit de caméras « classiques » qui se contentent de produire un signal vidéo brut et de le transmettre en continu à un serveur cloud. Sur le serveur cloud, les sorties vidéo de l’ensemble des caméras font l’objet d’un traitement par une application de détection de mouvement afin de garantir que seules les images présentant une activité sont enregistrées dans la base de données du serveur. L’infrastructure Internet du bâtiment se trouve donc constamment et fortement sollicitée, car une considérable partie de la bande passante est consommée par le volume élevé de séquences vidéo transférées. De plus, la charge pesant sur le serveur cloud responsable du traitement simultané des séquences vidéo provenant de l’ensemble des caméras s’avère très lourde.

Imaginez maintenant que le capteur de mouvement soit déplacé à la périphérie du réseau. Que se passerait-il si chaque caméra utilisait son propre ordinateur interne pour exécuter l’application de détection de mouvement et envoyer ensuite les images au serveur cloud en fonction des besoins ? Il en résulterait une réduction significative de l’utilisation de la bande passante, car une grande partie des images des caméras n’auraient pas à être transférées au serveur cloud.

Le serveur cloud ne serait en outre chargé que du stockage des seules séquences importantes et pourrait donc communiquer avec un plus grand nombre de caméras sans se trouver surchargé. La description de ce système constitue un parfait exemple d’informatique périphérique.

Quels sont les autres scénarios d’utilisation possibles de l’informatique périphérique ?

Cette approche de l’informatique peut s’intégrer à une vaste gamme d’applications, de produits et de services. Voici quelques-unes de ces possibilités :

  • Surveillance des systèmes de sécurité : comme décrit ci-dessus.
  • Appareils IdO : les appareils intelligents qui se connectent à Internet peuvent bénéficier de l’exécution du code sur l’appareil lui-même, plutôt que dans le cloud, afin d’interagir de manière plus efficace avec les utilisateurs.
  • Voitures autonomes : les véhicules autonomes doivent réagir en temps réel, sans attendre les instructions d’un serveur.
  • Mise en cache plus efficace : en exécutant du code sur un CDN intégré à un réseau périphérique, une application peut personnaliser la manière dont le contenu est mis en cache afin de diffuser plus efficacement le contenu aux utilisateurs.
  • Appareils de surveillance médicale : la capacité de réagir en temps réel, sans attendre de réponse d’un serveur cloud, s’avère essentielle pour les dispositifs médicaux.
  • Visioconférence : la vidéo interactive en direct nécessite une quantité importante de bande passante. La migration des processus backend au plus près de la source de la vidéo permet donc de réduire le décalage et la latence.

Quels sont les avantages de l’edge computing ?

Réduction des coûts

Comme illustré dans l’exemple ci-dessus, l’informatique périphérique permet de réduire l’utilisation de la bande passante et des ressources du serveur. La bande passante et les ressources cloud sont limitées et présentent un coût financier certain. Avec l’essor des dispositifs intelligents (caméras, imprimantes, thermostats, voire grille-pain) dans chaque foyer et chaque bureau, Statista prévoit que plus de 75 milliards d’appareils IdO seront installés à travers le monde d’ici 2025. La prise en charge de tous ces équipements nécessitera donc la migration d’une importante quantité de traitement informatique vers la périphérie.

Performances

Un autre avantage important du déplacement des processus vers la périphérie est la réduction de la latence. Chaque fois qu’un appareil doit communiquer avec un serveur distant quelque part, cela crée un retard. Par exemple, deux collègues du même bureau qui discutent sur une plateforme de messagerie instantanée peuvent être confrontés à un retard important parce que chaque message doit être acheminé hors du bâtiment, communiquer avec un serveur quelque part dans le monde et être ramené avant d’apparaître sur l’écran du destinataire. Si ce processus est ramené à la périphérie, et que le routeur interne de l’entreprise est chargé de transférer les conversations internes, ce retard notable n’existerait pas.

De même, lorsque les utilisateurs de toutes sortes d’applications web exécutent des processus qui doivent communiquer avec un serveur externe, ils rencontrent des retards. La durée de ces retards varie en fonction de la largeur de la bande passante disponible et de l’emplacement du serveur, mais ces retards peuvent être évités en faisant passer davantage de processus en périphérie du réseau.

Nouvelle fonctionnalité

En outre, l’edge computing peut fournir de nouvelles fonctionnalités qui n’étaient pas disponibles auparavant. Par exemple, une entreprise peut utiliser l’edge computing pour traiter et analyser ses données à la périphérie, ce qui permet de le faire en temps réel.

En résumé, les principaux avantages de l’edge computing sont les suivants :

  • Diminution de la latence
  • Diminution de l’utilisation de la bande passante et des coûts associés
  • Diminution des ressources serveur et des coûts associés
  • Fonctionnalités ajoutées

Quels sont les inconvénients de l’edge computing ?

L’un des inconvénients de l’informatique périphérique réside dans l’augmentation potentielle des vecteurs d’attaque. L’apparition d’équipements plus « intelligents » (comme les serveurs périphériques et les appareils IdO dotés de puissants ordinateurs intégrés) offre aux acteurs malveillants de nouvelles possibilités de compromettre ces dispositifs.

Le deuxième inconvénient tient au fait que l’edge computing nécessite plus de matériel local. Par exemple, alors qu’une caméra IdO a besoin d’un ordinateur intégré pour envoyer ses données vidéo brutes à un serveur web, il lui faudrait un ordinateur beaucoup plus sophistiqué, disposant d’une plus grande puissance de traitement, pour pouvoir exécuter ses propres algorithmes de détection de mouvement. Toutefois, avec la baisse de coût des équipements informatiques, la construction d’appareils plus intelligents se révèle désormais moins chère.

L’un des moyens de réduire le besoin en équipements physiques supplémentaires consiste à tirer parti des serveurs périphériques. Ainsi, grâce aux 250 emplacements périphériques géographiquement distribués composant le réseau Cloudflare, nos clients peuvent exécuter du code en périphérie dans le monde entier à l’aide de la solution Cloudflare Workers.

Vous aimerez aussi...