Fog-Computing

fog computing

Copyright © Shutterstock / BeeBright

Was ist Fog-Computing?

Fog-Computing auch als Fog Networking oder Fogging bezeichnet, ist eine dezentrale Computing-Infrastruktur, in der Daten, Rechenleistung, Speicher und Anwendungen am logischsten und effizientesten Ort zwischen der Datenquelle und der Cloud verteilt werden. Fog Computing erweitert das Konzept des Cloud Computing auf den Netzwerkrand und ist somit ideal fĂŒr Internet of Things (IoT) und andere Anwendungen, die Echtzeit-Interaktionen erfordern. Es bringt die Vorteile und die Leistung der Cloud nĂ€her an den Ort, an dem Daten erstellt und bearbeitet werden.

Allgemeine Informationen zum Fog-Computing

Fog Computing ist das Konzept eines Netzwerk-Fabrics, das sich von den Ă€ußeren RĂ€ndern der Datenerstellung bis zu dem Punkt erstreckt, an dem die Daten schließlich gespeichert werden, sei es in der Cloud oder im Rechenzentrum eines Kunden. Der Fog (Nebel) ist eine weitere Schicht einer verteilten Netzwerkumgebung und ist eng mit Cloud Computing und dem Internet der Dinge (IoT) verbunden. Cloud-Anbieter mit öffentlicher Infrastruktur als Service (IaaS) können als globaler Datenendpunkt auf hoher Ebene betrachtet werden. Am Rand des Netzwerks werden Daten von IoT-GerĂ€ten erstellt.

Der Begriff Fog (Nebel) stammt vom meteorologischen Begriff fĂŒr eine Wolke in BodennĂ€he oder die diffusen Randbereiche einer Wolke. Der Begriff wird oft mit Cisco assoziiert. Ginny Nichols, die Produktmanagerin des Unternehmens, soll diesen Begriff geprĂ€gt haben. “Cisco Fog Computing” ist ein urheberrechtlich geschĂŒtzter Name. Der Begriff Fog -Computing alleine ist jedoch nicht geschĂŒtzt.

Das OpenFog Consortium, eine Gruppe von Anbietern und Forschungsorganisationen, die sich fĂŒr die Weiterentwicklung von Standards in dieser Technologie einsetzen, hat drei Ziele fĂŒr die Entwicklung eines Fog-Frameworks skizziert. Fog-Umgebungen sollten horizontal skalierbar sein. Das bedeutet, dass sie mehrere vertikale AnwendungsfĂ€lle in der Industrie unterstĂŒtzen können. Sie sollen in der Lage sein, ĂŒber die Cloud hinweg in Sachen Kontinuum zu arbeiten. Und sie sollten eine Technologie auf Systemebene sein, die sich ĂŒber Netzwerkgrenzen hinweg bis hin zur Cloud und ĂŒber verschiedene Netzwerkprotokolle erstreckt.

Das OpenFog Consortium wurde im November 2015 von Cisco, Dell, Intel, Microsoft, ARM und der Princeton University gegrĂŒndet. Die Aufgabe des Consortiums ist es, eine offene Referenzarchitektur zu entwickeln und den GeschĂ€ftswert von Fog-Computing zu vermitteln.

Wie funktioniert Fog-Computing?

Ein Fog-Netzwerk kann eine Vielzahl von Komponenten und Funktionen aufweisen. Es kann Fog-Gateways enthalten, die Daten akzeptieren, die IoT-GerĂ€te gesammelt haben. Es kann eine Vielzahl von kabelgebundenen und drahtlosen granularen Erfassungsendpunkten umfassen, einschließlich robuster Router und VermittlungsausrĂŒstung. Zudem können Kundeneinrichtungen (CPE) und Gateways zum Zugriff auf Randknoten enthalten sein. Im weiteren Verlauf wĂŒrden Fog-Computing-Architekturen dann auch Kernnetzwerke und Router und schließlich globale Cloud-Dienste und -Server berĂŒhren.

Das Ziel des Fogging ist es, die Effizienz zu verbessern und die Datenmenge zu reduzieren, die zur Verarbeitung, Analyse und Speicherung in die Cloud transportiert wird. Neben der Verbesserung der Effizienz stehen auch Sicherheits- und Compliance-GrĂŒnde im Vordergrund.

Fog Computing versus Edge Computing

Vielfach werden die beiden Begriffe synonym verwendet, da beide die Integration von Intelligenz und Verarbeitung nĂ€her an den Ort der Datenerstellung bringen. Der Hauptunterschied ist jedoch, wo die Intelligenz und Rechenleistung platziert wird. In einer Fog-Umgebung befindet sich die Intelligenz im lokalen Netzwerk. Daten werden von den Endpunkten zu einem Gateway ĂŒbertragen, von wo aus sie dann zur Verarbeitung und RĂŒckĂŒbertragung weiter geleitet werden.

Im Edge-Computing befindet sich Intelligenz und Leistung des Edge-Gateways oder der Appliance in GerĂ€ten wie programmierbaren Automatisierungssteuerungen. BefĂŒrworter von Edge Computing schĂ€tzen die Reduzierung von Fehlerquellen, da jedes GerĂ€t unabhĂ€ngig arbeitet und festlegt, welche Daten lokal gespeichert und welche Daten zur weiteren Analyse an die Cloud gesendet werden. BefĂŒrworter des Fog-Computing sagen, dass es skalierbarer ist und einen besseren Überblick ĂŒber das Netzwerk ermöglicht.

Anwendungen von Fog-Computing

Es gibt eine Vielzahl von AnwendungsfĂ€llen, die als potenzielle ideale Szenarien fĂŒr das Fogging identifiziert wurden.

Das Aufkommen von teilautonomen und selbstfahrenden Autos fĂŒhrt zu einer immer grĂ¶ĂŸer werdenden Menge an Daten, die in Echtzeit verarbeitet werden mĂŒssen. Wenn Autos autonom betrieben werden, ist es erforderlich, bestimmte Daten in Echtzeit lokal zu analysieren, zum Beispiel die Umgebung, Fahrbedingungen und Fahrtrichtungen. Andere Daten mĂŒssen möglicherweise an einen Hersteller gesendet werden, um die Fahrzeugwartung zu verbessern oder die Fahrzeugnutzung zu verfolgen. Eine Fog-Computing-Umgebung kann die Kommunikation fĂŒr alle diese Datenquellen sowohl am Rand, das heißt im Auto als auch an ihrem Endpunkt, dem Hersteller, ermöglichen.

Wie vernetzte Autos nutzen auch Versorgungssysteme zunehmend Echtzeitdaten, um Systeme effizienter zu betreiben. Manchmal befinden sich diese Daten in entlegenen Gebieten, sodass die Verarbeitung in der NĂ€he des Ortes erfolgen muss, an dem sie erstellt wurde. Zu anderen Zeiten mĂŒssen die Daten von einer großen Anzahl von Sensoren aggregiert werden. Fog-Computing-Architekturen könnten entwickelt werden, um diese beiden Probleme zu lösen.

Eine Vielzahl von AnwendungsfĂ€llen erfordert Echtzeit-Analysen. Von Fertigungssystemen, die auf Ereignisse reagieren mĂŒssen, sobald sie passieren, bis hin zu Finanzinstituten, die Echtzeitdaten verwenden, um Handelsentscheidungen zu treffen oder um Betrug zu ĂŒberwachen. Fog-Computing-Bereitstellungen können dazu beitragen, die Übertragung von Daten zwischen dem Ort, an dem sie erstellt wurde, und einer Vielzahl von Orten, an denen sie benötigt werden, zu erleichtern.

Einige Experten sind der Ansicht, dass die erwartete EinfĂŒhrung mobiler 5G-Verbindungen im Jahr 2018 und darĂŒber hinaus mehr Möglichkeiten fĂŒr Fogging bieten könnte. Die 5G-Technologie erfordert in einigen FĂ€llen sehr dichte AntenneneinsĂ€tze. Unter UmstĂ€nden mĂŒssen Antennen weniger als 20 Kilometer voneinander entfernt sein. In einem solchen Anwendungsfall könnte eine Fogging-Umgebung unter diesen Stationen erstellt werden, die einen zentralisierten Controller enthĂ€lt, der die Anwendungen verwaltet, die in diesem 5G-Netzwerk ausgefĂŒhrt werden, und Verbindungen zu Back-End-Rechenzentren oder Clouds verarbeitet.

Die Vorteile von Fog-Computing fĂŒr Unternehmen

Die Entwicklung von Fog-Umgebungen bietet Unternehmen grundsĂ€tzlich mehr Möglichkeiten zur Verarbeitung von Daten, wo immer dies am geeignetsten ist. FĂŒr einige Anwendungen mĂŒssen Daten möglicherweise so schnell wie möglich verarbeitet werden – beispielsweise in einem Fertigungsfall, in dem angeschlossene Maschinen so schnell wie möglich auf einen Vorfall reagieren mĂŒssen. Fog-Computing kann Netzwerkverbindungen mit niedriger Latenz zwischen GerĂ€ten und Analyseendpunkten erstellen. Diese Architektur wiederum reduziert die benötigte Bandbreite im Vergleich dazu, wenn diese Daten zur Verarbeitung an ein Rechenzentrum oder eine Cloud zurĂŒckgesendet werden mĂŒssen. Es kann auch in Szenarios verwendet werden, in denen keine Bandbreitenverbindung zum Senden von Daten vorhanden ist und diese in der NĂ€he des Erstellungsortes verarbeitet werden mĂŒssen. Als zusĂ€tzlichen Vorteil können Anwender Sicherheitsfunktionen in einem Fog-Netzwerk platzieren, von segmentiertem Netzwerkverkehr zu virtuellen Firewalls.


Sie haben noch Fragen?

Kontaktieren Sie uns

Kostenloser SEO-Check der OSG


Weitere Inhalte