Fog-Computing

Fog Computing

Copyright © Shutterstock / BeeBright

Was ist Fog-Computing?

Fog-Computing auch als Fog Networking oder Fogging bezeichnet, ist eine dezentrale Computing-Infrastruktur, in der Daten, Rechenleistung, Speicher und Anwendungen am logischsten und effizientesten Ort zwischen der Datenquelle und der Cloud verteilt werden. Fog Computing erweitert das Konzept des Cloud Computing auf den Netzwerkrand und ist somit ideal für Internet of Things (IoT) und andere Anwendungen, die Echtzeit-Interaktionen erfordern. Es bringt die Vorteile und die Leistung der Cloud näher an den Ort, an dem Daten erstellt und bearbeitet werden.

Allgemeine Informationen zum Fog-Computing

Fog Computing ist das Konzept eines Netzwerk-Fabrics, das sich von den äußeren Rändern der Datenerstellung bis zu dem Punkt erstreckt, an dem die Daten schließlich gespeichert werden, sei es in der Cloud oder im Rechenzentrum eines Kunden. Der Fog (Nebel) ist eine weitere Schicht einer verteilten Netzwerkumgebung und ist eng mit Cloud Computing und dem Internet der Dinge (IoT) verbunden. Cloud-Anbieter mit öffentlicher Infrastruktur als Service (IaaS) können als globaler Datenendpunkt auf hoher Ebene betrachtet werden. Am Rand des Netzwerks werden Daten von IoT-Geräten erstellt.

Der Begriff Fog (Nebel) stammt vom meteorologischen Begriff für eine Wolke in Bodennähe oder die diffusen Randbereiche einer Wolke. Der Begriff wird oft mit Cisco assoziiert. Ginny Nichols, die Produktmanagerin des Unternehmens, soll diesen Begriff geprägt haben. “Cisco Fog Computing” ist ein urheberrechtlich geschützter Name. Der Begriff Fog -Computing alleine ist jedoch nicht geschützt.

Das OpenFog Consortium, eine Gruppe von Anbietern und Forschungsorganisationen, die sich für die Weiterentwicklung von Standards in dieser Technologie einsetzen, hat drei Ziele für die Entwicklung eines Fog-Frameworks skizziert. Fog-Umgebungen sollten horizontal skalierbar sein. Das bedeutet, dass sie mehrere vertikale Anwendungsfälle in der Industrie unterstützen können. Sie sollen in der Lage sein, über die Cloud hinweg in Sachen Kontinuum zu arbeiten. Und sie sollten eine Technologie auf Systemebene sein, die sich über Netzwerkgrenzen hinweg bis hin zur Cloud und über verschiedene Netzwerkprotokolle erstreckt.

Das OpenFog Consortium wurde im November 2015 von Cisco, Dell, Intel, Microsoft, ARM und der Princeton University gegründet. Die Aufgabe des Consortiums ist es, eine offene Referenzarchitektur zu entwickeln und den Geschäftswert von Fog-Computing zu vermitteln.

Wie funktioniert Fog-Computing?

Ein Fog-Netzwerk kann eine Vielzahl von Komponenten und Funktionen aufweisen. Es kann Fog-Gateways enthalten, die Daten akzeptieren, die IoT-Geräte gesammelt haben. Es kann eine Vielzahl von kabelgebundenen und drahtlosen granularen Erfassungsendpunkten umfassen, einschließlich robuster Router und Vermittlungsausrüstung. Zudem können Kundeneinrichtungen (CPE) und Gateways zum Zugriff auf Randknoten enthalten sein. Im weiteren Verlauf würden Fog-Computing-Architekturen dann auch Kernnetzwerke und Router und schließlich globale Cloud-Dienste und -Server berühren.

Das Ziel des Fogging ist es, die Effizienz zu verbessern und die Datenmenge zu reduzieren, die zur Verarbeitung, Analyse und Speicherung in die Cloud transportiert wird. Neben der Verbesserung der Effizienz stehen auch Sicherheits- und Compliance-Gründe im Vordergrund.

Fog Computing versus Edge Computing

Vielfach werden die beiden Begriffe synonym verwendet, da beide die Integration von Intelligenz und Verarbeitung näher an den Ort der Datenerstellung bringen. Der Hauptunterschied ist jedoch, wo die Intelligenz und Rechenleistung platziert wird. In einer Fog-Umgebung befindet sich die Intelligenz im lokalen Netzwerk. Daten werden von den Endpunkten zu einem Gateway übertragen, von wo aus sie dann zur Verarbeitung und Rückübertragung weiter geleitet werden.

Im Edge-Computing befindet sich Intelligenz und Leistung des Edge-Gateways oder der Appliance in Geräten wie programmierbaren Automatisierungssteuerungen. Befürworter von Edge Computing schätzen die Reduzierung von Fehlerquellen, da jedes Gerät unabhängig arbeitet und festlegt, welche Daten lokal gespeichert und welche Daten zur weiteren Analyse an die Cloud gesendet werden. Befürworter des Fog-Computing sagen, dass es skalierbarer ist und einen besseren Überblick über das Netzwerk ermöglicht.

Anwendungen von Fog-Computing

Es gibt eine Vielzahl von Anwendungsfällen, die als potenzielle ideale Szenarien für das Fogging identifiziert wurden.

Das Aufkommen von teilautonomen und selbstfahrenden Autos führt zu einer immer größer werdenden Menge an Daten, die in Echtzeit verarbeitet werden müssen. Wenn Autos autonom betrieben werden, ist es erforderlich, bestimmte Daten in Echtzeit lokal zu analysieren, zum Beispiel die Umgebung, Fahrbedingungen und Fahrtrichtungen. Andere Daten müssen möglicherweise an einen Hersteller gesendet werden, um die Fahrzeugwartung zu verbessern oder die Fahrzeugnutzung zu verfolgen. Eine Fog-Computing-Umgebung kann die Kommunikation für alle diese Datenquellen sowohl am Rand, das heißt im Auto als auch an ihrem Endpunkt, dem Hersteller, ermöglichen.

Wie vernetzte Autos nutzen auch Versorgungssysteme zunehmend Echtzeitdaten, um Systeme effizienter zu betreiben. Manchmal befinden sich diese Daten in entlegenen Gebieten, sodass die Verarbeitung in der Nähe des Ortes erfolgen muss, an dem sie erstellt wurde. Zu anderen Zeiten müssen die Daten von einer großen Anzahl von Sensoren aggregiert werden. Fog-Computing-Architekturen könnten entwickelt werden, um diese beiden Probleme zu lösen.

Eine Vielzahl von Anwendungsfällen erfordert Echtzeit-Analysen. Von Fertigungssystemen, die auf Ereignisse reagieren müssen, sobald sie passieren, bis hin zu Finanzinstituten, die Echtzeitdaten verwenden, um Handelsentscheidungen zu treffen oder um Betrug zu überwachen. Fog-Computing-Bereitstellungen können dazu beitragen, die Übertragung von Daten zwischen dem Ort, an dem sie erstellt wurde, und einer Vielzahl von Orten, an denen sie benötigt werden, zu erleichtern.

Einige Experten sind der Ansicht, dass die erwartete Einführung mobiler 5G-Verbindungen im Jahr 2018 und darüber hinaus mehr Möglichkeiten für Fogging bieten könnte. Die 5G-Technologie erfordert in einigen Fällen sehr dichte Antenneneinsätze. Unter Umständen müssen Antennen weniger als 20 Kilometer voneinander entfernt sein. In einem solchen Anwendungsfall könnte eine Fogging-Umgebung unter diesen Stationen erstellt werden, die einen zentralisierten Controller enthält, der die Anwendungen verwaltet, die in diesem 5G-Netzwerk ausgeführt werden, und Verbindungen zu Back-End-Rechenzentren oder Clouds verarbeitet.

Die Vorteile von Fog-Computing für Unternehmen

Die Entwicklung von Fog-Umgebungen bietet Unternehmen grundsätzlich mehr Möglichkeiten zur Verarbeitung von Daten, wo immer dies am geeignetsten ist. Für einige Anwendungen müssen Daten möglicherweise so schnell wie möglich verarbeitet werden – beispielsweise in einem Fertigungsfall, in dem angeschlossene Maschinen so schnell wie möglich auf einen Vorfall reagieren müssen. Fog-Computing kann Netzwerkverbindungen mit niedriger Latenz zwischen Geräten und Analyseendpunkten erstellen. Diese Architektur wiederum reduziert die benötigte Bandbreite im Vergleich dazu, wenn diese Daten zur Verarbeitung an ein Rechenzentrum oder eine Cloud zurückgesendet werden müssen. Es kann auch in Szenarios verwendet werden, in denen keine Bandbreitenverbindung zum Senden von Daten vorhanden ist und diese in der Nähe des Erstellungsortes verarbeitet werden müssen. Als zusätzlichen Vorteil können Anwender Sicherheitsfunktionen in einem Fog-Netzwerk platzieren, von segmentiertem Netzwerkverkehr zu virtuellen Firewalls.


Sie haben noch Fragen?

Kontaktieren Sie uns

Kostenloser SEO-Check der OSG


Weitere Inhalte