Fog-Computing

fog computing

Copyright ┬ę Shutterstock / BeeBright

Was ist Fog-Computing?

Fog-Computing auch als Fog Networking oder Fogging bezeichnet, ist eine dezentrale Computing-Infrastruktur, in der Daten, Rechenleistung, Speicher und Anwendungen am logischsten und effizientesten Ort zwischen der Datenquelle und der Cloud verteilt werden. Fog Computing erweitert das Konzept des Cloud Computing auf den Netzwerkrand und ist somit ideal f├╝r Internet of Things (IoT) und andere Anwendungen, die Echtzeit-Interaktionen erfordern. Es bringt die Vorteile und die Leistung der Cloud n├Ąher an den Ort, an dem Daten erstellt und bearbeitet werden.

Allgemeine Informationen zum Fog-Computing

Fog Computing ist das Konzept eines Netzwerk-Fabrics, das sich von den ├Ąu├čeren R├Ąndern der Datenerstellung bis zu dem Punkt erstreckt, an dem die Daten schlie├člich gespeichert werden, sei es in der Cloud oder im Rechenzentrum eines Kunden. Der Fog (Nebel) ist eine weitere Schicht einer verteilten Netzwerkumgebung und ist eng mit Cloud Computing und dem Internet der Dinge (IoT) verbunden. Cloud-Anbieter mit ├Âffentlicher Infrastruktur als Service (IaaS) k├Ânnen als globaler Datenendpunkt auf hoher Ebene betrachtet werden. Am Rand des Netzwerks werden Daten von IoT-Ger├Ąten erstellt.

Der Begriff Fog (Nebel) stammt vom meteorologischen Begriff f├╝r eine Wolke in Bodenn├Ąhe oder die diffusen Randbereiche einer Wolke. Der Begriff wird oft mit Cisco assoziiert. Ginny Nichols, die Produktmanagerin des Unternehmens, soll diesen Begriff gepr├Ągt haben. “Cisco Fog Computing” ist ein urheberrechtlich gesch├╝tzter Name. Der Begriff Fog -Computing alleine ist jedoch nicht gesch├╝tzt.

Das OpenFog Consortium, eine Gruppe von Anbietern und Forschungsorganisationen, die sich f├╝r die Weiterentwicklung von Standards in dieser Technologie einsetzen, hat drei Ziele f├╝r die Entwicklung eines Fog-Frameworks skizziert. Fog-Umgebungen sollten horizontal skalierbar sein. Das bedeutet, dass sie mehrere vertikale Anwendungsf├Ąlle in der Industrie unterst├╝tzen k├Ânnen. Sie sollen in der Lage sein, ├╝ber die Cloud hinweg in Sachen Kontinuum zu arbeiten. Und sie sollten eine Technologie auf Systemebene sein, die sich ├╝ber Netzwerkgrenzen hinweg bis hin zur Cloud und ├╝ber verschiedene Netzwerkprotokolle erstreckt.

Das OpenFog Consortium wurde im November 2015 von Cisco, Dell, Intel, Microsoft, ARM und der Princeton University gegr├╝ndet. Die Aufgabe des Consortiums ist es, eine offene Referenzarchitektur zu entwickeln und den Gesch├Ąftswert von Fog-Computing zu vermitteln.

Wie funktioniert Fog-Computing?

Ein Fog-Netzwerk kann eine Vielzahl von Komponenten und Funktionen aufweisen. Es kann Fog-Gateways enthalten, die Daten akzeptieren, die IoT-Ger├Ąte gesammelt haben. Es kann eine Vielzahl von kabelgebundenen und drahtlosen granularen Erfassungsendpunkten umfassen, einschlie├člich robuster Router und Vermittlungsausr├╝stung. Zudem k├Ânnen Kundeneinrichtungen (CPE) und Gateways zum Zugriff auf Randknoten enthalten sein. Im weiteren Verlauf w├╝rden Fog-Computing-Architekturen dann auch Kernnetzwerke und Router und schlie├člich globale Cloud-Dienste und -Server ber├╝hren.

Das Ziel des Fogging ist es, die Effizienz zu verbessern und die Datenmenge zu reduzieren, die zur Verarbeitung, Analyse und Speicherung in die Cloud transportiert wird. Neben der Verbesserung der Effizienz stehen auch Sicherheits- und Compliance-Gr├╝nde im Vordergrund.

Fog Computing versus Edge Computing

Vielfach werden die beiden Begriffe synonym verwendet, da beide die Integration von Intelligenz und Verarbeitung n├Ąher an den Ort der Datenerstellung bringen. Der Hauptunterschied ist jedoch, wo die Intelligenz und Rechenleistung platziert wird. In einer Fog-Umgebung befindet sich die Intelligenz im lokalen Netzwerk. Daten werden von den Endpunkten zu einem Gateway ├╝bertragen, von wo aus sie dann zur Verarbeitung und R├╝ck├╝bertragung weiter geleitet werden.

Im Edge-Computing befindet sich Intelligenz und Leistung des Edge-Gateways oder der Appliance in Ger├Ąten wie programmierbaren Automatisierungssteuerungen. Bef├╝rworter von Edge Computing sch├Ątzen die Reduzierung von Fehlerquellen, da jedes Ger├Ąt unabh├Ąngig arbeitet und festlegt, welche Daten lokal gespeichert und welche Daten zur weiteren Analyse an die Cloud gesendet werden. Bef├╝rworter des Fog-Computing sagen, dass es skalierbarer ist und einen besseren ├ťberblick ├╝ber das Netzwerk erm├Âglicht.

Anwendungen von Fog-Computing

Es gibt eine Vielzahl von Anwendungsf├Ąllen, die als potenzielle ideale Szenarien f├╝r das Fogging identifiziert wurden.

Das Aufkommen von teilautonomen und selbstfahrenden Autos f├╝hrt zu einer immer gr├Â├čer werdenden Menge an Daten, die in Echtzeit verarbeitet werden m├╝ssen. Wenn Autos autonom betrieben werden, ist es erforderlich, bestimmte Daten in Echtzeit lokal zu analysieren, zum Beispiel die Umgebung, Fahrbedingungen und Fahrtrichtungen. Andere Daten m├╝ssen m├Âglicherweise an einen Hersteller gesendet werden, um die Fahrzeugwartung zu verbessern oder die Fahrzeugnutzung zu verfolgen. Eine Fog-Computing-Umgebung kann die Kommunikation f├╝r alle diese Datenquellen sowohl am Rand, das hei├čt im Auto als auch an ihrem Endpunkt, dem Hersteller, erm├Âglichen.

Wie vernetzte Autos nutzen auch Versorgungssysteme zunehmend Echtzeitdaten, um Systeme effizienter zu betreiben. Manchmal befinden sich diese Daten in entlegenen Gebieten, sodass die Verarbeitung in der N├Ąhe des Ortes erfolgen muss, an dem sie erstellt wurde. Zu anderen Zeiten m├╝ssen die Daten von einer gro├čen Anzahl von Sensoren aggregiert werden. Fog-Computing-Architekturen k├Ânnten entwickelt werden, um diese beiden Probleme zu l├Âsen.

Eine Vielzahl von Anwendungsf├Ąllen erfordert Echtzeit-Analysen. Von Fertigungssystemen, die auf Ereignisse reagieren m├╝ssen, sobald sie passieren, bis hin zu Finanzinstituten, die Echtzeitdaten verwenden, um Handelsentscheidungen zu treffen oder um Betrug zu ├╝berwachen. Fog-Computing-Bereitstellungen k├Ânnen dazu beitragen, die ├ťbertragung von Daten zwischen dem Ort, an dem sie erstellt wurde, und einer Vielzahl von Orten, an denen sie ben├Âtigt werden, zu erleichtern.

Einige Experten sind der Ansicht, dass die erwartete Einf├╝hrung mobiler 5G-Verbindungen im Jahr 2018 und dar├╝ber hinaus mehr M├Âglichkeiten f├╝r Fogging bieten k├Ânnte. Die 5G-Technologie erfordert in einigen F├Ąllen sehr dichte Antenneneins├Ątze. Unter Umst├Ąnden m├╝ssen Antennen weniger als 20 Kilometer voneinander entfernt sein. In einem solchen Anwendungsfall k├Ânnte eine Fogging-Umgebung unter diesen Stationen erstellt werden, die einen zentralisierten Controller enth├Ąlt, der die Anwendungen verwaltet, die in diesem 5G-Netzwerk ausgef├╝hrt werden, und Verbindungen zu Back-End-Rechenzentren oder Clouds verarbeitet.

Die Vorteile von Fog-Computing f├╝r Unternehmen

Die Entwicklung von Fog-Umgebungen bietet Unternehmen grunds├Ątzlich mehr M├Âglichkeiten zur Verarbeitung von Daten, wo immer dies am geeignetsten ist. F├╝r einige Anwendungen m├╝ssen Daten m├Âglicherweise so schnell wie m├Âglich verarbeitet werden ÔÇô┬ábeispielsweise in einem Fertigungsfall, in dem angeschlossene Maschinen so schnell wie m├Âglich auf einen Vorfall reagieren m├╝ssen. Fog-Computing kann Netzwerkverbindungen mit niedriger Latenz zwischen Ger├Ąten und Analyseendpunkten erstellen. Diese Architektur wiederum reduziert die ben├Âtigte Bandbreite im Vergleich dazu, wenn diese Daten zur Verarbeitung an ein Rechenzentrum oder eine Cloud zur├╝ckgesendet werden m├╝ssen. Es kann auch in Szenarios verwendet werden, in denen keine Bandbreitenverbindung zum Senden von Daten vorhanden ist und diese in der N├Ąhe des Erstellungsortes verarbeitet werden m├╝ssen. Als zus├Ątzlichen Vorteil k├Ânnen Anwender Sicherheitsfunktionen in einem Fog-Netzwerk platzieren, von segmentiertem Netzwerkverkehr zu virtuellen Firewalls.


Sie haben noch Fragen?

Kontaktieren Sie uns

Kostenloser SEO-Check der OSG


Weitere Inhalte