Fog Computing: Daten, Informationen, Anwendungen und Services müssen effizienter zum Endnutzer

Oktober 14, 2013 |

Richtig gelesen, hier geht es nicht um CLOUD Computing sondern um FOG Computing. Nachdem sich die Cloud auf einem guten Weg befindet in der Breite adaptiert zu werden, folgen erste Konzepte, um die Nutzung skalierbarer und flexibler Infrastrukturen, Plattformen und Applikationen um weitere Services zu erweitern, um die Daten und Informationen schneller an den Endnutzer auszuliefern. Das ist im Kern genau die Aufgabe des Fog Computing. Der Fog soll dafür sorgen, dass Cloud Services, Rechenleistung, Speicherplatz, Workloads, Anwendungen und große Datenmengen an jegliche Ecken (Edge) eines Netzwerkes (Internet) auf einer echten verteilten Art und Weise bereitgestellt werden.

Was bedeutet Fog Computing?

Der Fog hat die Aufgabe, Daten und Workloads näher an den Nutzer zu bringen, der sich am Rande einer Datenverbindung befindet. In diesem Zusammenhang wird dann auch vom „Edge Computing“ gesprochen. Der Fog befindet sich organisatorisch unterhalb der Cloud und dient als optimiertes Übertragungsmedium für die Services und Daten, die sich in der Cloud befinden. Der Begriff „Fog Computing“ wurde von Cisco als ein neues Paradigma geprägt, der verteilte Endgeräte innerhalb des Internet of Things bei dem kabellosen Datentransfer unterstützen soll. Fog Computing baut konzeptionell auf bestehende und weit verbreitete Technologien wie den Content Delivery Networks (CDN) auf, soll aber, auf Grund von Cloud Technologien, das Bereitstellen von viel komplexeren Services ermöglichen.

Da immer größere Datenmengen an eine immer größer werdende Anzahl an Benutzern ausgeliefert werden müssen, sind Konzepte notwendig, welche die Idee der Cloud verbessern und es Unternehmen und Anbietern ermöglichen, ihre Inhalte an den Endkunden über eine geographisch weit verbreitete Plattform bereitzustellen. Fog Computing soll dabei helfen, die verteilten Daten näher an den Endkunden zu transportieren und dabei die Latenz und Anzahl der dafür benötigten Hops zu verringern und Mobile Computing und Streaming Services dadurch besser zu unterstützen. Neben dem Internet of Things ist die steigende Nachfrage der Nutzer, zu jeder Zeit, von jedem Ort und mit jedem Gerät auf ihre Daten zugreifen zu können, ein weiterer Grund, warum die Idee des Fog Computing an Bedeutung zunehmen wird.

Was sind Use Cases von Fog Computing?

Man sollte sich von diesem neuen Begriff nicht zu sehr verwirren lassen. Zwar handelt es sich beim Fog Computing um eine neue Terminologie. Schaut man jedoch hinter die Fassade wird schnell deutlich, dass diese Technologie bereits in modernen Rechenzentren und der Cloud eingesetzt wird. Der Blick auf ein paar Use Cases verdeutlicht dies.

Nahtlose Integration mit der Cloud und anderweitigen Services

Der Fog soll die Cloud nicht ersetzen. Durch Fog Services soll die Cloud erweitert werden, indem die Nutzerdaten isoliert werden, die sich ausschließlich am Rande (Edge) eines Netzwerks befinden. Von dort aus soll es Administratoren ermöglicht werden, analytische Auswertungen, Sicherheitsfunktionen und weitere Services direkt mit eigenen Cloud Modell zu verbinden. Die Infrastruktur wird hierbei weiterhin vollständig auf dem Cloud Konzept basieren, am Rande jedoch um das Fog Computing erweitert.

Services die vertikal auf der Cloud aufsetzen

Viele Unternehmen und unterschiedliche Arten von Services nutzen bereits die Ideen des Fog Computing, indem sie umfangreiche Inhalte zielgerichtet an ihre Kunden ausliefern. Dazu gehören u.a. Webshops oder Anbieter von Medieninhalten. Ein gutes Beispiel hierfür ist Netflix, die damit ihre zahlreichen weltweit verteilten Kunden erreichen können. Mit der Datenhaltung in einem oder zwei zentralen Rechenzentren wäre die Auslieferung des Video on-Demand Service sonst nicht effizient möglich. Fog Computing ermöglicht somit das Bereitstellen von sehr großen gestreamten Datenmengen, indem die Daten performant direkt in die Nähe des Endkunden ausgeliefert werden.

Bessere Unterstützung für mobile Endgeräte

Mit dem stetigen Wachstum mobiler Endgeräte und Daten erhalten Administratoren durch Fog Computing mehr Kontrollmöglichkeiten darüber, wo sich die Nutzer gerade befinden, von wo sie sich anmelden und wie sie auf Informationen zugreifen. Dies führt neben einer höheren Geschwindigkeit für den Endnutzer ebenfalls zu einer höheren Sicherheit und Datenschutz, indem die Daten an unterschiedlichen Eckpunkten kontrolliert werden können. Zudem erlaubt Fog Computing eine bessere Integration mit verschiedenen Cloud Services und sorgt somit für eine optimierte Verteilung über mehrere Rechenzentren hinweg.

Aufbau einer sehr engen geographischen Verteilung

Fog Computing erweitert bestehende Cloud Services, indem es ein Edge Network aufspannt, das aus vielen verteilten Endpunkten besteht. Diese dichte geographisch verteilte Infrastruktur bietet Vorteile für unterschiedliche Use Cases. Dazu gehören eine schnellere Erhebung und Analyse von Big Data, eine bessere Unterstützung für Location-based Services indem sich die gesamten WAN Strecken besser überbrücken lassen, sowie die Möglichkeit, Daten in Echtzeit und dazu noch massiv skalierbar auszuwerten.

Daten befinden sich nah beim Nutzer

Die Menge an Daten, die durch Cloud Services entsteht, erfordert das Caching der Daten oder weitere Services, die sich dieser Thematik annehmen. Diese Services befinden sich in der Nähe des Endnutzers, um damit die Latenz zu verbessern und den Datenzugriff zu optimieren. Anstatt die Daten und Informationen zentral in Rechenzentren weit entfernt von dem jeweiligen Nutzer abzulegen, sorgt der Fog für die direkte Nähe der Daten beim Kunden.

Fog Computing ergibt einen Sinn

Man kann von Buzzwords halten was man möchte. Erst wenn man hinter die Kulisse schaut wird es interessant. Denn je mehr Services, Daten und Applikationen für den Endnutzer bereitgestellt werden, desto mehr haben die Hersteller die Aufgabe Wege zu finden, um die Bereitstellungsprozesse zu optimieren. Das bedeutet, dass Informationen näher an den Nutzer herangetragen und gleichzeitig die Latenzen verringert werden müssen, um auf das Internet of Things vorbereitet zu sein. Es besteht kein Zweifel daran, dass die Consumerization of IT und BYOD die Nutzung und demnach den Verbrauch an Bandbreiten ansteigen lassen werden.

Immer mehr Nutzer greifen auf mobile Lösungen zurück, um ihre Geschäfte abzuwickeln und mit dem Privatleben in Einklang zu bringen. Immer reichhaltigere Inhalte und Daten werden über Cloud Computing Plattformen an die „Ecken“ des Internets ausgeliefert wo gleichzeitig die Bedürfnisse der Anwender immer größer werden. Mit der Zunahme der Daten-und Cloud-Services Nutzung wird Fog Computing eine zentrale Rolle spielen und dabei helfen die Latenzen zu verringern und die Qualität für den Nutzer zu verbessern. In Zukunft werden wir neben immer größeren Datenmengen ebenfalls mehr Services sehen, die auf Daten zurückgreifen und dem Nutzer effizienter bereitgestellt werden müssen. Administratoren und Anbieter erhalten durch Fog Computing die Möglichkeit ihren Kunden umfangreiche Inhalte deutlich schneller und effizienter und vor allem viel wirtschaftlicher bereitzustellen. Dies führt zu einem schnelleren Zugriff auf die Daten, bessere Auswertungsmöglichkeiten für Unternehmen und gleichermaßen zu einer verbesserten Nutzung für den Endnutzer.

In erster Linie wird Cisco das Wort Fog Computing prägen wollen, um es für s(eine) groß angelegte Marketingkampagne zu nutzen. Allerdings, spätestens wenn der Fog einen ähnlichen Buzz wie die Cloud erzeugt, werden wir immer mehr CDN oder anderweitige Hersteller, die etwas in die Richtung anbieten, als Fog-Anbieter wiederfinden.

Tags: , , , , ,

Category: Analysen

René Büst

About the Author ()

Rene Buest is Senior Analyst and Cloud Practice Lead at Crisp Research, covering cloud computing, IT infrastructure, open source and Internet of Things. Prior to that he was Principal Analyst at New Age Disruption and member of the worldwide Gigaom Research Analyst Network. Rene Buest is top cloud computing blogger in Germany and one of the worldwide top 50 bloggers in this area. In addition, he is one of the world’s top cloud computing influencers and belongs to the top 100 cloud computing experts on Twitter and Google+. Since the mid-90s he is focused on the strategic use of information technology in businesses and the IT impact on our society as well as disruptive technologies. Rene Buest is the author of numerous professional cloud computing and technology articles. He regularly writes for well-known IT publications like Computerwoche, CIO Magazin, LANline as well as Silicon.de and is cited in German and international media – including New York Times, Forbes Magazin, Handelsblatt, Frankfurter Allgemeine Zeitung, Wirtschaftswoche, Computerwoche, CIO, Manager Magazin and Harvard Business Manager. Furthermore Rene Buest is speaker and participant of experts rounds. He is founder of CloudUser.de and writes about cloud computing, IT infrastructure, technologies, management and strategies. He holds a diploma in computer engineering from the Hochschule Bremen (Dipl.-Informatiker (FH)) as well as a M.Sc. in IT-Management and Information Systems from the FHDW Paderborn.

Comments are closed.