Die Herausforderungen des Cloud Computing: Latenz der Datenverbindungen

[ 2 ] Februar 21, 2012 |

Mit der Adaption von Cloud Computing Technologien und Services stehen Unternehmen Herausforderungen gegenüber, die es zu bewältigen gilt. Zum einen müssen organisatorische Voraussetzungen geschaffen und Aufklärungsarbeit innerhalb des Unternehmens geleistet werden, um die Akzeptanz und das Verständnis zu stärken. Zum anderen treffen aber auch viele “Widerstände” von außen auf das Unternehmen. Das sind neben Fragen bzgl. der Sicherheit und des Datenschutz ebenfalls Themen zur Verfügbarkeit und Performanz des ausgewählten Cloud Service sowie dessen Integrationsfähigkeit in die bereits bestehende IT-Infrastruktur und die nahtlose Unterstützung der vorhandenen Geschäftsprozesse. Und wie auch schon aus den klassischen Sourcingmöglichkeiten bekannt, besteht auch im Cloud Computing die Angst, in die Abhängigkeit eines einzigen Anbieters zu verfallen. So müssen auch hier die Interoperabilität und die Schnittstellen des Anbieters sowie ein Vergleich zu anderen Anbieteren vorgenommen werden.

Ist die Entscheidung für die Nutzung des Cloud Computing gefallen, ist es für Unternehmen zunächst an der Zeit, eine Ist-Analyse der bestehenden IT-Infrastruktur und Systeme vorzunehmen, um auf Basis dieser zu planen, welche Cloud Services adaptiert werden sollen. Hier kann bspw. eine Kosten-/ Nutzen-Analyse weiterhelfen, bei der auch eine Risikobewertung nicht fehlen sollte. Um erste Erfahrungen auf dem Cloud Computing Gebiet zu sammeln, sollte ein Pilotprojekt initiiert werden, welches auf Grund des Cloud Computing Konzepts schnell und kostengünstig gestartet werden kann. Dieses sollte einem Gesamtverantwortlichen “Cloud” untergeordnert sein, der als zentrale Stelle innerhalb der Organisation für die Adaption und Beratung der einzelnen Abteilungen für dieses Thema zuständig ist. Mit den gesammelten Erfahrungen können dann weitere Projekte gestartet werden und die Adaption unterschiedlicher Cloud Services sukzessive vorgenommen werden.

Latenz der Datenverbindungen

Längere Distanzen zwischen dem Anwender und der Anwendung in der Cloud führen zu einer höheren Latenz beim Datentransfer. Hinzu kommt eine nicht ausreichende Bandbreite sowie Protokolle, die nicht für weite Strecken geeignet sind. Das hat zur Folge, dass ebenfalls die Geschwindigkeit der Anwendung darunter leidet und der Anwender so mit einer langsamen Anwendung arbeiten muss, wie er es von seinem lokalen System in der Regel nicht gewohnt ist. So kann es im schlimmsten Fall dazu kommen, dass das Öffnen und Speichern von Dokumenten in der Cloud ein paar Minuten in Anspruch nehmen kann.

Dietmar Schnabel nennt Ansätze um den Zugriff auf Anwendungen, die sich in der Cloud befinden, zu beschleunigen.

Die Mehrzahl der Unternehmen mit verteilten Standorten leiten den Datenverkehr der Außenstellen zuerst in die Zentrale, wo er über ein Internetgateway inkl. einem Content-Filter in das Internet übertragen wird. Das Nadelöhr ist damit dieser zentrale Gateway, den sich alle Cloud Anwendungen teilen müssen.

Die Außenstellen müssen daher mit einem eigenen lokalen Internetzugang ausgestattet werden, um den zentralen Gateway zu entlasten und jeder Anwendung damit mehr Bandbreite zur Verfügung zu stellen. Dafür müssen in den Außenstellen jedoch dieselben Richtlinien gelten wie bei dem beschriebenen zentralen Ansatz. Hinzu kommt, dass ebenfalls Sicherheitsmaßnahmen für Phishing-Attacken, Malware, Viren, Trojaner usw. vorgenommen werden. Weiterhin sollten die Gateways in den Außenstellen über Caching Funktionen verfügen, um redundanten Datenverkehr zu vermeiden.

Mit der Priorisierung von Anwendungen kann zudem die Latenz bei empfindlichen Protokollen verringert werden. Damit kann bspw. E-Mail Datenverkehr zweitrangig behandelt werden, wo hingegen Echtzeitdaten wie VoIP Daten, Videostreams oder Remoteverbindungen bevorzugt behandelt werden und weiterhin eine Mindestbandbreite zugewiesen bekommen können.

Ebenfalls hilfreich können “[…] Algorithmen zur Optimierung von ineffizienten Protokollen wie etwa Microsoft CIFS oder MAPI […]” sein, mit denen die Reaktionszeit der Anwendungen in der Cloud erhöht werden.


Bildquelle: http://meship.com

Tags: , , , , ,

Category: Analysen

René Büst

About the Author ()

Rene Buest is Senior Analyst and Cloud Practice Lead at Crisp Research, covering cloud computing, IT infrastructure, open source and Internet of Things. Prior to that he was Principal Analyst at New Age Disruption and member of the worldwide Gigaom Research Analyst Network. Rene Buest is top cloud computing blogger in Germany and one of the worldwide top 50 bloggers in this area. In addition, he is one of the world’s top cloud computing influencers and belongs to the top 100 cloud computing experts on Twitter and Google+. Since the mid-90s he is focused on the strategic use of information technology in businesses and the IT impact on our society as well as disruptive technologies. Rene Buest is the author of numerous professional cloud computing and technology articles. He regularly writes for well-known IT publications like Computerwoche, CIO Magazin, LANline as well as Silicon.de and is cited in German and international media – including New York Times, Forbes Magazin, Handelsblatt, Frankfurter Allgemeine Zeitung, Wirtschaftswoche, Computerwoche, CIO, Manager Magazin and Harvard Business Manager. Furthermore Rene Buest is speaker and participant of experts rounds. He is founder of CloudUser.de and writes about cloud computing, IT infrastructure, technologies, management and strategies. He holds a diploma in computer engineering from the Hochschule Bremen (Dipl.-Informatiker (FH)) as well as a M.Sc. in IT-Management and Information Systems from the FHDW Paderborn.

Leave a Reply

You must be logged in to post a comment.