Cloud – zwischen Versprechen und Wirklichkeit

[ 2 ] März 5, 2012 |

Cloud Computing wird – wie wir alle wissen – die nächsten 20 Jahre der IT-Industrie bestimmen – zumindest sagte das Frank Gens, der IDC-Analyst, 2010. Gemeinsam mit Larry Ellisons „It´s complete gibberish“ aus unserer Sicht das wichtigste Zitat im Zusammenhang mit Cloud Computing.

von Dr. Michael Pauly & Dr. Martin Reti

Beide Zitate markieren perfekt die beiden Pole, zwischen denen das Spannungsfeld des Cloud Computing aufgespannt wird. Himmelhochjauchzend, zu Tode betrübt – oder anders formuliert: Visionär mit Revolutionspotenzial vs. nutzlose Luftblase. Die Wahrheit wird – und dafür muss man kein Philosoph sein – dazwischen liegen. Doch näher an welchem der beiden Pole?

Bestimmend für die nächsten 20 Jahre? Eine doppelbödige Aussage: Sie könnte vordergründig bedeuten, dass der Cloudtrend tatsächlich 20 Jahre überleben wird und wir wie der alte Methusalix in unseren alten Tagen immer noch auf das Konzept anstoßen werden: „Damals in der Cloud …“. Es könnte aber auch bedeuten, dass die IT-Industrie 20 Jahre brauchen wird, um das Konzept des Cloud Computing tatsächlich so umzusetzen, wie wir es heute erträumen. Jaja, der Weg von der Theorie in die Praxis ist weit ;-). Dabei unterstellen wir natürlich, dass es eine Cloud-Theorie gibt. Aber ist das wirklich der Fall?

Complete Gibberish? Es war – Larry Ellison hin oder her – schon ein mutiger Schritt so gegen das neue Sourcingkonzept zu wettern und natürlich bekommt man damit Klicks und eine bleibende Prominenz im Thema. Markige Sprüche zählen halt immer noch. Aber je länger Cloud Computing uns beschäftigt, desto häufiger ist Ellison im Recht: Zu viele Dinge werden umetikettiert und Cloud-gewaschen. Jeder Dienst, der auch nur im entferntesten nach einem der NIST-Kriterien riecht, wird plötzlich als eine Neuschöpfung der Cloud präsentiert. Und dann stellen wir die Frage: „Warum fliegen die potenziellen Nutzer, insbesondere im Mittelstand, nicht auf Cloud?“ Vielleicht weil sie sich verunsichert oder gar veralbert fühlen? Oder aber haben sie – wie man es aus den Kommentaren einiger entnehmen kann – nur noch nicht richtig verstanden? ;-) Ein weithin beliebtes Argument der Anbieter, mit dem sie gerne den schwarzen Peter für die noch nicht ausreichende Akzeptanz an die potenziellen Kunden zurückgeben.

Erwartungen über Erwartungen

Was wir von Cloud Computing erwarten, das spiegeln die verschiedenen Definitionen wider, deren Zahl 2011 Legion sein dürfte. Erstaunlich ist, dass sich noch keine Definition als die einzig wahre heraus kristallisiert hat. Wo doch viele von sich behaupten, die einzig wahre Cloud zu besitzen bzw. zu betreiben.

Wir hören von Nutzen statt Besitzen, wir erwarten „pay as you use“, Verfügbarkeit und Skalierbarkeit „on demand“ oder dynamische IT, die sich an dynamischem Business orientiert oder auch Komplettfunktionalitäten, die „as a Service“ erbracht werden. Populär auch die Erklärung, dass Dienste nicht mehr lokal, sondern in weit entfernten Rechenzentren unbekannter Provider erbracht werden – und das ist die Basis erbitterter Compliance-, Rechts-, Datenschutz- und Sicherheitsdispute. Manche fordern Standards, Offenheit, Ausfallsicherheit oder Wahlfreiheit – aber diese Ansprüche scheinen schon nicht mehr mehrheitsfähig.

Es ist immer der Nutzen, der Gewinn, der einen möglichen Nutzer von einem Dienst überzeugt. Besonders einsichtig ist dieser (persönliche) Gewinn, wenn ich die kostenlos verfügbaren Dienste im Internet nutze. Die Geschwindigkeit, der Komfort, die Einfachheit und die Kostenlosigkeit – in Verbindung mit der Ansicht, im großen Schlaraffenland für IT-Nutzer gelandet zu sein, in dem für jeden ein passendes Eckchen ist und in dem es noch viel mehr Interessantes zu entdecken gibt, das kann eine euphorisierende Mischung sein.

Letztendlich lässt sich die Cloud-Welt in zwei Hälften teilen. Für die einen dreht sich die Cloud um das Business. Für die anderen dreht sich das Business um die Cloud. Lassen sich diese Fälle voneinander trennen?

„Cloud ist Remote Access“ – Servicenutzung über Netze

Längere Diskussionen über eine nicht-lokale, also entfernte Serviceerbringung anderswo („remote“, evtl. delokalisiert), wobei die Dienste über – wie auch immer geartete – Netze verfügt werden, sollten wir von der Legitimierungsliste eines Cloud Service streichen. Es ist ein sine qua non, eine Bedingung, ohne die wir gar nicht erst anfangen, über Cloud zu reden. Auf der anderen Seite ist es heute schon Usus, sowohl bei Privatleuten als auch in Großunternehmen, dass vielerlei Applikationen nicht lokal auf dem Rechner, sondern in Rechenzentren erbracht werden, deren genaue örtliche Lage, den Nutzer in der Regel auch gar nicht interessiert. Es sei denn, er sei ein Rechtsanwalt, ein Auditor oder ein Industriespion ;-).

„Darf´s ein Pfund mehr sein?“ – Pay as you use

Wann immer das Gespräch auf Cloud Computing kommt, ist man schnell beim „pay as you use“. Mancher Anbieter modifiziert das dann zu „pay as you order“ – du zahlst, was Du bestellst, auch wenn Du es nicht nutzt. Tatsächlich gibt es Anbieter, die den originären Anspruch erfüllen, und denen darf auch der „Orden für eine seriöse Umsetzung des Cloudgedankens“ angesteckt werden. Andere hingegen verstehen Cloud Computing als ein betriebswirtschaftliches Modell, das mit reinen Rechenspielchen – aber ohne die notwendige zugrunde liegende Technik und das IT-Management – in Kosten/Nutzungsrechungen realisiert wird. Und da entstehen dann Blüten wie Basisgebühren oder Aussagen wie „Lieferung erst ab einer bestimmten Menge“. Und dabei spielen natürlich fehlende dynamische Lizenzierungsmodelle seitens der Software-Anbieter auch eine entscheidende Rolle.

Oder aber Preise, in denen alle möglichen Auslastungsausfälle eingepreist sind und bei denen die Nutzer für die Nichtnutzer mitbezahlen. Oder es wird ganz simpel ein klassischer Preis in Chargen zerlegt und Mindestlaufzeiten sichern den Anbieter gegen kurzfristig wegbrechende Kundennachfrage ab. Da ist das Angebot einer Flatrate vielleicht gar nicht der dümmste Einfall, weil man dadurch wieder eine Kostenkontrolle bekommt, die „pay as you use“ nur dann hergibt, wenn man sich selbst entsprechend bezähmt. Vergessen wir aber in der ganzen Diskussion nicht, dass Cloud Computing ursprünglich deswegen so erfolgreich ist, weil Dienste über das simpelste denkbare Abrechungsmodell „eingekauft“ werden: Sie sind (in bestimmten Grenzen) kostenlos.

„Ich weiß, wo Deine IT wohnt“ – Transparenz

Interessant ist zu beobachten, dass IT-Verantwortliche nicht mehr so sehr den Kostensenkungsaspekt an Cloud Computing wahrnehmen, sondern vielmehr die Transparenz als Vorteil preisen. Das scheint tatsächlich ein Sprung voran zu sein, weil etablierte inhouse-Landschaften gerade in großen Unternehmen mit der Zeit unübersichtlich geworden sind und im Dickicht von Abschreibungen, Dutzenden verschiedener Managementtools und Umorganisationen der Überblick schon lange verloren ging. Hier ist Cloud Computing eine zweifache Antwort: Zum einen kann man wie Jaguar Landrover den großen Schnitt machen und mit einem Schlag eine Standardisierung und Vereinheitlichung herbeiführen, zum anderen kann im gleichen Zug ein Monitoring zur Kosten- und Nutzungskontrolle eingeführt werden.

Doch ist das typisch für Cloud Computing? Etablierte Serviceanbieter müssen ihren Kunden schon seit Langem genau auflisten, wofür jener sein Geld überweist. Ein ausführliches Monitoring mit einem Monatsreporting ist dafür Usus. Genauso wie die unzähligen Konsolidierungsprojekte, in denen die Anzahl der Plattformen und RZ-Standorte regelmäßig reduziert wird.

„Von der Stange“ – Standards

Dabei ist das Monitoring standardisierter Services, die aus Ressourcenpools im Multimandantenmodus erbracht werden, natürlich einfacher (weil industrialisierter) zu handhaben, als in heterogenen, gewachsenen Landschaften. Standardisiertes Angebot und eine standardisierte Serviceerbringung gehören also zum Wesen von Cloud Computing.

Leider kann man Standardisierung aber auch anders verstehen. Denn in der Cloud gilt meist: „Wenn schon ein Standard, dann meiner“. Und das führt dann zu einem neuen Potpourri von Standards. Wahlfreiheit des Nutzers? Weitgehend Fehlanzeige. Nicht zu Unrecht fürchten viele, in einer neuen Welt der Cloud in Abhängigkeiten von Dienstleistern zu geraten. Was schon mit der Frage beginnt, wie man im Falle des Falles seine Daten ins eigene Haus zurückbekommt. Nicht mal auf der Ebene des IaaS ist es bislang gelungen, ein „Tankstellenmodell“ zu etablieren, das den Nutzern eine tagesaktuelle Auswahl des Providers erlaubt. Obwohl hier natürlich im Rahmen einer zeitlich begrenzten (ad hoc) Nutzung auch kein Bedarf besteht. PaaS und SaaS? Kein Wunder, dass angesichts dieser Sachlage die alte Diskussion über offene Standards auch in der Cloud ausgetragen wird.

Aber eigener Standard ist nicht nur eine Attitüde des Anbieters, sondern genauso der Nutzerseite. „Wir wollen zwar einen Service aus der Cloud, aber für uns kommt ein Standardangebot nicht in Frage“. Dann wird ein individuelles Kundenprojekt aufgesetzt, das in einer individuellen Lösung mündet. Und das wird dann als erfolgreiches Cloudprojekt vermarktet. Genauso wie das nächste Kundenprojekt, das eine eigene Plattform benötigt, aber ein „pay as you use“-Abrechnungsmodell hat.

„Get into the Pool“ – Skaleneffekte, Elastizität, Ausfallsicherheit

Ressourcenpools sind – neben den Netzen – das Rückgrat oder, wenn man so will, das Gehirn der Cloud. Sie erwecken den Eindruck unendlicher Ressourcen, die schnelle Adaption der Ressourcen an die Last auf der Anwendung (Skalierung). Doch wie weit geht der Pooling-Gedanke? Möchten Großunternehmen beispielsweise dieselbe Plattform mit ihrem Wettbewerber oder Privatkunden teilen? Oder bevorzugt man dann nicht eher eine „dedizierte“ Cloud für die unternehmenseigenen Belange? Und wenn das jeder möchte, wo ist dann der Pooling-Gewinn – insbesondere was die vielfach beschrienen grünen Aspekte angeht? Ressourcenpools leben vom Mitmachen aller – auch der Nutzer. Jeder, der nicht mitmacht, schmälert den möglichen Nutzen. Dafür gibt es nachvollziehbare Gründe, die in der Regel einem hohen Sicherheitsdenken geschuldet sind. Aber durch die „mein eigenes sicheres Häuschen“-Haltung wird der Gedanke der Cloud massiv untergraben. Skaleneffekte entstehen so nur in bedingtem Umfang – auch wenn manches Großunternehmen genügend Manövriermasse dafür hat. Im Fall der eigenen „Cloud im Keller“ darf man dann auch die Frage stellen, wie es mit der Skalierbarkeit steht. Nachvollziehbar erscheint vor diesem Hintergrund die Vereinbarung einer Maximal- bzw. Minimallast, die evtl. sogar noch zeitlich verzögert ist.

Eine „natürliche“ Konnotation zu Ressourcenpools hat die Ausfallsicherheit. Der Gedanke dahinter ist ebenso einfach wie brillant: Wenn man aus Pools auch eine Hoch-und-Runter-Skalierung realisieren kann, können natürlich ausgefallene Systeme blitzschnell ersetzt werden. Intakte Systeme übernehmen, ohne dass die Nutzer es merken, die Arbeit der abgetretenen – womöglich sogar über verschiedene Erdregionen hinweg. Eine optimierte Ressourcenauslastung nach dem „Follow the Sun“-Prinzip wird beschworen. Das hat was Borgisches, wenn dem System kein Schaden zugefügt werden kann. Angesichts des jüngsten Ausfalls im irischen Amazon-RZ mit tagelangen Aufräumarbeiten darf diese Hoffnung doch mit gestiegener Skepsis gehegt werden.

„Drück aufs Gas“ – Geschwindigkeit

Zuletzt noch ein Streifzug über DAS Killerargument für Cloud Computing: die Geschwindigkeit. Noch vor möglichen Kostenersparnissen rangiert die Geschwindigkeit der Verfügung als einer der Top-Nutzen von Cloud Computing. Und das zu Recht. Sieht man die andere Seite der Medaille, ist das natürlich ein Armutszeugnis. IT ist mit dem Anspruch angetreten, das Geschäft schneller und dynamischer zu machen. Und entdeckt nun – im fortgeschrittenen 21. Jahrhundert – endlich die Option selber dynamisch zu werden. Wo bisher das Bestellen eines Servers Wochen und Monate in Anspruch nahm, machen die Internet-bekannten Webbestell- und Liefervorgänge Hardware-Kapazitäten und komplette Applikationen in Minutenschnelle verfügbar – User Self Service.

Müssen die Ressourcen allerdings per Mail, per Telefon oder womöglich mit Rückantwort per Fax geordert werden, je nach Compliance, die im eigenen Hause gilt oder müssen Bestellvorgänge die Einkaufsprozesse in großen Häusern durchlaufen, ist der Spaß an IT aus der Dose schnell dahin. Auch wenn mancher Lieferant vielleicht – durchaus aus guten Gründen – noch mit Modellen des letzten Jahrhunderts agiert, so muss doch das Nutzerunternehmen bereit sein für den Umgang mit Cloud Computing: Prozesse, Organisation und Kultur müssen sich einer Nutzung von Cloud Computing genauso stellen wie der Nutzung von Web 2.0.

Schlussakkord

Auch nach Jahren der Diskussion wissen wir immer noch nicht endgültig, was Cloud Computing ist. Und wir werden es wahrscheinlich auch nie wissen. In unseren Köpfen entstehen – je nach Nutzen und (negativen/positiven) Erfahrungen – Bilder von Cloud Computing. Der Mehrwert der „Technologie“, des Sourcingkonzepts, des Geschäftsmodells … wird sich im konkreten Fall erweisen müssen. Und wenn der Einsatz auf Basis unbedachter Rahmenbedingungen (beispielsweise Latenzen) fehlschlägt, will das womöglich nur bedeuten, dass Cloud Computing in diesem konkreten Fall, unter diesen Rahmenbedingungen, mit diesem Provider, mit diesem Service oder mit diesem Nutzer nicht funktioniert. Vielleicht kann man ja diese Herausforderung ganz klassisch lösen? Was auf der Kehrseite bedeutete, dass man wirklich nicht überall ein Cloudetikett anhängen muss, sondern mal einfach auf den Nutzen schauen kann, den Anbieter und Nutzer gemeinsam erzielen können.

Da wir uns aber 2011 erst im Jahr 1 der von Frank Gens prophezeiten 20-Jahresperiode befinden, haben wir ja noch 19 Jahre Zeit, um unsere Städte in den Wolken zu bauen. Und complete gibberish ist vielleicht doch ein bisschen fehlbewertet. Man darf weiterträumen. Fest steht: Derjenige, der es als erster schafft, die großen Kundenträume aus der Cloud wahr zu machen, wird gewinnen – wenn er selbst konsequent und konsistent „in die Cloud geht“.

Ach ja, was sich jetzt um was dreht, das ist in der Cloud wie im Universum eine Frage des Standpunktes. Bin ich in der Wolke oder außerhalb? Betrachte ich das Ganze aus dem Business heraus oder aus der IT? Damit bleibt alles so „unklar“ bzw. cloudy wie zuvor. Nur eines ist sicher: Es dreht sich doch!

Michael Pauly & Martin Reti

p.s.: Vor etwas 20 Jahren kam das erste Windows-Betriebssystem auf den Markt. Wenn wir dieses mit dem heute aktuellen vergleichen, dann können wir etwa erahnen, was uns erwarten wird. Natürlich alles nur noch viel schneller.

Category: Gastbeiträge

About the Author ()

Leave a Reply

You must be logged in to post a comment.