Thin Clients

[ 2 ] März 11, 2010 |

IT-Abteilungen leben neben einem erhöhten Kostendruck zusätzlich mit den Problemen der Sicherheit und der Aufrechterhaltung des IT-Betriebs.

Der in den letzten Jahren immer mal wieder aktuell gewordene und dann wieder verblasste Ansatz der Thin Client Nutzung kann der IT helfen diese Probleme zu bewältigen, verfügen Thin Clients doch gegenüber den klassischen Desktop PCs über einige Vorteile.

Zunächst sind Thin Clients – wie der Name schon andeutet – sehr einfach und weniger komplex als Desktop PCs. Das liegt zum einen an den geringeren und funktional beschränkten Hardwareressourcen, zum anderen an der eingesetzten Software. Die benötigte Software wird serverseitig betrieben, wodurch ein lokales „vollwertiges“ Betriebssystem nicht benötigt wird. Diese beiden Kernpunkte sorgen dafür, das Thin Clients weniger sensibel bzgl. Fehler und Angriffe sind.

Von Desktop PCs wird heutzutage erwartet, dass sie 24/7 funktionsfähig sind. Dabei wird jedoch nicht bedacht, das nicht vorhersehbare Situationen, wie Hackerangriffe, der Ausfall der Hardware oder ganz einfach Benutzer dafür verantwortlich sind, das dem nicht so ist und niemand diese Erwartungen gewährleisten kann.

Speziell die Einflussnahme der Benutzer auf die Systemkonfiguration erhöht auf Thin Clients, durch das Beschränken oder vollständige entziehen der Rechte, die Systemstabilität und schützt den Benutzer und das gesamte Unternehmensnetzwerk vor Angriffen durch Viren, Würmer und jeglicher Form von Malware. Weiterhin wird die Stabilität und der Schutz erhöht, da Thin Clients ihre Anwendungen von einem oder mehreren zentralen Servern beziehen und nicht mehr – wie Desktop PCs – auf lokale Anwendungen und ein vollwertiges lokales Betriebssystem angewiesen sind.

Trotz hinreichender Anordnung speichern Benutzer ihre Daten generell auf der lokalen Festplatte und nicht wie gefordert auf die dafür vorgesehenen Netzlaufwerke, also auf den zentralen Servern. Nicht selten hört man von Fehlern der Festplatte die dazu führen, dass die Arbeit eines Tages in kurzer Zeit hinfällig war und erneut erledigt werden muss. Der Diebstahl der Daten sollte auch hier nicht außer acht gelassen werden. Auf der anderen Seite sind Benutzer in diesem Fall für Backups selber zuständig, was verständlicherweise gerne mal vergessen wird. Da Thin Clients über keine lokalen Daten verfügen, sind damit alle oben genannten Probleme hinfällig. Das Speichern der Daten erfolgt auf zentralen Servern, wo von ihnen jeden Tag automatisiert ein Backup vorgenommen wird. Dazu kommt, dass wenn keine lokalen Daten vorhanden sind, diese auch nicht gestohlen werden können. Zudem reicht es aus, Desktop-Firewall Konzepte serverseitig einzurichten, wodurch der Administrationsaufwand verringert wird.

Der letzte Themenbereiche behandelt die physikalische Sicherheit der Systeme. Werden Desktop PCs gestohlen, ist der Angreifer im schlimmsten Fall im Besitz unternehmenskritischer Daten (Festplattenverschlüsselung hin oder her). Thin Clients hingegen werden erst dann sinnvoll, wenn sie mit einem Server des Unternehmensnetzwerks verbunden sind und haben außerhalb des Unternehmens für den Angreifer keinen Nutzen. Auch der Diebstahl der Daten durch den Anschluss externer Geräte wie USB-Sticks oder USB-Festplatten oder das Übertragen von Viren etc. durch CDs stellt ein nicht zu verkennendes Problem dar. Der Zugriff kann bei Desktop PCs natürlich unterbunden werden. Das physikalische entfernen stellt sich jedoch als ziemlich schwierig und aufwendig dar. Fällt die Entscheidung daher auf Thin Clients, sollte mit den Gedanken gespielt werden sich gegen physikalische vorhandene USB-Ports und CD/DVD Laufwerke zu entscheiden.

All die oben beschriebenen Probleme der Desktop PCs können natürlich durch diverse Softwareangebote behoben werden. Jedoch verursachen diese wiederum Anschaffungs-, Installations- und Wartungskosten. Zudem ist die Verträglichkeit mit vorhandener (spezial)-Software nicht garantiert.

Erweitern wir den Thin Client Gedanken nun um das Thema Cloud Computing ist es durchaus vorstellbar, dass die Infrastruktur für die Terminalserver nun nicht mehr im eigenen Rechenzentrum steht, sondern als Appliance/Image oder einem Terminalserver in einer Cloud z.B. von Amazon, GoGrid oder einem anderen Anbieter gehostet wird. Ein Unternehmen müsste dann lediglich über die Hardwareressourcen (Thin Clients) und eine schnelle Internetverbindung verfügen. Das ist wohlgemerkt natürlich eine sehr abstrakte und ideale Sicht auf das Thema, die noch tiefer durchdrungen werden muss.

Quelle der Graphik

  • NetPoint

Tags: , , , , , , , , , , , , , ,

Category: Management

René Büst

About the Author ()

Rene Buest is Senior Analyst and Cloud Practice Lead at Crisp Research, covering cloud computing, IT infrastructure, open source and Internet of Things. Prior to that he was Principal Analyst at New Age Disruption and member of the worldwide Gigaom Research Analyst Network. Rene Buest is top cloud computing blogger in Germany and one of the worldwide top 50 bloggers in this area. In addition, he is one of the world’s top cloud computing influencers and belongs to the top 100 cloud computing experts on Twitter and Google+. Since the mid-90s he is focused on the strategic use of information technology in businesses and the IT impact on our society as well as disruptive technologies. Rene Buest is the author of numerous professional cloud computing and technology articles. He regularly writes for well-known IT publications like Computerwoche, CIO Magazin, LANline as well as Silicon.de and is cited in German and international media – including New York Times, Forbes Magazin, Handelsblatt, Frankfurter Allgemeine Zeitung, Wirtschaftswoche, Computerwoche, CIO, Manager Magazin and Harvard Business Manager. Furthermore Rene Buest is speaker and participant of experts rounds. He is founder of CloudUser.de and writes about cloud computing, IT infrastructure, technologies, management and strategies. He holds a diploma in computer engineering from the Hochschule Bremen (Dipl.-Informatiker (FH)) as well as a M.Sc. in IT-Management and Information Systems from the FHDW Paderborn.

Comments (2)

Trackback URL | Comments RSS Feed

  1. Martin Reti sagt:

    Hallo Herr Büst,

    schöner Beitrag zum Thema: Wie sieht der Arbeitsplatz morgen aus. Doch alles steht und fällt mit den Netzen und der Anbindung. Das mag bei festen Arbeitsplätzen ja noch gehen, aber mobil?

    Google geht genau in diese Richtung. Das sollte zu denken geben.
    Aber auch bei den PC-Cracks ist immer noch ein Festhalten am „eigenen leistungsfähigen Desktop“ zu spüren. Verfolgte gestern eine ziemlich aufgeregte Diskussion zu dem Thema.

    Bin mal gespannt, wo das hingeht.

    Beste Grüße
    Martin Reti

  2. Hallo Büst, Hallo Herr Reti,

    ich stimme Ihnen zu, diese „Diskussion“ werden Sie in fast jedem Unternehmen finden, die von einer Client/Server Topologie zu einer Terminal Server oder VDI Installation schwenken. Ich bin die letzten Jahre in genau diesem Bereich unterwegs und kenne die Herausforderung zu genüge. Einen leistungsfähigen Desktop können die Anwender ja ohnehin bekommen, es ist eben nur die Psyche, die dazwischenspielt. Das ehemals „große“, „leistungsfähige“ Gerät unter dem Tisch ist ja weg. Selbst wenn es ein altertümlicher PC ist und die Terminal/VDI Umgebung leistungsfähiger wird es dennoch auftreten, bis die Menschen verstanden haben, dass man Ihnen nicht wirklich etwas wegnimmt. Hat die Migration dann angefangen und die ersten Mitarbeiter begeistert worden, dann geht es ganz schnell und jeder möchte das Neue.

    Die im Artikel beschriebenen Ansätze der Desktop-Virtualisierung, voran das Thema Datensicherheit predige ich bei meinen Kunden seit Jahren, doch leider wird es häufig durch o.g. Tatsachen verlangsamt.

    Der Ansatz des virtuellen Desktops wird schon aufgrund der Flexibilität zukünftig die Hauptrolle in der Client-Welt eines Unternehmens einnehmen, davon ist auszugehen.

    Ich kann mir vorstellen, dass Firmen in der Zukunft ähnlich wie beim wählen Ihres Strom oder Kabelanbieters die Wahl haben. Die Anforderung an einen Desktop-Service inkl. der gewünschten Anwendungen kann dann wie bei eine Kabelanbieter geordert werden. Das was aus der Leitung kommt ist genau der Service, den der Kunde sich dann gewünscht hat. Es wird dem Kunden dann aber trotzdem nicht erspart bleiben, die vereinbarten SLA’s durch ein ausgereiftes Monitoring zu überwachen. Auf der anderen Seite muss der Betreiber dies auch und zudem das nötige Billing betreiben.

    Durch Standards, wie das OVF (Open Virtual Format) wird es dem Kunden dann auch möglich sein, seine Desktops von einem Provider zum nächsten zu verschieben. Heute ist es meiner Meinung nach noch zu proprietär. Gehen wir mal davon aus, Amazon könnte Desktop Betriebssysteme hosten, dann wäre es sicherlich bei Wunsch, sehr schwierig, die dort gehostete Infrastruktur zu einem anderen Anbieter umzuziehen.

    Viele Grüße

    Christoph Harding

Leave a Reply

You must be logged in to post a comment.