Viel wird momentan über das Thema „Cloud Computing“ diskutiert. Interessant dabei ist, dass es bis heute keine klare Definition dieses Begriffes gibt und von ganz alltäglichen Web-Anwendungen, über Daten- und Applikations-Services bis zum Virtual Desktop vieles darunter verstanden wird.
Beschäftigt man sich nicht primär mit den Eigenschaften der Cloud, sondern geht einfach einmal der Frage nach, welche Rolle der PC in ihr in Zukunft spielen wird, lässt sich folgende Definition für die über das „normale“ Internet hinausgehende Funktionen als Arbeitsgrundlage verwenden:
Unter diesen Voraussetzungen stellt sich die Frage, auf welche Art der Zugriff auf die Cloud erfolgen wird. Wir sind daran gewöhnt, dass es auf diese Frage nur eine Antwort gibt: via PC. Über die letzten 20 Jahre hat sich die installierte Rechenleistung von Mainframes über Mini-Computer hin in die PCs verlagert, mit der Folge, dass diese immer höhere Rechenleistung benötigten und Daten auf den lokalen PCs sehr dezentral, oft unkontrolliert und ohne Backup verwaltet werden. Der PC entwickelte sich aufgrund seiner offenen Architektur und Vielfältigkeit mit der Zeit zum „Schweizer Messer“ der IT-Industrie.
Ein neuer Paradigmenwechsel
Betrachtet man die oben genannte Definition von Cloud Computing näher, fällt auf, dass ein erneuter Paradigmenwechsel stattfindet. Applikationen, die früher auf jedem einzelnen PC ausgeführt wurden, sind jetzt im Web verfügbar und zwar basierend auf Browser-Schnittstellen, zum Beispiel Google Apps.
Verschiedene Betriebssysteme werden auf Firmen-Servern oder auch zentral in der Cloud auf virtualisierten Servern, zum Beispiel der IBM Virtual Client Solution, zur Verfügung gestellt und auf die Clients projiziert. Ein wichtiger Vorteil ist die zentrale Verwaltung von OS, Daten und Applikationen, ein anderer die Möglichkeit, statt immer leistungsstärkerer PCs auch Thin Clients einsetzen zu können.
PC nicht mehr die einzige Lösung
Diese basieren aber in den meisten Fällen immer noch auf der etablierten PC-Architektur mit x86-CPU, einem Microsoft-Betriebssystem und bieten eine eingeschränkte, aber völlig ausreichende Leistung. Außerdem erlauben sie eine verbesserte Kostenstruktur und haben einen geringeren Energiebedarf.
Es ist aber interessant zu beobachten, dass das geliebte „Schweizer Messer“ PC nicht mehr die einzige und unter Umständen auch nicht mehr die beste Lösung ist. Zum ersten Mal seit langem bietet sich die Möglichkeit einer Diversifizierung des Client-Marktes mit klaren Vorteilen für die Anwender.
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…
Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…
Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…
Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.
Die Bundesnetzagentur hat ihr Gigabit-Grundbuch aktualisiert. Drei von vier Haushalten sollen jetzt Zugang zu Breitbandanschlüssen…