Viel wird momentan über das Thema „Cloud Computing“ diskutiert. Interessant dabei ist, dass es bis heute keine klare Definition dieses Begriffes gibt und von ganz alltäglichen Web-Anwendungen, über Daten- und Applikations-Services bis zum Virtual Desktop vieles darunter verstanden wird.
Beschäftigt man sich nicht primär mit den Eigenschaften der Cloud, sondern geht einfach einmal der Frage nach, welche Rolle der PC in ihr in Zukunft spielen wird, lässt sich folgende Definition für die über das „normale“ Internet hinausgehende Funktionen als Arbeitsgrundlage verwenden:
Unter diesen Voraussetzungen stellt sich die Frage, auf welche Art der Zugriff auf die Cloud erfolgen wird. Wir sind daran gewöhnt, dass es auf diese Frage nur eine Antwort gibt: via PC. Über die letzten 20 Jahre hat sich die installierte Rechenleistung von Mainframes über Mini-Computer hin in die PCs verlagert, mit der Folge, dass diese immer höhere Rechenleistung benötigten und Daten auf den lokalen PCs sehr dezentral, oft unkontrolliert und ohne Backup verwaltet werden. Der PC entwickelte sich aufgrund seiner offenen Architektur und Vielfältigkeit mit der Zeit zum „Schweizer Messer“ der IT-Industrie.
Ein neuer Paradigmenwechsel
Betrachtet man die oben genannte Definition von Cloud Computing näher, fällt auf, dass ein erneuter Paradigmenwechsel stattfindet. Applikationen, die früher auf jedem einzelnen PC ausgeführt wurden, sind jetzt im Web verfügbar und zwar basierend auf Browser-Schnittstellen, zum Beispiel Google Apps.
Verschiedene Betriebssysteme werden auf Firmen-Servern oder auch zentral in der Cloud auf virtualisierten Servern, zum Beispiel der IBM Virtual Client Solution, zur Verfügung gestellt und auf die Clients projiziert. Ein wichtiger Vorteil ist die zentrale Verwaltung von OS, Daten und Applikationen, ein anderer die Möglichkeit, statt immer leistungsstärkerer PCs auch Thin Clients einsetzen zu können.
PC nicht mehr die einzige Lösung
Diese basieren aber in den meisten Fällen immer noch auf der etablierten PC-Architektur mit x86-CPU, einem Microsoft-Betriebssystem und bieten eine eingeschränkte, aber völlig ausreichende Leistung. Außerdem erlauben sie eine verbesserte Kostenstruktur und haben einen geringeren Energiebedarf.
Es ist aber interessant zu beobachten, dass das geliebte „Schweizer Messer“ PC nicht mehr die einzige und unter Umständen auch nicht mehr die beste Lösung ist. Zum ersten Mal seit langem bietet sich die Möglichkeit einer Diversifizierung des Client-Marktes mit klaren Vorteilen für die Anwender.
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…