Die meisten schon Anfang der 90er Jahre gegen Großrechner vorgebrachten Argumente scheinen tatsächlich auch heute noch Gültigkeit zu besitzen: Sie kosten Millionen, sind proprietär, nur von teuren Fachleuten zu warten und kommen nicht mit modernen Client-Server-Anwendungen zurecht. Im kurz darauf anbrechenden Internet-Zeitalter kam noch das Argument hinzu, dass die Systeme nicht für die volatilen Nutzerzahlen im Web ausgelegt waren.
Umgekehrt erhielten sich aber auch die Vorzüge: In Sachen Massendurchsatz, Auslastung, Zuverlässigkeit und Sicherheit sind Großrechner nach wie vor unübertroffen. Dennoch: Schon 1996 bewies der IT-Konzern Hewlett-Packard durch das Abschalten seines letzten Mainframes, dass es auch ohne geht.
Zu diesem Zeitpunkt liefen bei IBM die Rettungsversuche bereits auf Hochtouren. Von den Kunden nahezu unbemerkt blieb eine Öffnung der Betriebssystem-Schnittstellen, die sogar so weit ging, dass das OS/390-Betriebssystem bei den Standardisierungsgremien als Unix-Derivat durchging.
Erfolgreicher war schon der gegen Microsofts fette Clients gerichtete Vorstoß für schlanke Network Computer (NCs), die als modernes Front-End für Server-Systeme (darunter Mainframes) hätten durchgehen können – wenn das Konzept nicht an mangelnder Bandbreite, Applikationsmangel sowie am Microsoft-Marketing für Lean-Windows-Clients (dank Citrix-Technik) aus dem Licht der Öffentlichkeit verschwunden wäre.
Mit der folgenden eBusiness-Kampagne gelang es IBM zwar, einen Begriff branchenweit zu etablieren, nicht aber, seine Mainframes als Internet-Maschinen zu empfehlen. Erst als das Unternehmen seine Systeme für das Open-Source-Betriebssystem Linux öffnete, wuchs die Reputation der Großrechner wieder.
All diese Bemühungen konnten nichts gegen den Siegeszug der x86-Architektur für Client-Server- und Web-Umgebungen ausrichten. Moderne Anwendungen entstanden seither an PC-Workstations. Die IT-Infrastruktur standardisierte sich auf dieser Plattform, insbesondere bei den vielen Startups der Internet-Welle, aber auch bei den wachsenden Mittelständlern. Das kontinuierliche Zukaufen von preiswerten Windows- und Linux-Servern galt bald rasch als weniger riskanter Wachstumspfad als der Einstieg in die teure RISC– und Mainframe-Welt.
Großrechner dagegen wurden im Rahmen der anhaltenden Rechenzentrums-Konsolidierung fast nur noch als Sammelbecken für proprietäre Anwendungen gesehen. Die Folge: Die Mainframes wurden zwar größer, aber weniger. Neukunden findet IBM dafür so gut wie keine mehr. Das Know-how für diese Architektur geht verloren.
Page: 1 2
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…