Der Kampf um Unternehmenskunden mit Rechenzentren hat sich nach der wirtschaftlichen Erholung deutlich verstärkt. Vor diesem Hintergrund werben die großen Player wie IBM, HP, Oracle, Cisco oder Dell mit neuen Kampagnen um diese Klientel.
Es geht um lukrative Aufträge, denn die Nachfrage nach Rechenkapazität steigt unaufhörlich, erklärte IBM auf der CeBIT. In den letzten drei Jahren sei die Menge digitaler Daten jährlich um über 60 Prozent gewachsen. Auch das Volumen der zu verwaltenden virtuellen Bilder nahm pro Jahr um mehr als 40 Prozent und die Verbreitung von Cloud Computing um über 30 Prozent zu. Doch gleichzeitig werden IT-Budgets noch immer als Mittel zur Kostensenkung betrachtet. So schrumpften die weltweiten IT-Budgets im selben Zeitraum durchschnittlich um 1,3 Prozent.
Um diesen IT-Widerspruch aufzulösen, verfolgen Anbieter wie IBM einen neuen Ansatz. Big Blue bezeichnet seinen nun offiziell als „Smarter Computing“. Vorläufer war ein „Dynamic Infrastructure“ genanntes Programm. Hauptkonkurrent Hewlett-Packard nannte seinen Ansatz früher „Adaptive Computing“ und vermarktet ihn heute als „Converged“.
Unterm Strich geht es dabei um effizientere und innovative Geschäftsprozesse in der IT. Sie sollen es ermöglichen, dass mehr Daten, mehr Workloads und mehr Leistung pro investiertem Geldbetrag verarbeitet werden können – und das in Bezug auf die Parameter Arbeitsaufwand, Stellfläche, Energiebedarf und Technologie. Eine innovative IT, so IBM-Manager Marc Fischer in Hannover, verwandelt Informationen mit Hilfe neuer Technologien in intelligente Services, welche für die Erschließung neuer Umsatzmöglichkeiten und Geschäftsmodelle sorgen sollen.
Rechenzentren sind heute virtuell
Vor dem Aufkommen geografisch verteilter Systeme (Distributed Systems) wurde die gesamte IT, damals noch EDV genannt, durch eine Handvoll hochspezialisierter technischer Experten zentral gemanagt (Mainframes). Doch in den letzten 30 Jahren hat sich die IT demokratisiert: Einzelne Nutzer konnten immer freier über IT-Technologien verfügen, die immer einfacher anzuwenden waren. Das wiederum führte dazu, dass mit der Zeit vielerorts jeder Anwender oder zumindest jede Abteilung über eigene IT-Ressourcen verfügte, um Anwendungen zu entwickeln, zu nutzen sowie Daten und Services zu verwalten. SaaS-Angebote setzen diese Entwicklung im Internet fort und beschleunigen sie noch.
Ein unkontrollierter Wildwuchs war die Folge – sowohl bei den Anwendungen als auch bei der Konfiguration der Geräte und dem Gerätepark selbst. Das Ergebnis: Die IT wurde zu kostspielig – sowohl in der Anschaffung, als auch bei Implementierung und Verwaltung. Nach vorne blickende IT-Entscheider setzen daher auf eine Strategie, bei der das Rechenzentrum der Zukunft kein realer, sondern ein virtueller Ort ist.
Rechenzentren werden so zu Systemen auf Basis intelligenter Architekturen, mit denen sich digitale Ressourcen und Geschäftsprozesse eines Unternehmens integrieren und automatisieren lassen – von der Überwachung der Server, Speicher und PCs bis zur Verwaltung mobiler Endgeräte, Fahrzeugflotten und Sicherheitssysteme in Gebäuden. Alle großen Anbieter bemühen sich, diesen Trend zu bedienen. Sie setzen dabei zum großen Teil auf virtualisierte Server oder sogenannte Private Clouds – was am Ende meistens auf das selbe hinausläuft. Die Kehrseite der Medaille: Passen Kunden nicht auf, büßen sie durch die mit dem Trend hin zu umfassenden Angeboten einhergehenden Konsolidierung auf der Anbieterseite Flexibilität und Wahlfreiheit ein.
Der technologische Standpunkt von IBM
IBM nannte auf der Messe in Hannover das das „University of Pittsburgh Medical Center“ als Beispiel für einen Kunden, der das Programm „Smarter Computing“ schon heute nutzt. In den letzten fünf Jahren verdoppelte das Universitätsklinikum seine IT-Kapazitäten und hielt gleichzeitig die Kosten gering. Frei gewordene Flächen wurden für neue Krankenhausräume genutzt. Dank des neuen Ansatzes konnte das Center jetzt in die Entwicklung des „papierarmen Krankenhauses“ sowie in modernste Technik für „smarte Krankenzimmer“ investieren. Der Dokumentationsaufwand für die Krankenpflege wurde mehr als halbiert, die Qualität der Patientenpflege erhöht.
Heterogenität und Komplexität lassen sich nicht vermeiden. Die unterschiedlichen Datenquellen, Datenbanken und Laufzeitumgebungen sowie die Vielzahl von Servern, Betriebssystemen und Altanwendungen werden nicht einfach über Nacht verschwinden.
Doch mit Hilfe eines Ansatzes wie „Smarter Computing“ könnten diese Unternehmen ihre Daten und Systeme durch standardisierte Einsatzverfahren für jede Art von Workloads integrieren. Gleichzeitig verbinden und vereinheitlichen sie verteilte Systeme und sorgen für Konsistenz bei der Implementierung. Durch den Einsatz von Software, Algorithmen und Entscheidungskriterien lassen sich kritische Prozesse und Services automatisieren, um so manuelle Eingriffe zu minimieren.
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…