Cloud Computing: Was wird aus den Hardware-Lieferanten?

2011 war in vielerlei Hinsicht vom Thema Cloud geprägt. Allerdings rührt der Lärm oft auch daher, dass die Anbieter gerade dabei erst sind, ihre Truppen zu sammeln oder ins Feld zu schicken – und das war schon zu Zeiten der Landsknechtshaufen ein farbenfrohes Schauspiel mit viel Getrommel und lauter Musik.

Große Schlachten wurden bisher noch keine geschlagen, höchstens Scharmützel, bei denen sich die Kontrahenten abgetastet haben. Das liegt auch daran, dass die potenziellen Kunden zwar Interesse zeigen, aber bei Vertragsunterzeichnungen noch sehr zurückhaltend sind. Die Gründe dafür sind vielfältig: Unter anderem sind es Sicherheitsbedenken, Sorgen um die Verfügbarkeit, Angst vor zu enger Bindung an einen Anbieter, Haftungsfragen, Unklarheit darüber, wie sich Vereinbarungen mit Anbietern überprüfen lassen, die fehlende Notwendigkeit aufgrund vorhandener Leistungsreserven im eigenen Rechenzentrum und bei manchem sicher auch Sorge um den eigenen Arbeitsplatz.

Letzten Endes wird es aber doch darauf hinauslaufen, dass in Zukunft viel – oder vielleicht sogar das meiste -, was heute im eigenen Rechenzentrum läuft, in dem eines anderen getan wird. Die Folge für die Hardwareanbieter ist, dass sie den Großteil ihrer Server nicht mehr auf den bekannten Wegen an die Kunden bringen können.

Liefern oder selber bauen?

Es gibt für sie dann grundsätzlich zwei Möglichkeiten: Entweder, sie schaffen es, die großen Rechenzentrumsbetreiber fest an sich zu binden oder sie bauen selbst Rechenzentren auf und verkaufen künftig eben statt Servern Rechenleistung. In der Praxis werden wohl in absehbarer Zukunft Mischmodelle vorherrschen. Und vielleicht schaffen die Hardwareanbieter es auch, bei ihren Rechenzentren noch ein paar zusätzliche Services obendrauf zu satteln, um sich einerseits dem Preiskampf zu entziehen und andererseits die Kundenbindung zu erhöhen.

Wer nur x Gigabyte Storage, y Stunden CPU-Zeit oder z Cent pro Transaktion bezahlt, kann schließlich besser vergleichen und schneller den Anbieter wechseln als jemand, der für die Nutzung einer bestimmten, in seine Abläufe eingebundenen Software oder wichtige Geschäftsprozesse bezahlt.

Gartner: Anteile am weltweiten Servermarkt im dritten Quartal (in Milliarden Dollar)

Anbieter Umsatz 3. Quartal 2010 Marktanteil Umsatz 3. Quartal 2011 Marktanteil Umsatzveränderung zum Vorjahr
IBM 3,717 30,2 % 3,847 29,7 % 3,5 %
Hewlett-Packard 3,943 32,0 % 3,802 29,3 % -3,6 %
Dell 1,790 14,5 % 1,903 14,7 % 6,3 %
Oracle 0,764 6,2 % 0,764 5,9 % 0,0 %
Fujitsu 0,582 4,7 % 0,603 4,7 % 3,6 %
Andere 1,534 12,4 % 2,049 15,8 % 33,6 %
Gesamt 12,329 100,0 % 12,968 100,0 % 5,2 %

Die Serveranbieter haben das erkannt und begonnen, sich auf die Situation einzustellen. Die ersten Schritte sehen oft so aus, als ob alle Amazon Web Services nacheifern wollen. Das ist aber sicher nur eine Übergangsphase. 2011 hat IBM erste Kunden für seine SmartCloud gewonnen und ist so Public-Cloud-Provider geworden. Fujitsu hat sein Cloud-Angebot ebenfalls ausgebaut und für Anfang 2012 sogar angekündigt, den Schritt zum SaaS-Anbieter zu vollziehen.

Dell hat in den USA zusammen mit VMware ein Public-Cloud-Angebot gestartet und einen Investitionsplan in Höhe von einer Milliarde Dollar vorgelegt. Damit sollen in zehn Ländern der Erde – darunter auch Deutschland – große Rechenzentren entstehen. Aus ihnen will Dell Kunden dann unterschiedliche Dienste anbieten, Cloud-Angebote gehören aber definitiv dazu.

Hewlett-Packard


HP-CEO Meg Whitman während einer Kundenveranstaltung in Wien (Bild: ZDNet).

Hewlett-Packard hat in den vergangen Monaten seine zunächst vagen Pläne für die Cloud präzisiert. Es ist nicht damit zu rechnen, dass die neue Chefin Meg Whitman diesen Teil der Strategie wesentlich abwandelt – höchstens, dass noch mehr Wert darauf gelegt wird.

Das Hauptaugenmerk richtet der Konzern allerdings nicht – wie durch Apothekers Strategieankündigungen im März zunächst vermutet – darauf, selbst Cloud-Dienste anzubieten, sondern darauf, seine Kunden Cloud-fähig zu machen. Dazu hat HP im Herbst eine Reihe von Produkten und Diensten vorgestellt, die Unternehmen bei der Transformation ihres Rechenzentrums für die Cloud helfen sollen. Dazu zählen Consulting-Dienste für die Rechenzentrumsstrategie und die Reihe HP CloudSystem, die Bausteine für Rechenzentren umfasst.

Die Finanzierungsabteilung von HP wird zudem bis zu zwei Milliarden Dollar für Cloud-Projekte vorstrecken. Ziel ist es, für Kunden die Anfangsinvestitionen zu verringern und fällige Beträge für Hardware, Software und Services zu stunden, bis der Betrieb läuft. Mit dem HP VirtualSystem für Microsoft, das es integriert und konfiguriert für SharePoint, Exchange und SQL Server gibt, will man Kunden ebenso Aufwand abnehmen wie mit HP-UX-Servern, die für CRM, ERP und Finanzsoftware vorbereitet sind.

Cisco


Der von Cisco HP hingeworfene Fehdehandschuh: Das im März 2009 vorgestellte Cisco Unified Computing System 5108 (Bild: Cisco).

Cisco, seit kurzem nach Auffassung einiger Marktforscher bereits größter Anbieter von Rechenzentrumsausrüstung, ist kurz vor Ende des Jahres ebenfalls auf den Cloud-Zug aufgesprungen. Zusätzlich zu den Private-Cloud-Bausteinen, die man in Kooperation mit NetApp und VMware anbietet, hat der Konzern mit CloudVerse einen Begriff vorgestellt, unter dem seine Produkte aus den Bereichen Software, Rechenzentrum und Zusammenarbeit vereint sind. Generelles Ziel ist es auch bei Cisco, Kunden beim Aufbau von Public-, Private- und Hybrid-Clouds zu unterstützen.

Damit bereiten sich alle Anbieter auf eine Zeit vor, in der kaum noch ein Unternehmen, dessen Geschäft nicht der Rechenzentrumsbetrieb ist, sein eigenes Rechenzentrum baut – zumindest nicht, wenn dieses mehrere hundert Quadratmeter groß werden würde. Es wird der Zeitpunkt kommen, wo diese überwiegend an einen Outsourcing-Partner vergeben oder in die Cloud verlagert sind.

Private Cloud als Auslaufmodell der Zukunft?

Was wird dann aus den Private-Cloud-Angeboten? Denn schließlich richten sich diese derzeit überwiegend an große Kunden. Denen versprechen sie letztendlich nichts anderes, als ihr Rechenzentrum weitgehend zu virtualisieren, zu automatisieren und zu verbrauchsgerechter Abrechnung zu befähigen. Der wichtigste Grund, auf eine private statt eine öffentliche Cloud zu setzen, sind heute die vielgescholtenen Datenschutzgesetze und -richtlinien.

Aber auch da wird sich eine Lösung finden lassen – oder hat sich teilweise schon gefunden. Beispielsweise sieht sich der Dienstleister Infopark bei seinen Kunden, denen er Leistungen auf der Grundlage von Amazon Web Services verkauft, durch ein ausgefeiltes Vertragswerk zur Auftragsdatenverarbeitung auf der sicheren Seite. Thomas Witt, Director Product Development bei Infopark, hat bei seinen Kunden festgestellt, das der Weg in die Cloud öfter durch eine Applikation als den Wunsch nach flexibler Rechenleistung getrieben ist. Das aus dem Portal- und CRM-Bereich kommende Unternehmen hat sich vom Lizenzgeschäft verabschiedet und bietet auf Basis der Amazon-Infrastruktur Lösungen aus der Cloud an.

Mit AWS hat Infopark vereinbart, dass die Daten der gemeinsamen Kunden die EU nicht verlassen, um so tatsächlichen oder vermeintlichen Datenschutzbedenken den Wind aus den Segeln zu nehmen. Außerdem verweist Witt auf die im Sinne des Bundesdatenschutzgesetzes geregelte Auftragsdatenverarbeitung. Für Amazon entschieden hat man sich vor zwei Jahren wegen der Flexibilität und der Unabhängigkeit, einen Wechsel auf Microsofts Azure oder vergleichbare Angebote ist für Witt nicht attraktiv.


Der Flughafen Nürnberg: Mutiger Public-Cloud-Anwender und indirekt Kunde von Amazon Web Services (Bild: Airport Nürnberg).

Allerdings muss man auch einräumen, dass die von Infopark auf der Amazon-Cloud betriebenen Anwendungen für die Kunden zwar wichtig sind, aber eben doch nicht das Herzstück ihrer IT. Einer der Infopark-Kunden ist etwa der Flughafen Nürnberg. Er lässt seine Website und seit kurzem auch einige Zusatzangebote, etwa eine kostenpflichtige Parkplatzreservierung, über Amazon laufen. Für Christian Käser, Head of Business Development & New Media Management beim Flughafenbetreiber, ist wichtig, dass sein Unternehmen so seiner Informationsverpflichtung nachkommen kann.

In der Vergangenheit war das mit der eigenen Infrastruktur, etwa während der Aschewolke aus Island, nicht immer der Fall. „Jetzt bezahlen wir nur, was wir wirklich brauchen und haben zudem die Flexibilität, schnell neue Angebote wie die Parkplatzreservierung hinzuzunehmen, die uns in unserem Geschäft unterstützen.“ Der „niedrige vierstellige Betrag pro Monat“ sei dafür durchaus gerechtfertigt – und wirtschaftlicher als der frühere Betrieb.

Was noch fehlt: die Miet-Cloud

Eine private Cloud lohnt sich heute ohnehin nur in einer gewissen Größenordnung. Das musste etwa IBM schon lernen. Mit dem Einstiegsangebot Cloudburst war Big Blue bei den Kunden nicht ganz so erfolgreich, wie man sich das zunächst wohl erhofft hatte. Schließlich ist bei der Private Cloud immer die Frage, wie und ob sich die in der Public Cloud vorhandenen Skaleneffekte erzielen lassen. Oder anders gefragt: Wohin mit der zu viel vorhandenen Rechenpower? Hybride Cloud-Konzepte könnten da Abhilfe schaffen, sind aber noch komplizierter einzurichten und zu pflegen.

Eine weitere Alternative wäre, dass die Hardwarehersteller ihre Produkte nicht mehr verkaufen, sondern lediglich zur Verfügung stellen und nur dann Nutzungsentgelt verlangen, wenn diese auch eingesetzt werden. Am Ende bleibt aber immer einer auf den Kosten sitzen, die durch viele kleine vorgehaltene Clouds mit Überkapazitäten entstehen. Und diese Überkapazitäten durch eine Art Broker zusammenfasen und weitervermieten zu lassen, ist theoretisch ein bestechendes Konzept, in der Praxis aber augenblicklich noch nicht umsetzbar.

Rüdiger Baumann, CEO beim deutschen Cloud-Management-Spezialisten Zimory, glaubt aber, dass solche Lösungen schon Ende 2012 im Markt entstehen könnten. „Die Anbieter in einem oligopolistisch organisierten Markt werden das nicht begrüßen, aber für die Anwender ist es gut.“ Seine Zuversicht schöpft Baumann aus dem Beispiel der Leipziger Strombörse: Daran wollten zuerst die großen Anbieter auch nicht teilnehmen, die kleineren dagegen schon. Inzwischen, nach rund fünf Jahren funktioniere der Markt und auch Konzerne würden dort ihren Strom einkaufen. Im Cloud-Markt kann er sich eine ähnliche Entwicklung vorstellen: „Der Vorteil ist, dass es viel weniger starre Kundenbeziehungen gibt.“ Außerdem sei Rechenleistung viel einfacher zu handeln, auszuliefern und vorzuhalten als Strom.

Veränderungen durch die neue Cloud-Welt

Mittelfristig sind wahrscheinlich Anbieter wie IBM und Fujitsu, Integratoren wie Accenture, Atos, Orange Business Services und T-Systems oder Telekommunikationsanbieter wie die Deutsche Telekom, Colt oder Interoute am besten aufgestellt, um von der neuen Welt zu profitieren: Sie alle haben schon jahrelange Kundenbeziehungen und einen gut organisierten Geschäftskundenbereich. Und möglicherweise schafft es mit Microsoft auch ein Softwareanbieter, sich in diesem Umfeld festzusetzen – das Geld und der Wille dazu sind in Redmond auf alle Fälle da.

Heute bieten Hardwarehersteller Server an. Morgen werden sie Betreiber hektargroßer Serverfarmen sein, die Firmen mieten oder von denen sie nach Leistungsparamatern abgerechnete Dienste beziehen. Und irgendwann wird auch der Betrieb der sogenannten Private Clouds extern erledigt. Vielleicht steht der Server sogar noch im Unternehmen, von ihm verwaltet wird er aber sicher nicht mehr.

Die neue Welt bringt einige Veränderungen mit sich:

  • Es gibt keine Server-Upgrade-Zyklen mehr
  • Rechenleistung kommt aus der Cloud
  • Die IT-Abteilungen, die noch an eigener Hardware festhalten, werden vom restlichen Management einfach überstimmt.
  • Die Hardware-Giganten verkaufen direkt an die Betreiber der Server-Farmen.

Facebooks Projekt Open Source Data Center ist zwar aller Ehren wert. Zur Erinnerung: Das Unternehmen hatte im April die Spezifikationen der von ihm entwickelten Server und Rechenzentren als als Open Source freigegebenen udn im weiteren Verlauf des Jahres eine Stiftung gegründet, um diese zu verwalten und weiterzuentwickeln. Letztendlich ist dr Ansatz aber nur für sehr schnell wachsende Webfirmen eine interessante Option. Die meisten anderen werden sich die dadurch entstehende Arbeit nicht mehr machen wollen: Sie haben es einfach satt, sich mit der Infrastruktur herumzuschlagen.

Die Cloud ruft

Was bleibt einem Hardwareanbieter angesichts dieser – zugegebenermaßen zugespitzten Zukunftsszenarien – übrig? Wohl nur, sich so schnell wie irgend möglich in die Cloud zu stürzen. Damit stehen sie vor einem ähnlich grundlegenden Wandel wie die großen Softwarefirmen – nicht nur in Bezug auf ihre Produktpalette, sondern auch auf ihre Geschäftsmodelle. Auch, wenn die Schmerzen derzeit noch weniger sichtbar sind, als zum Beispiel bei Microsoft oder SAP, die sich schon länger mühen, den SaaS-Zug nicht zu verpassen.

Die Hardwareanbieter mit starken Service- und Outsourcing-Bereichen profitieren wahrscheinlich am meisten vom Trend zur Cloud. Beispielsweise wird IBM zwar in Wahrheit ein Public-Cloud-Anbieter sein, von den meisten seiner Kunden aber einfach als verlässlicher Partner gesehen werden, der sich des Rechenzentrums annehmen kann, dass sie über Bord werfen wollen. Hewlett-Packard hat zwar eine vergleichbare Vision, aber HPs Cloud-Pläne sind noch etwas fade und vage. Immerhin hat das Unternehmen seit der Übernahme von EDS eine ansehnliche Servicesparte, die ihm helfen kann, Kunden das Rechenzentrum abzunehmen.

Dell

Dell hat sich mit der Übernahme von Perot Systems ebenfalls eine Servicesparte ins Haus geholt – allerdings eine kleinere und nicht so breit aufgestellte. Allerdings wird sie oft unterschätzt: Immerhin sind bei Dell 43.000 der ingesamt 103.000 Mitarbeiter im Servicebereich beschäftigt. In Deutschland sind es rund ein Drittel der fast 1700 Dell-Angestellten – und die Zahl nimmt rasch zu.

Außerdem hat sich Dell entschlossen, eine interessante Position zu beziehen, indem es sich als der „Anti-Stack“-Anbieter darstellt: Die Texaner werben damit, dass sie eben gerade nicht wie der Teufel hinter der armen Seele dahinter her sind, Firmen den kompletten Stack zu verkaufen – so wie Oracle, HP und auch Cisco das wollen.

Bei Dell sind offene Standards Trumpf. Dass die Texaner als eine der ersten auf den von Facebook gesteuerten Open-Source-Data-Center-Zug aufgesprungen sind, ist da nur folgerichtig. Dells Schwächen sind (noch) die Leistungsfähigkeit der Servicesparte und die Fähigkeit, Infrastructure-as-a-Service anzubieten. Oder anders gesagt: Dell muss seine Cloud-Rechenzentren noch bauen. Aber man ist ja gerade dabei.

EMC

Wenig klar sind die Cloud-Pläne von EMC: Zwar gibt sich das Storage-Unternehmen seit den Übernahmen von RSA, VMware und DataDomain als Anbieter von Rechenzentrumslösungen, letzendlich fehlen ihm aber noch wichtige Bestandteile. Von Public-Clouds wollte man zuerst nichts wissen, sscheint inzwischen aber weit weniger abgeneigt zu sein. Einerseits hat man weder eienn kompletten Stack, so wie HP und Oracle das für sich in Anspruch nehmen, noch setzt man konsequent auf die Karte „Offenheit“, so wie Dell das tut.

Bei der Software besitzt der Konzern zahllose Managementwerkzeuge, die sich auch herstellerübergreifend einsetzen lassen, und hat seit der Übernahme von Greenplum zudem Analysefähigkeiten im Haus. Allerdings sind die Verwaltunsgtools nur schwer zu durchschauen, Greenplum bisher nicht vernünftig positioniert. Trotzdem muss man das Unternehmen im Auge behalten – denn Geld genug für die weitere Expansion ist vorhanden.

Unsicher ist auch, wie lange die Wettbewerber der Tochter VMware noch die Treue halten. Mit der steigenden Akzeptanz und Funktionsumfang von Microsofts Virtualsierungslösung werden viele bald keien Lust mehr haben, den Konkurrenten finanziell zu unterstützen – trotz all der derzeit noch ausgesprochneen Beteuerungen von guter Co-Opetition. Unterm Strich ist EMC die Wildcard im Cloud-Markt.

Oracle

Die meisten Fragezeichen stehen hinter Oracle. Trotz der Sun-Übernahme ist das Unternehmen immer noch eine Softwarefirma. Dass man denkt wie eine, hat sich etwa an der Diskussion um die Supportgebühren für Sun-Hardware gezeigt. Dennoch will auch Oracle mit Exadata und Exalogic heute angepasste, hochintegrierte Supersysteme verkaufen.

Wenn in der Zukunft einerseits offene Hardwarespezifikationen wie von Dell und Facebook gefördert und andererseits schlichte Gebrauchshardware steht, wo bleibt dann Oracle? Wie viele Kunden brauchen diese Systeme dann wirklich, wie viele kommen mit den immer leistungsfähiger und günstiger werdenden Angeboten der Konkurrenz aus? Außerdem hat sich das Unternehmen bisher nicht dazu geäußert, ob und wie man Infrastructure-as-a-Service anbieten will.

ZDNet.de Redaktion

Recent Posts

Erreichbarkeit im Weihnachtsurlaub weiterhin hoch

Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…

8 Stunden ago

Hacker missbrauchen Google Calendar zum Angriff auf Postfächer

Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…

1 Tag ago

Bedrohungen in Europa: Schwachstellen in der Lieferkette dominieren

Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…

2 Tagen ago

Bericht: Apple arbeitet an faltbarem iPad

Es kommt angeblich 2028 auf den Markt. Das aufgeklappte Gerät soll die Displayfläche von zwei…

2 Tagen ago

HPE baut Supercomputer am Leibniz-Rechenzentrum

Das System basiert auf Hardware von HPE-Cray und Nvidia. Die Inbetriebnahme erfolgt 2027.

3 Tagen ago

Bund meldet Fortschritte in der Netzversorgung

Die Bundesnetzagentur hat ihr Gigabit-Grundbuch aktualisiert. Drei von vier Haushalten sollen jetzt Zugang zu Breitbandanschlüssen…

3 Tagen ago