Mit der N1-Architektur verfolgt Sun einen ähnlichen Ansatz. Diese Architektur wird darauf abzielen, ein selbstverwaltendes Utility-Computing-Ökosystem aufzubauen, welches vom dem reichen Erbe des beliebten Betriebssystems Solaris und von Suns kontinuierlichem Engagement für das von ihm entwickelte Java profitieren kann.
Frühe Schätzungen hinsichtlich der Akzeptanz dieser Architektur erwiesen sich jedoch als bestenfalls optimistisch: Sun jedenfalls hatte die Einführung von N1 als dreiteiligen Prozess vorgesehen, bei dem die Kunden in den Jahren 2002, 2003 und 2004 durch die Phasen Virtualisierung, Bereitstellung von Services bzw. Richtlinienautomatisierung laufen sollten. Heute, da schon die Hälfte dieses Zeitplans durchlaufen ist, haben die meisten Unternehmen immer noch nur eine vage Vorstellung vom Konzept des Utility-Computing, und nur sehr wenige potenzielle Kunden haben überhaupt Schritte unternommen, irgendetwas in dieser Richtung zu unternehmen.
Diejenigen, die tatsächlich etwas Derartiges angegangen sind, haben dies im Rahmen größerer Outsourcing-Verträge getan. Unternehmen wie JP Morgan Chase, AXA Insurance, Deutsche Bank und Canada Life haben allesamt kürzlich milliardenschwere Outsourcing-Verträge mit IBM Global Services abgeschlossen. Diese beinhalten groß angelegte Server-Konsolidierungen und die Fähigkeit, bei Bedarf Zugang zu zusätzlichen Kapazitäten zu erhalten.
In diesen Verträgen geht es aber im Grunde nicht um den Aufbau eines Utility-Computing, sondern viel eher um natürliche Zentralisierung. Eine revolutionäre Methode der Bereitstellung von Anwendungen oder neuer Technologien sind hier nicht vorgesehen. IDC betrachtete den konservativen Ansatz dieser Unternehmen hinsichtlich des Utility-Computing als eine Möglichkeit, die Risiken einer an sich schon sehr riskanten Veränderung zu minimieren. Wenn sich die Unternehmen zu früh auf das Utility-Computing-Modell einlassen, könnten sie nicht nur leicht die Kontrolle über ihre IT-Systeme verlieren, sondern im Falle von Problemen sogar ganz ohne Backup dastehen.
- Utility-Computing: Eine Frage des Nutzens
- Das Utility-Wettrennen
- Frühe Schätzungen bestenfalls optimistisch
- Funktioniert wie ein ASP, klingt wie ein ASP
- Ähnliche Entscheidungen wie schon vor einigen Jahren
- Neues Paradigma oder Marketinggeklingel?
- Zusammenstellungen vorhandener Technologien
- Das neue Utility-Netz
- Grid-Computing ist ausschlagebend
- Wie geht es weiter?
Neueste Kommentare
1 Kommentar zu Utility-Computing: Eine Frage des Nutzens
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.
Utility-Computing – ein Hype wie so viele andere
e-business on demand – diesem Slogan kann man in jeder Computerzeitschrift finden. Aber brauchen wir dies ? Zumindestens zum jetzigen Zeitpunkt ? Wir sind ein kleines mittelständisches Unternehmen mit ca. 80 Mitarbeitern. Die Programme zu mieten wäre ja noch O.K. Aber was ist mit den Daten ? Aus Sicherheitsgründen verbietet es sich schon, diese aus dem Haus zu geben. Denn was, wenn der Anbieter pleite geht ? Wenn er durch DOS-Attacken nicht erreichbar ist ? Wenn auf der User-Seite die Zugangsdaten gehackt werden ? Natürlich werden die Anbieter sagen, das ist kein Problem – bei uns sind die Daten so sicher wie in Fort Knox und Pleite gehen wir auch nicht. Aber das hat mit Sicherheit seinen Preis. Und den können und wollen wir zur Zeit nicht bezahlen. Da arbeiten wir lieber mit Fat Clients und Fat Servern und gekaufter Software im Haus. Das ist z.Zt. mit Sicherheit billiger.