„Autonomes Computing ist kein Science-Fiction“, behauptet Telford von IBM. „Es ist etwas, das bereits heute verkauft wird.“ Bis zu einem gewissen Punkt ist das richtig. Auch wenn es bereits mehrere Beispiele für autonome Systeme im frühen Stadium gibt, wie lange wird es dauern, bis solche Technologien etwas Alltägliches werden?
„Es wird Beispiele für sehr konkrete Produkte geben, die einen Vorsprung haben und zuerst auf den Markt kommen. Später wird man dann erleben, wie sich diese Produkte im Einsatz weiterentwickeln“, so die Vorhersage von Catherine Lord, Market Intelligence Director bei Lotus Software.
„Es geht in eine Richtung, in der sehr viel mehr dieser Unternehmensregeln bereits vordefiniert sein werden“, merkte Cooper von CA an. „Das Ziel ist es, sehr viel mehr Best-Practices anzubieten und diese auf die Verfahrensweisen im Unternehmen anwenden zu können. In dem Maße, in dem die Menschen Vertrauen fassen, werden diese Systeme auch sehr viel häufiger eingesetzt werden.
Einer der grundlegenden Schritte, den die Hersteller in Richtung autonomes Computing machen, ist die bessere Integration in vorhandene Software zur Systemverwaltung. Dieser Ansatz wird sogar in Unternehmen wie IBM verfolgt, die auch stark in der Erforschung anderer Bereiche tätig sind. „Für IBM sind wir das Herz des autonomen Computing“, so Sandra Carter, Marketing-Vizepräsidentin bei Tivoli Software, IBMs Abteilung für Systemverwaltung.
Hersteller, die bisher noch nicht auf den Wagen des autonomen Computing (oder wie auch immer man es nennen möchte) aufgesprungen sind, werden dies höchstwahrscheinlich in der nahen Zukunft noch tun. „Die meisten langlebigen und komplexen Produkte, wie Flugzeugtriebwerke und medizinisches Gerät, führen heute bereits selbständige Fehlerdiagnose und Selbstheilung durch, so Robert Lax, ein Partner im Kommunikations- und High-Tech-Bereich von Accenture. „Die Hersteller hochkomplexer High-Tech-Produkte sollten allerdings auch den gesamten Service-Management-Prozess bedenken, denn die Kunden verlangen im Zusammenhang mit diesen Produkten immer niedrigere Eigentümerkosten.
Ein Bereich, von dem die meisten Beobachter der Meinung sind, dass dort mehr Aktivität vonnöten sei, ist die Entwicklung ausgeklügelter, sich selbst überwachender, softwareimmanenter Systeme, sodass man sich nicht mehr auf einfache Hardware-gestützte Alarmmeldungen verlassen muss. „Es geht hier nur um Software“, so Gold von EMC. „Man kann sich entschließen, alles so weit zu vereinfachen, dass die Software, egal in welcher Umgebung, genau das gleiche tut, oder man kann eingebaute Intelligenz einsetzen um sicherzustellen, dass die besten vorhandenen Einrichtungen benutzt werden.“
Auch andere grundlegende Technologien werden Verbesserungen benötigen. „Die Netzwerkleistung ist eine der größten Schranken für die Realisierung der Vision selbst-verwaltender Systeme“, so Alan Noble, Chief Technology Officer bei Foursticks. „Heute muss jedes autonome Computersystem netzwerkbasiert sein. Der Lebensnerv eines autonomen Systems wäre das Netzwerk, von dem es abhängt. Umfassende Verwaltung der Netzwerkperformance an jedem Netzwerkknoten, vom Router über den PC bis zum Server, wird für mehr Autonomie sorgen, denn so kann das Netzwerk mit Intelligenz ausgestattet werden.“
META-Analyst Van Hook ist der Meinung, dass sich das Verständnis autonomer Funktionen graduell und auf vorhersehbare Weise ausbreiten wird. „Im Zeitraum von 2002 bis 2005 werden IT-Organisationen weiterhin einfache Ansichten abstrahierter Daten (z.B. Unternehmensdienste, Geschäftsflüsse) verwenden, um den Zustand und die Aktivität ihrer geschäftlichen Umgebungen zu überwachen“, so Hook in einer kürzlich von ihm verfassten Analyse. „Bis 2005 wird dies auf einem Niveau verweilen, auf dem nur Überwachung durchgeführt wird, danach beginnen Steuerungsfunktionen (z.B. die Zuweisung zusätzlicher Ressourcen für bestimmte Unternehmensdienste) aufzutauchen (die über das Niveau der derzeitigen Elemente hinausgehen). Bis 2006 wird die Task-Optimierung für die Veränderung und Konfiguration von Ressourcen (zunächst Server, später auch andere Elemente) als Ziel mit höchster Priorität auftauchen und bis 2007 werden in 40 Prozent aller Organisationen logische und physische Konfigurationsdatenbanken (auf denen die Veränderungen zu Beginn durchgeführt werden) auftauchen. Die Bemühungen für autonomes Computing werden stets sehr zerstreut stattfinden, sie werden die betrieblichen Personalverhältnisse (z.B. die Anzahl der pro Server benötigten Administratoren) jedoch bereits bis 2008 um 100 Prozent verbessern können.“
Wie bei den meisten technologischen Visionen könnte die vernünftigste Herangehensweise an das autonome Computing im sanften Experimentieren bestehen, anstatt ein neues und größtenteils noch ungetestetes Modell vorbehaltlos anzunehmen. „Es ist ein schrittweiser Plan dafür, wie man seine IT-Infrastruktur in diese Richtung weiterentwickeln kann“, so Telford. „Im Grunde ist es keine Revolution, sondern eine Evolution.“
Neueste Kommentare
Noch keine Kommentare zu Autonome Computer
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.