Viele Unternehmen, wie z.B. IBM, entwickeln bereits Einzellösungen, z.B. Workload Manager. Das Ziel besteht jedoch eher darin, etwas zu schaffen, das in der Art von automatischen Reaktionssystemen mehr dem menschlichen Nervensystem ähnelt und in dem die Dinge fast natürlich ablaufen. Worin besteht der Unterschied zwischen der Entwicklung von Einzellösungen, die deutlich abgegrenzte Probleme wie das Workload Management lösen, und dem, was darüber hinaus geht, das ausgereifter ist, so etwas wie künstliche Intelligenz und Steuerungstheorie?
Vor allem wenn Sie diese autonomen Fähigkeiten in der gesamten Infrastruktur erreichen wollen, geht es dabei um höchst komplizierte Probleme. Diese befinden sich im Moment im Forschungsstadium. Noch einmal: Wir müssen uns auf eine Reihe von allgemein gültigen Protokollen einigen; genau diese Aufgabe hat uns als Grid-Gemeinde zusammengeführt. Bei der Entwicklung müssen wir mit Universitäten und Forschungsinstituten auf der ganzen Welt zusammen arbeiten.
Es gibt da enorme Herausforderungen und höchst komplizierte Probleme. Zunächst einmal müssen wir die einfacheren Dinge bewältigen. Mit Hilfe des Workload Managements könnte man alle Knoten der Infrastruktur als den Herzschlag des Ganzen überwachen. Andere Dinge, wie die Entdeckung von Denial-of-Service-Attacken und die entsprechenden Reaktionen, werden länger dauern, wir benötigen dafür eine ausgeklügelte Mustererkennung, um den Unterschied zwischen einem plötzlichen Anstieg der Nutzung und einer wirklichen Denial-of-Service-Attacke feststellen zu können. Man wird auf verschiedenen Stufen Fortschritte erkennen können. Ich würde das als extrem anspruchsvolle Probleme bezeichnen und meine damit ausgesprochen komplexe Probleme, deren Lösung schon eine Weile dauern wird.
Die Nanotechnologie, die die Fähigkeit besitzt, Maschinen Atom für Atom aufzubauen, taucht in der letzten Zeit immer wieder in der Presse auf. Was denken Sie, wann wird man die Nanotechnologie praktisch einsetzen können? Innerhalb der nächsten zehn Jahre?
Das hängt sehr davon ab, wie Sie Nanocomputer definieren. Wir erleben, dass die Computer immer kleiner und immer komplizierter werden. Die Computer treten gerade in ihr nächstes Entwicklungsstadium ein, die sogenannten „Blades“, wobei sie damit noch lange nicht an die Nanotechnologie heranreichen. Aber sie sind deutlich kleiner als unsere heutigen Computer und uns wird damit ermöglicht, eine viel größere Anzahl von Computern in Clustern zusammenzufassen.
Wir werden erleben, wie wir Jahr für Jahr in der Lage sein werden, immer kleinere Komponenten zu bauen und diese immer dichter zu integrieren, bis wir eines Tages – vielleicht in acht bis zehn Jahren – auf einem Niveau angekommen sind, das dann schon eher so etwas wie Nanotechnologie sein wird. Aber das hängt wesentlich davon ab, wie man es definiert.
In der IBM-Forschung haben wir solche Projekte laufen. Da gibt es zum Beispiel das „Blue Gene“-Projekt, dessen Ziel darin besteht, eine Million unterschiedlichster Computer zu einem speziellen Netzwerk zu verbinden und eine Vervielfachung der Computerleistung in der Größenordnung von Petaflops zu erzielen, mit der besonders schwierige Probleme der Biowissenschaften angegangen werden können, deren Lösung noch aussteht, wie beispielsweise in der Genom- und Proteinforschung. Schauen Sie sich an, was in der Speichertechnologie in Hinblick auf die unvorstellbaren Speicherdichten geschieht, die inzwischen erzielt werden können, und wo wir fast das Niveau erreichen, auf dem Quanteneffekte wirksam werden. Dieses Niveau erreichen wir allmählich, und wir müssen beim Bau unserer Computer noch viel raffinierter werden. Aber ich denke, das ist der nächste logische Schritt in der Entwicklung.
Neueste Kommentare
Noch keine Kommentare zu IBM: Grid-Computing und das Internet
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.