Grid Computing gehört ziemlich genau seit Beginn der Branchenkrise vor fast zwei Jahren zum festen Vokabular der Computer-Marketiers. Ist dieser Zusammenhang an den Haaren herbeigezogen? Nein, denn die Branche stürzte sich angesichts des Zusammenbruchs der Dotcom-Blase mehr als dankbar auf diesen neuen Hoffnungsträger. Wichtiger noch: Die Krise schaffte in mehrfacher Hinsicht die Voraussetzungen für die Akzeptanz des Grid-Konzepts in der Branche sowie bei den Anwender-Unternehmen.
Schon seit den Anfängen der PC-Ära ärgern sich Techniker über den schlechten Nutzungsgrad dieser Geräte. Selbst eine versierte Sekretärin ist nicht in der Lage, so schnell zu tippen, dass ihr Rechner auch nur zu einem Drittel ausgelastet wäre. Schlimmer noch: Menschen arbeiten nur etwa acht Stunden am Tag und häufig nur fünf Tage die Woche. Eine scheinbar ausweglose Situation, da PCs nun aber einmal einen menschlichen Bediener brauchen. Anders gerechnet wird aus dieser Verschwendung ein Verkaufsschlager für PC-Hersteller und Software-Lieferanten: Im Vergleich zu einem Rechner, der rund um die Uhr arbeitet, braucht ein Unternehmen bei einem Acht-Stunden-Tag mindestens dreimal so viele Mitarbeiter und damit Rechner. Grid könnte die Auslastung von Rechnern deutlich erhöhen und damit helfen, sowohl Mitarbeiter als auch Rechner zu sparen.
Erst als nicht einmal mit so genannten Internet-PCs Kunden zu locken waren, verfielen die PC-Hersteller auf neue Konzepte wie das Peer-to-Peer-Computing. Doch rasch stellte sich heraus, dass es dafür kaum Geschäftsmodelle gab. Die gemeinsame Nutzung von Daten in Unternehmen war auch mit klassischen LANs möglich, und im Internet wurde das Verfahren fast nur außer zur Automatisierung des Raubkopierens von Musik, Video und Software verwendet. Als eine der wenigen ernsthaften Anwendungen machte damals jedoch seti@home Furore.
Dieser Bildschirmschoner, mit dessen Hilfe via Internet Millionen von PCs sich daran beteiligen, extraterrestrische Lebewesen zu finden, ist bis heute das wichtigste Vorzeige-Grid geblieben. In anderen Projekten werden umfangreiche Genom-Datenbanken analysiert, die Erdbeobachtung von Satelliten ausgewertet oder das Wetter simuliert. Fast alle diese Unterfangen sind wissenschaftlicher Art, ein deutliches Indiz, dass diese Technik für den kommerziellen Einsatz nur bedingt geeignet ist. Das liegt nur zum Teil an der Unreife der Technik, vielmehr gibt es in der kommerziellen Datenverarbeitung nicht allzu viele Projekte die den Aufwand für ein Grid lohnen. Kommerzielle Grid-Anwendungen wie Risikoanalysen für Banken oder das Testen neuer Chips sind auf weit kürzere Projektzeiten angelegt als die Entschlüsslung der DNS oder der Erforschung des Weltraums. Die Kosten für ein Grid verteilen sich daher über einen viel kürzeren Zeitraum. Auch wäre es viel zu riskant, diese Berechnungen nach dem Vorbild von seti@home weltweit und für jedermann zugänglich zu gestalten. Viel zu leicht könnten so Firmengeheimnisse nach außen dringen. Grid macht daher
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…
Hinter 84 Prozent der Zwischenfälle bei Herstellern stecken Schwachstellen in der Lieferkette. Auf dem Vormarsch…