Categories: ForschungInnovation

Microsoft plant Rechenzentren in U-Booten

Im Jahr 2014 war Microsoft davon überzeugt, dass ein versiegelter Container auf dem Meeresboden Möglichkeiten zur Verbesserung der allgemeinen Zuverlässigkeit von Rechenzentren bieten könnte, und so testete das Unternehmen 2015 sein erstes Unterwasser-Rechenzentrum. Nachdem das Unternehmen an seinem Design gearbeitet und seine Funktionsfähigkeit unter Beweis gestellt hatte, stellte es 2018 vor der Küste der schottischen Orkney-Inseln einen Container voller Server auf.

Das Unterwasser-Rechenzentrum auf den Northern Isles wurde von der Naval Group und ihrer Tochtergesellschaft Naval Energies hergestellt. Die auf den Orkney-Inseln ansässige Green Marine war ebenfalls beteiligt und unterstützte die Naval Group und Microsoft bei der Einrichtung, Wartung, Überwachung und dem Abruf des von Microsoft betriebenen Rechenzentrums. Das Datenzentrum wurde im European Marine Energy Centre eingerichtet, das ein Testgelände für Gezeitenturbinen und Wellenenergiekonverter ist.

Nach einigen Jahren der Erprobung hat das Unternehmen jetzt erfolgreich bewiesen, dass Unterwasser-Datenzentren sowohl machbar als auch logistisch, ökologisch und wirtschaftlich praktikabel sind. In einem Blog-Beitrag ging das Unternehmen ausführlich auf die Bergung des Unterwasser-Datenzentrums ein, das etwa 40 Meter tief auf dem Meeresboden eingesetzt wurde. Die Kapsel enthielt 864 Server und die dazugehörige Infrastruktur für das Kühlsystem.

„Die durchweg kühlen unterirdischen Meere ermöglichen auch energieeffiziente Rechenzentrumsdesigns. Sie können zum Beispiel Wärmeaustauschleitungen nutzen, wie man sie auf U-Booten findet“, so der Blog-Beitrag. Nach seiner Bergung wurde der Container gereinigt und zu Gesundheitschecks losgeschickt. Microsoft sagte, dass es eine Handvoll ausgefallener Server und damit verbundener Kabel gab, aber Ben Cutler, Projektmanager in der Microsoft-Forschungsgruppe für Sonderprojekte, der gegenwärtig die Unterwasser-Rechenzentrumsinitiative mit dem Namen Project Natick leitet, behauptete, die Server im Unterwasser-Rechenzentrum seien achtmal zuverlässiger als die an Land.

„Das Team stellt die Hypothese auf, dass die Stickstoffatmosphäre, die weniger korrosiv als Sauerstoff ist, und die Abwesenheit von Menschen, die die Komponenten gefährden können, die Hauptgründe für den Unterschied sind. Wenn die Analyse dies als richtig erweist, kann das Team die Ergebnisse möglicherweise in Datenzentren an Land übersetzen“, so der Blog weiter.

Cutler sagte, das Team werde sich nun Szenarien für den Einsatz von Unterwasser-Datenzentren ausdenken, wie z.B. die gemeinsame Unterbringung eines Unterwasser-Datenzentrums mit einem Offshore-Windpark. Weitere Vorteile im Zusammenhang mit der Nachhaltigkeit könnten darin bestehen, dass keine Ersatzteile verwendet werden müssen, sagte er und bemerkte, dass die hohe Zuverlässigkeit der Server bedeute, dass die wenigen, die frühzeitig ausfallen, einfach offline genommen werden könnten.

Darüber hinaus sagte er, das Projekt Natick zeige, dass Rechenzentren betrieben und kühl gehalten werden könnten, ohne dass Süßwasserressourcen angezapft werden müssten. „Jetzt will Microsoft d Wege finden, wie dies für Land-Datenzentren möglich ist“, sagte er.

Mit dem wachsenden Bedarf an Edge-Computing, so Microsoft, gebe es auch einen wachsenden Bedarf an kleineren Rechenzentren in der Nähe der Kunden anstelle von großen Lagerhaus-Rechenzentren.

„Wir bevölkern den Globus mit großen und kleinen Edge-Geräten“, sagte William Chappell, Vizepräsident Microsft Azure. „Wir wollen zu lernen, wie man Rechenzentren so zuverlässig macht, dass sie nicht von Menschenhand bedient werden müssen.“

Das Azure-Team ist in das Projekt eingestiegen und hofft, dass es das Potenzial hat, Azure in die Lage zu versetzen, Kunden zu bedienen, die taktische und kritische Rechenzentren überall auf der Welt einrichten und betreiben müssen.

Die Ergebnisse fließen auch in die Nachhaltigkeitsstrategie von Microsoft für Rechenzentren ein. Microsoft kündigte im Januar seinen Plan an, bis 2030 kohlenstoffnegativ zu sein. Der Plan sieht vor, dass Microsoft die Verantwortung für seinen Kohlenstoff-Fußabdruck übernimmt, indem es für eine Senkung der Emissionen sorgt.

ANZEIGE

Netzwerksicherheit und Netzwerkmonitoring in der neuen Normalität

Die Gigamon Visibility Platform ist der Katalysator für die schnelle und optimierte Bereitstellung des Datenverkehrs für Sicherheitstools, Netzwerkperformance- und Applikationsperformance-Monitoring. Erfahren Sie in diesem Webinar, wie Sie mit Gigamon-Lösungen die Effizienz ihrer Sicherheitsarchitektur steigern und Kosten einsparen können.

ZDNet.de Redaktion

Recent Posts

UPDF: PDF-Software zu einem Viertel des Preises von Adobe

PDF-Bearbeitungssoftware jetzt im Black Friday Sale mit 50 Prozent Rabatt!

3 Stunden ago

Neuer Bedarf an Workplace Services durch DEX und KI

ISG untersucht deutschen Workplace-Services-Markt. Digital Employee Experience (DEX) gilt als Schlüssel für neues Wachstum.

4 Stunden ago

SEO-Beratung von Spezialisten wie WOXOW: Deshalb wird sie immer wichtiger

Wer bei Google mit den passenden Suchbegriffen nicht in den Top-Rankings gefunden wird, der kann…

1 Tag ago

Umfrage: Weniger als die Hälfte der digitalen Initiativen sind erfolgreich

Unternehmen räumen der Entwicklung technischer und digitaler Führungskompetenzen ein zu geringe Priorität ein. Gartner fordert…

1 Tag ago

Google schließt zwei Zero-Day-Lücken in Android

Betroffen sind Android 12, 13, 14 und 15. Google sind zielgerichtete Angriffe auf die beiden…

2 Tagen ago

Gefährliche Weiterentwicklung der APT36-Malware ElizaRAT

Schadprogramm der pakistanischen Hackergruppe APT36 weitet seine Aktivitäten aus und verbessert seine Techniken.

2 Tagen ago