Im Jahr 2014 war Microsoft davon überzeugt, dass ein versiegelter Container auf dem Meeresboden Möglichkeiten zur Verbesserung der allgemeinen Zuverlässigkeit von Rechenzentren bieten könnte, und so testete das Unternehmen 2015 sein erstes Unterwasser-Rechenzentrum. Nachdem das Unternehmen an seinem Design gearbeitet und seine Funktionsfähigkeit unter Beweis gestellt hatte, stellte es 2018 vor der Küste der schottischen Orkney-Inseln einen Container voller Server auf.
Das Unterwasser-Rechenzentrum auf den Northern Isles wurde von der Naval Group und ihrer Tochtergesellschaft Naval Energies hergestellt. Die auf den Orkney-Inseln ansässige Green Marine war ebenfalls beteiligt und unterstützte die Naval Group und Microsoft bei der Einrichtung, Wartung, Überwachung und dem Abruf des von Microsoft betriebenen Rechenzentrums. Das Datenzentrum wurde im European Marine Energy Centre eingerichtet, das ein Testgelände für Gezeitenturbinen und Wellenenergiekonverter ist.
Nach einigen Jahren der Erprobung hat das Unternehmen jetzt erfolgreich bewiesen, dass Unterwasser-Datenzentren sowohl machbar als auch logistisch, ökologisch und wirtschaftlich praktikabel sind. In einem Blog-Beitrag ging das Unternehmen ausführlich auf die Bergung des Unterwasser-Datenzentrums ein, das etwa 40 Meter tief auf dem Meeresboden eingesetzt wurde. Die Kapsel enthielt 864 Server und die dazugehörige Infrastruktur für das Kühlsystem.
„Die durchweg kühlen unterirdischen Meere ermöglichen auch energieeffiziente Rechenzentrumsdesigns. Sie können zum Beispiel Wärmeaustauschleitungen nutzen, wie man sie auf U-Booten findet“, so der Blog-Beitrag. Nach seiner Bergung wurde der Container gereinigt und zu Gesundheitschecks losgeschickt. Microsoft sagte, dass es eine Handvoll ausgefallener Server und damit verbundener Kabel gab, aber Ben Cutler, Projektmanager in der Microsoft-Forschungsgruppe für Sonderprojekte, der gegenwärtig die Unterwasser-Rechenzentrumsinitiative mit dem Namen Project Natick leitet, behauptete, die Server im Unterwasser-Rechenzentrum seien achtmal zuverlässiger als die an Land.
„Das Team stellt die Hypothese auf, dass die Stickstoffatmosphäre, die weniger korrosiv als Sauerstoff ist, und die Abwesenheit von Menschen, die die Komponenten gefährden können, die Hauptgründe für den Unterschied sind. Wenn die Analyse dies als richtig erweist, kann das Team die Ergebnisse möglicherweise in Datenzentren an Land übersetzen“, so der Blog weiter.
Cutler sagte, das Team werde sich nun Szenarien für den Einsatz von Unterwasser-Datenzentren ausdenken, wie z.B. die gemeinsame Unterbringung eines Unterwasser-Datenzentrums mit einem Offshore-Windpark. Weitere Vorteile im Zusammenhang mit der Nachhaltigkeit könnten darin bestehen, dass keine Ersatzteile verwendet werden müssen, sagte er und bemerkte, dass die hohe Zuverlässigkeit der Server bedeute, dass die wenigen, die frühzeitig ausfallen, einfach offline genommen werden könnten.
Darüber hinaus sagte er, das Projekt Natick zeige, dass Rechenzentren betrieben und kühl gehalten werden könnten, ohne dass Süßwasserressourcen angezapft werden müssten. „Jetzt will Microsoft d Wege finden, wie dies für Land-Datenzentren möglich ist“, sagte er.
Mit dem wachsenden Bedarf an Edge-Computing, so Microsoft, gebe es auch einen wachsenden Bedarf an kleineren Rechenzentren in der Nähe der Kunden anstelle von großen Lagerhaus-Rechenzentren.
„Wir bevölkern den Globus mit großen und kleinen Edge-Geräten“, sagte William Chappell, Vizepräsident Microsft Azure. „Wir wollen zu lernen, wie man Rechenzentren so zuverlässig macht, dass sie nicht von Menschenhand bedient werden müssen.“
Das Azure-Team ist in das Projekt eingestiegen und hofft, dass es das Potenzial hat, Azure in die Lage zu versetzen, Kunden zu bedienen, die taktische und kritische Rechenzentren überall auf der Welt einrichten und betreiben müssen.
Die Ergebnisse fließen auch in die Nachhaltigkeitsstrategie von Microsoft für Rechenzentren ein. Microsoft kündigte im Januar seinen Plan an, bis 2030 kohlenstoffnegativ zu sein. Der Plan sieht vor, dass Microsoft die Verantwortung für seinen Kohlenstoff-Fußabdruck übernimmt, indem es für eine Senkung der Emissionen sorgt.
Die Gigamon Visibility Platform ist der Katalysator für die schnelle und optimierte Bereitstellung des Datenverkehrs für Sicherheitstools, Netzwerkperformance- und Applikationsperformance-Monitoring. Erfahren Sie in diesem Webinar, wie Sie mit Gigamon-Lösungen die Effizienz ihrer Sicherheitsarchitektur steigern und Kosten einsparen können.
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…