Microsoft hat sich von Dryad verabschiedet – seinem Projekt für die Verarbeitung großer Datenmengen. Es setzt künftig bei Windows Azure und Windows Server nur noch auf Apache Hadoop. Erst vor einem Monat hatte der Softwarehersteller angekündigt, eine eigene Distribution des Frameworks anzubieten. „Hadoop hat sich zu einer großartigen Plattform entwickelt – für die Analyse unstrukturierter Daten sowie großer Datenmengen zu günstigen Preisen“, heißt es in einem Eintrag im Windows HPC Team Blog.

Demzufolge hat Microsoft ein geringfügiges Update zum jüngsten Testbuild von Dryad hinzugefügt – als Teil von Windows High Performance Computing Pack 2008 R2 Service Pack 3. „Das wird allerdings die letzte Preview sein, und wir planen nicht, eine finale Version herauszubringen.“

Microsoft arbeitet mit HortonWorks zusammen, um Hadoop-Distributionen für Windwos Azure und Windows Server zu entwickeln. Eine Community Technology Preview (CTP) der Azure-Version soll noch vor Ende des Jahres erscheinen, ein Test-Build von Windows Server dürfte 2012 folgen.

Dryad – auch LINQ to HPC genannt – war dazu gedacht, die Verarbeitung großer Datenmengen über die Cluster von Windows-Servern hinweg zu erledigen. Es sollte eine Plattform für Entwickler bieten, um Anwendungen zu programmieren, die große, unstrukturierte Informationen verarbeiten können. Wenige Tage nach seiner Hadoop-Ankündigung hatte Microsoft im Oktober einen fast fertigen Test-Build von Dryad bereitgestellt.

Bill Gates hatte Dryad im Jahr 2006 erstmals gegenüber der New York Times erwähnt. Dann blieb es lange still um das Projekt. Im Sommer 2009 wurde an Wissenschaftler Code von Dryad und DryadLINQ ausgegeben. Mitte August 2010 tauchte eine Roadmap auf, derzufolge Dryad 2011 veröffentlicht werden sollte. Ende Dezember 2010 verteilte Microsoft eine Preview seiner Engine an Entwickler. Sie enthielt Testversionen von Dryad, DSC und DryadLINQ.

Dryad war ursprünglich Microsofts Antwort auf Techniken wie Google MapReduce oder Apache Hadoop. Entwickelt wurde es als Microsoft-Research-Projekt. Die Forscher wollten Methoden konzipieren, um Programme für verteiltes und paralleles Rechnen zu entwickeln, die sich von kleinen Computerclustern bis zu riesigen Rechenzentren skalieren lassen.

ZDNet.de Redaktion

Recent Posts

Black Friday: Vorsicht vor schädlichen QR-Codes

Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.

2 Tagen ago

Black Friday: Zahl der ominösen Shopping-Websites steigt

Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.

2 Tagen ago

SmokeBuster bekämpft SmokeLoader

Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.

2 Tagen ago

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

3 Tagen ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

3 Tagen ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

3 Tagen ago