Microsoft hat sich von Dryad verabschiedet – seinem Projekt für die Verarbeitung großer Datenmengen. Es setzt künftig bei Windows Azure und Windows Server nur noch auf Apache Hadoop. Erst vor einem Monat hatte der Softwarehersteller angekündigt, eine eigene Distribution des Frameworks anzubieten. „Hadoop hat sich zu einer großartigen Plattform entwickelt – für die Analyse unstrukturierter Daten sowie großer Datenmengen zu günstigen Preisen“, heißt es in einem Eintrag im Windows HPC Team Blog.

Demzufolge hat Microsoft ein geringfügiges Update zum jüngsten Testbuild von Dryad hinzugefügt – als Teil von Windows High Performance Computing Pack 2008 R2 Service Pack 3. „Das wird allerdings die letzte Preview sein, und wir planen nicht, eine finale Version herauszubringen.“

Microsoft arbeitet mit HortonWorks zusammen, um Hadoop-Distributionen für Windwos Azure und Windows Server zu entwickeln. Eine Community Technology Preview (CTP) der Azure-Version soll noch vor Ende des Jahres erscheinen, ein Test-Build von Windows Server dürfte 2012 folgen.

Dryad – auch LINQ to HPC genannt – war dazu gedacht, die Verarbeitung großer Datenmengen über die Cluster von Windows-Servern hinweg zu erledigen. Es sollte eine Plattform für Entwickler bieten, um Anwendungen zu programmieren, die große, unstrukturierte Informationen verarbeiten können. Wenige Tage nach seiner Hadoop-Ankündigung hatte Microsoft im Oktober einen fast fertigen Test-Build von Dryad bereitgestellt.

Bill Gates hatte Dryad im Jahr 2006 erstmals gegenüber der New York Times erwähnt. Dann blieb es lange still um das Projekt. Im Sommer 2009 wurde an Wissenschaftler Code von Dryad und DryadLINQ ausgegeben. Mitte August 2010 tauchte eine Roadmap auf, derzufolge Dryad 2011 veröffentlicht werden sollte. Ende Dezember 2010 verteilte Microsoft eine Preview seiner Engine an Entwickler. Sie enthielt Testversionen von Dryad, DSC und DryadLINQ.

Dryad war ursprünglich Microsofts Antwort auf Techniken wie Google MapReduce oder Apache Hadoop. Entwickelt wurde es als Microsoft-Research-Projekt. Die Forscher wollten Methoden konzipieren, um Programme für verteiltes und paralleles Rechnen zu entwickeln, die sich von kleinen Computerclustern bis zu riesigen Rechenzentren skalieren lassen.

ZDNet.de Redaktion

Recent Posts

KI-gestütztes Programmieren bringt IT-Herausforderungen mit sich

OutSystems-Studie: 62 Prozent der Befragten haben Sicherheits- und Governance-Bedenken bei Softwareentwicklung mit KI-Unterstützung.

3 Tagen ago

Studie: Ein Drittel aller E-Mails an Unternehmen sind unerwünscht

Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…

7 Tagen ago

HubPhish: Phishing-Kampagne zielt auf europäische Unternehmen

Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…

1 Woche ago

1. Januar 2025: Umstieg auf E-Rechnung im B2B-Geschäftsverkehr

Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.

1 Woche ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…

1 Woche ago

Erreichbarkeit im Weihnachtsurlaub weiterhin hoch

Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…

1 Woche ago