Microsoft hat sich von Dryad verabschiedet – seinem Projekt für die Verarbeitung großer Datenmengen. Es setzt künftig bei Windows Azure und Windows Server nur noch auf Apache Hadoop. Erst vor einem Monat hatte der Softwarehersteller angekündigt, eine eigene Distribution des Frameworks anzubieten. „Hadoop hat sich zu einer großartigen Plattform entwickelt – für die Analyse unstrukturierter Daten sowie großer Datenmengen zu günstigen Preisen“, heißt es in einem Eintrag im Windows HPC Team Blog.
Demzufolge hat Microsoft ein geringfügiges Update zum jüngsten Testbuild von Dryad hinzugefügt – als Teil von Windows High Performance Computing Pack 2008 R2 Service Pack 3. „Das wird allerdings die letzte Preview sein, und wir planen nicht, eine finale Version herauszubringen.“
Microsoft arbeitet mit HortonWorks zusammen, um Hadoop-Distributionen für Windwos Azure und Windows Server zu entwickeln. Eine Community Technology Preview (CTP) der Azure-Version soll noch vor Ende des Jahres erscheinen, ein Test-Build von Windows Server dürfte 2012 folgen.
Dryad – auch LINQ to HPC genannt – war dazu gedacht, die Verarbeitung großer Datenmengen über die Cluster von Windows-Servern hinweg zu erledigen. Es sollte eine Plattform für Entwickler bieten, um Anwendungen zu programmieren, die große, unstrukturierte Informationen verarbeiten können. Wenige Tage nach seiner Hadoop-Ankündigung hatte Microsoft im Oktober einen fast fertigen Test-Build von Dryad bereitgestellt.
Bill Gates hatte Dryad im Jahr 2006 erstmals gegenüber der New York Times erwähnt. Dann blieb es lange still um das Projekt. Im Sommer 2009 wurde an Wissenschaftler Code von Dryad und DryadLINQ ausgegeben. Mitte August 2010 tauchte eine Roadmap auf, derzufolge Dryad 2011 veröffentlicht werden sollte. Ende Dezember 2010 verteilte Microsoft eine Preview seiner Engine an Entwickler. Sie enthielt Testversionen von Dryad, DSC und DryadLINQ.
Dryad war ursprünglich Microsofts Antwort auf Techniken wie Google MapReduce oder Apache Hadoop. Entwickelt wurde es als Microsoft-Research-Projekt. Die Forscher wollten Methoden konzipieren, um Programme für verteiltes und paralleles Rechnen zu entwickeln, die sich von kleinen Computerclustern bis zu riesigen Rechenzentren skalieren lassen.
OutSystems-Studie: 62 Prozent der Befragten haben Sicherheits- und Governance-Bedenken bei Softwareentwicklung mit KI-Unterstützung.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…