Microsoft hat sich von Dryad verabschiedet – seinem Projekt für die Verarbeitung großer Datenmengen. Es setzt künftig bei Windows Azure und Windows Server nur noch auf Apache Hadoop. Erst vor einem Monat hatte der Softwarehersteller angekündigt, eine eigene Distribution des Frameworks anzubieten. „Hadoop hat sich zu einer großartigen Plattform entwickelt – für die Analyse unstrukturierter Daten sowie großer Datenmengen zu günstigen Preisen“, heißt es in einem Eintrag im Windows HPC Team Blog.
Demzufolge hat Microsoft ein geringfügiges Update zum jüngsten Testbuild von Dryad hinzugefügt – als Teil von Windows High Performance Computing Pack 2008 R2 Service Pack 3. „Das wird allerdings die letzte Preview sein, und wir planen nicht, eine finale Version herauszubringen.“
Microsoft arbeitet mit HortonWorks zusammen, um Hadoop-Distributionen für Windwos Azure und Windows Server zu entwickeln. Eine Community Technology Preview (CTP) der Azure-Version soll noch vor Ende des Jahres erscheinen, ein Test-Build von Windows Server dürfte 2012 folgen.
Dryad – auch LINQ to HPC genannt – war dazu gedacht, die Verarbeitung großer Datenmengen über die Cluster von Windows-Servern hinweg zu erledigen. Es sollte eine Plattform für Entwickler bieten, um Anwendungen zu programmieren, die große, unstrukturierte Informationen verarbeiten können. Wenige Tage nach seiner Hadoop-Ankündigung hatte Microsoft im Oktober einen fast fertigen Test-Build von Dryad bereitgestellt.
Bill Gates hatte Dryad im Jahr 2006 erstmals gegenüber der New York Times erwähnt. Dann blieb es lange still um das Projekt. Im Sommer 2009 wurde an Wissenschaftler Code von Dryad und DryadLINQ ausgegeben. Mitte August 2010 tauchte eine Roadmap auf, derzufolge Dryad 2011 veröffentlicht werden sollte. Ende Dezember 2010 verteilte Microsoft eine Preview seiner Engine an Entwickler. Sie enthielt Testversionen von Dryad, DSC und DryadLINQ.
Dryad war ursprünglich Microsofts Antwort auf Techniken wie Google MapReduce oder Apache Hadoop. Entwickelt wurde es als Microsoft-Research-Projekt. Die Forscher wollten Methoden konzipieren, um Programme für verteiltes und paralleles Rechnen zu entwickeln, die sich von kleinen Computerclustern bis zu riesigen Rechenzentren skalieren lassen.
Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.
Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…