Herr Kasabian, Sie kommen aus der Big-Data-Anwendung bei Intel, die jetzt auch eigene Produkte entwickelt. Wofür nutzen Sie intern Big-Data-Systeme?
Wir haben vier wichtige Anwendungsfelder: Erstens nutzen wir Big Data bei der Silizium-Validierung. Dafür verwenden wir nun auch Informationen aus der Produktion, wir wissen also genau, aus welchem Wafer und aus welchem Teil eines Wafers ein bestimmtes Stück Silizium kommt. Denn die Zonen des Wafers sind nicht gleich fehleranfällig. Insgesamt werten wir 200 Produktions-Attribute aus, das geht nur mit Big Data. Wir können so die insgesamt 1900 Tests, die es für das Silizium gibt, effektiver einsetzen. Das spart 40 Prozent der Testzeit.
Zweitens nutzen wir Big Data auf der Produktionsebene, um Frühwarnmechanismen für die teuren Maschinen, die dort arbeiten, einzurichten. Wir werten die Maschinen-Logfiles und andere Daten aus und können so eher proaktiv als erst beim Auftreten von Fehlern warten. Das spart Millionen.
Drittens optimieren wir den Vertrieb in Ostasien, wo wir rund 10.000 Reseller haben, die unsere Produkte kaufen. Wir haben Informationen über diese Reseller und ihren Markt ausgewertet und konnten so 2012 den Umsatz mit dieser Zielgruppe um 20 Millionen Dollar durch gezielte Ansprache auf verschiedene Produkte steigern.
Schließlich haben wir fürs Rechenzentrum eine Lösung entwickelt, die auf Anomalien im Serververhalten reagiert und die Server vor externen Attacken schützt. Wir können so Angriffe sehr schnell erkennen und schalten die betreffenden Server dann einfach ab, statt irgendwann auf einen vollendeten Angriff reagieren zu müssen.
Wie groß sind Ihre internen Systeme?
Größer als 50 Knoten. Das Datenvolumen der Factory-Anwendung liegt bei 5 TByte pro Stunde.
Diese Anwendungen klingen ja recht harmlos. Viele mögliche Big-Data-Einsatzfelder werden heute allerdings kritisch betrachtet, beispielsweise Smart Grid oder alles, was ständige Lokalisierung oder Profilierung der Anwender erfordert, von Abhöraktionen wie PRISM, in deren Hintergrund wohl auch Big-Data-Analysen laufen, ganz zu schweigen. Wo sehen Sie die wichtigsten Anwendungen außerhalb des Rechenzentrums?
Es gibt viele Möglichkeiten, Big Data so zu nutzen dass alle davon profitieren. Nehmen Sie nur die Hersteller von komplexen Geräten, zum Beispiel Gabelstapler. Sie können diese Geräte mit Sensoren und Embedded-Prozessoren ausrüsten. Über M2M (Machine to Machine)-Kommunikation könnten alles über den Servicebedarf, die Aktivität und die Leistung des Systems erfahren. Das Gerät könnte repariert werden, bevor es ausfällt. Davon würden alle profitieren: Der Hersteller und die Kunden.
Wir kennen Intel noch immer vorwiegend als Prozessorgigant. Nun haben Sie eine eigene Hadoop-Distribution entwickelt – was man eher von einem Softwarespezialisten vermuten würde. Warum?
Zunächst hat Intel rund 36.000 Softwareentwickler, die meist an hardwarenaher Software, aber auch an vielen Open-Source-Projekten, arbeiten – darunter auch Hadoop, wo Hunderte Programmierer aktiv sind. Zudem sind wir durch Aufkäufe wie beispielsweise des Embedded-Spezialisten Wind River und McAfee längst nicht mehr auf Prozessoren beschränkt, sondern zukünftig beispielsweise auch im M2M-Markt oder bei Sicherheitsapplikationen zu Hause. Mit dieser Kombination lassen sich sichere Lösungen für das Internet der Dinge generieren. Unsere Hadoop-Lösung ist komplett zum Open-Source-Core konform. Sie erhält aber eine neue Managementschicht und wird etwas besser an Intel-Infrastrukturen angepasst. Umgekehrt passen wir auch Intel-Hardware so an, dass sie besser mit Hadoop kooperiert.
Nutzen Sie diese Distribution für Ihre eigenen Applikationen?
Anfänglich haben wir bei Anwendungen auf vorhandene Datenmanagement-Technik wie Netiza oder Greenplum zurückgegriffen. Bei den oben genannten Projekten aber läuft alles auf unserem Core.
Welche Leistungssteigerungen konnten Sie so erreichen?
Wir haben mit unserer Hadoop-Version auf den Intel-Prozessoren 40 Prozent bessere Leistungen erzielt.
An welchen Stellen optimieren Sie?
Wir optimieren die Firmware und den Hadoop-Core, wobei wir diese Verbesserungen wieder in die Open-Source-Community zurückgeben. Dabei arbeiten wir mit den Xeon-Serien i3, 5 und 7. Außerdem sehen wir uns bei Workloads für Hadoop um, die interessant sind und überlegen, ob und welche Akzeleratoren man hier einsetzen könnte.
Wollen Sie selbst Akzeleratoren entwickeln?
Wie wir uns strategisch ausrichten, ist noch nicht entschieden. Es gibt viele Optionen. Designer sind eine rare Ressource, in der Welt der Systems on a Chip gibt es weit mehr als nur CPUs, und wenn wir passende Beschleuniger auf dem Markt finden, könnte es sein, dass wir die nutzen. Ansonsten entwickeln wir selbst.
Denken Sie auch an die Entwicklung weiterer eigener Big-Data-Software für höhere Ebenen des Hadoop-Stack?
Es ist zu teuer, alles selbst zu machen. Wir suchen nach Partnern, mit denen wir einen Hadoop-Stack bauen können – alles mit dem Ziel, die Kosten zu senken, die Geschwindigkeit zu steigern und schneller am Markt zu sein. Wir wollen, dass alle Unternehmen von Big Data profitieren können.
Insgesamt klingt das so, als würde man möglicherweise demnächst auf dem Markt maßgeschneiderte Komplettsysteme aus Hard- und Software für Big Data von Intel bekommen. Oder planen Sie sogar den Einstieg in den Markt der Cloud-Services?
Das alles sind mögliche Geschäftsmodelle, die zur Diskussion stehen. Welche wir am Ende verfolgen werden, ist derzeit noch offen. Wir evaluieren, wo die größten Chancen liegen. Dabei ist uns wichtig, dass Intel da, wo wir einsteigen, den Anwendern tatsächlich einen Mehrwert zu bieten hat. Die Evaluierung ist nicht so einfach, weil sich die Technologie derzeit noch rasant ändert. Ein Beispiel: Während sich anfangs alles um das weitgehend batch-orientierte Hadoop drehte, kommen jetzt auch Dinge wie STORM für das Processing von Streams, beispielsweise Videos. Service als Geschäftsmodell sehen wir uns an, aber wir denken dabei vor allem an Services innerhalb des Datenzentrums, beispielsweise, indem man die Informationen, die Prozessoren generieren, nutzt, um das Rechenzentrum effizienter zu betreiben und zu warten. Bei alledem müssen wir schnell sein, denn beispielsweise investiert auch General Electric massiv in den Markt.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…