Forscher von Samsung haben ein System namens Dynamic Vision Sensor vorgestellt, das Bilder inhaltsbezogen verarbeitet. Es basiert auf IBMs neuronalem, also dem menschlichen Gehirn nachgearbeiteten Prozessor TrueNorth. „Jeder Pixel arbeitet unabhängig“ und meldet sich erst, wenn er eine Veränderung wahrnimmt, sagte Samsung-Manager Eric Ryu auf einer Veranstaltung von IBM Research.
Ryu ist Vizepräsident für Forschung des Samsung Advanced Institute of Technology. Ihm zufolge arbeitet das neuartige System für Computervision mit beachtlichen 2000 Bildern pro Sekunde (fps), während normale Digitalkameras vielleicht auf 120 fps kommen. Das sei besonders praktisch, wenn man 3D-Karten erstelle, für Sicherheitsfunktionen selbstlenkender Autos oder neuartige Eingabesysteme, die Gesten erkennen können.
Mit einer Leistungsaufnahme von etwa 300 Milliwatt sei TrueNorth auch sehr effizient, ergänzte Ryu. Ein Notebook brauche hundertmal so viel, ein Smartphone-Prozessor immer noch das Zehnfache. Das menschliche Gehirn aber könne einige Aufgaben mit dem hundertmillionsten Teil des Energieverbrauchs eines Computers bewältigen. „Es gibt da einen gewaltigen Abstand zwischen Biologie und moderner Halbleitertechnologie.“
Samsung demonstrierte die Möglichkeiten des Computervisionssystems mit einer Gestensteuerung für einen Fernseher. Dabei wurden Hand- und Fingerbewegungen, geschlossene Fäuste und Gesten unter Zuhilfenahme mehrerer Finger aus etwa drei Metern Abstand erkannt.
Da die neuronalen Prozessoren wenig Hitze entwickeln, hofft Samsung, sie zu größeren Gruppen zusammenfassen zu können. IBM selbst setzt jeweils 16 Chips zu einem Paket zusammen, das der Anzahl von 86 Milliarden Neuronen eines menschlichen Gehirns nahekommt.
Wie Sie Ihr persönliches Internet der Dinge vor versteckten Gefahren schützen
Ein weiterer TrueNorth-Partner ist das Air Force Research Laboratory, das mit dem IBM-Chip Videomaterial auf ungewöhnliche Vorkommnisse hin untersucht, Computerangriffe ausfindig macht, gedruckten Text oder Audioaufnahmen von Sprache erkennt und zusammenfasst, sowie für die Steuerung autonomer Drohnen. Eine Drohne „muss wissen, wo sie ist, was sie als nächstes tun soll und wohin sie dafür fliegen muss“, sagte Entwickler Qing Wu von Air-Force-Lab. „Wir brauchen eine sehr effiziente Datenverarbeitung an Bord. Das ist der Punkt, an dem unserer Meinung nach IBMs TrueNorth-Chips entscheidend helfen können.“
Die US-Luftwaffe entwickle auch ein System, das einen traditionellen Computer und ein TrueNorth-System zusammenbringe, sagte Wu – ähnlich wie die beiden Hälften eines Gehirns. „Die linke Hälfte ist gut für sequenzielle Verarbeitung und Mathematik, die rechte bei Schlussfolgerungen und Verstehen von Situationen.“
Erneut präsentierte sich auch das Lawrence Livermore National Laboratory als TrueNorth-Partner. Es berichtete auf der IBM-Veranstaltung, es könne mit solchen Chips schon erfolgreich Autos in Luftaufnahmen identifizieren. Auch arbeite man an einer Integration mit Supercomputern.
[mit Material von Stephen Shankland, ZDNet.com]
Tipp: Kennen Sie die größten Technik-Flops der IT-Geschichte? Überprüfen Sie Ihr Wissen – mit 14 Fragen auf silicon.de.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…
Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…