Forscher von Samsung haben ein System namens Dynamic Vision Sensor vorgestellt, das Bilder inhaltsbezogen verarbeitet. Es basiert auf IBMs neuronalem, also dem menschlichen Gehirn nachgearbeiteten Prozessor TrueNorth. „Jeder Pixel arbeitet unabhängig“ und meldet sich erst, wenn er eine Veränderung wahrnimmt, sagte Samsung-Manager Eric Ryu auf einer Veranstaltung von IBM Research.
Ryu ist Vizepräsident für Forschung des Samsung Advanced Institute of Technology. Ihm zufolge arbeitet das neuartige System für Computervision mit beachtlichen 2000 Bildern pro Sekunde (fps), während normale Digitalkameras vielleicht auf 120 fps kommen. Das sei besonders praktisch, wenn man 3D-Karten erstelle, für Sicherheitsfunktionen selbstlenkender Autos oder neuartige Eingabesysteme, die Gesten erkennen können.
Mit einer Leistungsaufnahme von etwa 300 Milliwatt sei TrueNorth auch sehr effizient, ergänzte Ryu. Ein Notebook brauche hundertmal so viel, ein Smartphone-Prozessor immer noch das Zehnfache. Das menschliche Gehirn aber könne einige Aufgaben mit dem hundertmillionsten Teil des Energieverbrauchs eines Computers bewältigen. „Es gibt da einen gewaltigen Abstand zwischen Biologie und moderner Halbleitertechnologie.“
Samsung demonstrierte die Möglichkeiten des Computervisionssystems mit einer Gestensteuerung für einen Fernseher. Dabei wurden Hand- und Fingerbewegungen, geschlossene Fäuste und Gesten unter Zuhilfenahme mehrerer Finger aus etwa drei Metern Abstand erkannt.
Da die neuronalen Prozessoren wenig Hitze entwickeln, hofft Samsung, sie zu größeren Gruppen zusammenfassen zu können. IBM selbst setzt jeweils 16 Chips zu einem Paket zusammen, das der Anzahl von 86 Milliarden Neuronen eines menschlichen Gehirns nahekommt.
Wie Sie Ihr persönliches Internet der Dinge vor versteckten Gefahren schützen
Ein weiterer TrueNorth-Partner ist das Air Force Research Laboratory, das mit dem IBM-Chip Videomaterial auf ungewöhnliche Vorkommnisse hin untersucht, Computerangriffe ausfindig macht, gedruckten Text oder Audioaufnahmen von Sprache erkennt und zusammenfasst, sowie für die Steuerung autonomer Drohnen. Eine Drohne „muss wissen, wo sie ist, was sie als nächstes tun soll und wohin sie dafür fliegen muss“, sagte Entwickler Qing Wu von Air-Force-Lab. „Wir brauchen eine sehr effiziente Datenverarbeitung an Bord. Das ist der Punkt, an dem unserer Meinung nach IBMs TrueNorth-Chips entscheidend helfen können.“
Die US-Luftwaffe entwickle auch ein System, das einen traditionellen Computer und ein TrueNorth-System zusammenbringe, sagte Wu – ähnlich wie die beiden Hälften eines Gehirns. „Die linke Hälfte ist gut für sequenzielle Verarbeitung und Mathematik, die rechte bei Schlussfolgerungen und Verstehen von Situationen.“
Erneut präsentierte sich auch das Lawrence Livermore National Laboratory als TrueNorth-Partner. Es berichtete auf der IBM-Veranstaltung, es könne mit solchen Chips schon erfolgreich Autos in Luftaufnahmen identifizieren. Auch arbeite man an einer Integration mit Supercomputern.
[mit Material von Stephen Shankland, ZDNet.com]
Tipp: Kennen Sie die größten Technik-Flops der IT-Geschichte? Überprüfen Sie Ihr Wissen – mit 14 Fragen auf silicon.de.
Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…
Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…
Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.
2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…
Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…
NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.