Categories: Workspace

Uni Bonn: PC-Steuerung durch Handbewegung

Informatiker der Universität Bonn haben ein Verfahren entwickelt, mit dem es möglich ist, 3D-Anwendungen durch bloße Handbewegungen zu steuern. Die Verwendung eines Datenhandschuhs ist bei der von den Forschern „Handtracking“ genannten Methode nicht mehr notwendig. „Unser System funktioniert mit drei Camcordern, die die Bewegung der Fingerspitzen verfolgen“, erklärt Markus Schlattmann, wissenschaftlicher Mitarbeiter der Arbeitsgruppe „Computer, Grafik„. „Das Ganze geht präzise, schnell und intuitiv“, sagt der Informatiker. Zur Demonstration steuert Schlattmann ein virtuelles Flugzeug mit bloßen Handgesten über die Alpen.

Jede der drei Kameras ist an einen Computer angeschlossen, der die Handbewegungen verarbeitet und an einen zentralen PC weitersendet. „Die drei Rechner sind notwendig, weil die Ansteuerung der Camcorder nicht anders möglich ist. Von der Rechenleistung her wären sie allerdings nicht notwendig“, so Schlattmann. „Der zentrale Rechner arbeitet mit einer Geforce-8800-Grafikkarte. Das System läuft prinzipiell auf normaler Hardware. Bei Verwendung von drei normalen Webcams kann unser Handtracking-Verfahren auch auf Privat-Computern eingesetzt werden.“

„Das Besondere an unserem Verfahren ist, dass wir ohne externe Hilfsmittel auskommen“, so Schlattmanns Kollege Ferenc Kahlesz. „Um Handbewegungen in Echtzeit mit großer Genauigkeit verfolgen zu können, muss man normalerweise zumindest die Finger farblich markieren, damit sich die Software leichter orientieren kann. Oder man braucht dazu einen Datenhandschuh, der die Gelenkstellung per Funk oder Kabel an den Rechner meldet.“ Mit einem einzigen Handschuh ist es zudem oft nicht getan – schließlich haben die Nutzer unterschiedlich große Hände. Das Bonner Verfahren sei flexibler, sagen die Forscher. Egal ob Kinderhände oder jene von Erwachsenen, die Kameras würden genau erkennen, in welche Richtung der Benutzer gerade zeigt und wie seine Handfläche geneigt ist.

Zudem muss das Verfahren nicht initialisiert werden. Sobald die Hand im Blickfeld der Kameras auftaucht, legt die Tracking-Software los. Bei anderen Methoden wird der Nutzer bei Programmstart aufgefordert, seine Hand in einer definierten Position an eine bestimmte Stelle zu legen. „Das System funktioniert mittlerweile sehr gut, wir haben jedoch noch einige Ideen und Verbesserungspläne“, sagt Schlattmann.

Das Verfahren soll auch nicht nur für die Gamer-Gemeinde interessant sein, denn intuitive und flexible Eingabegeräte seien etwa in der Medizin gefragt. Beispielsweise fallen in der Computertomographie immense Datenmengen an, aus denen Grafikprogramme detaillierte dreidimensionale Bilder erzeugen. Mit der Software ist es zum Beispiel möglich, sich durch das Gehirn zu einem Tumor zu navigieren. Man kann ihn aus allen Blickwinkeln betrachten oder umliegendes, die Sicht verstellendes Gewebe ausblenden.

ZDNet.de Redaktion

Recent Posts

Gaming-bezogene Phishing-Attacken um 30 Prozent gestiegen

Über drei Millionen Angriffsversuche unter Deckmantel von Minecraft / YouTube-Star Mr. Beast als prominenter Köder

2 Tagen ago

KI erleichtert Truckern die Parkplatzsuche

Die Prognose für die Anfahrt bezieht das Verkehrsaufkommen, die Stellplatzverfügbarkeit sowie die Lenk- und Ruhezeiten…

2 Tagen ago

EU AI-Act Risk Assessment Feature

Unternehmen können mit Casebase Portfolio an Daten- und KI-Anwendungsfällen organisieren.

2 Tagen ago

Smarthome-Geräte sind Einfallstor für Hacker

Smart-TV oder Saugroboter: Nutzer schützen ihre smarten Heimgeräte zu wenig, zeigt eine repräsentative BSI-Umfrage.

2 Tagen ago

Core Ultra 200V: Intel stellt neue Notebook-Prozessoren vor

Im Benchmark erreicht der neue Core Ultra 200V eine Laufzeit von 14 Stunden. Intel tritt…

2 Tagen ago

Irrglaube Inkognito-Modus

Jeder dritte hält sich damit für unsichtbar. Wie widersprüchlich unser Datenschutzverhalten oft ist, zeigt eine…

3 Tagen ago