Categories: Workspace

Uni Bonn: PC-Steuerung durch Handbewegung

Informatiker der Universität Bonn haben ein Verfahren entwickelt, mit dem es möglich ist, 3D-Anwendungen durch bloße Handbewegungen zu steuern. Die Verwendung eines Datenhandschuhs ist bei der von den Forschern „Handtracking“ genannten Methode nicht mehr notwendig. „Unser System funktioniert mit drei Camcordern, die die Bewegung der Fingerspitzen verfolgen“, erklärt Markus Schlattmann, wissenschaftlicher Mitarbeiter der Arbeitsgruppe „Computer, Grafik„. „Das Ganze geht präzise, schnell und intuitiv“, sagt der Informatiker. Zur Demonstration steuert Schlattmann ein virtuelles Flugzeug mit bloßen Handgesten über die Alpen.

Jede der drei Kameras ist an einen Computer angeschlossen, der die Handbewegungen verarbeitet und an einen zentralen PC weitersendet. „Die drei Rechner sind notwendig, weil die Ansteuerung der Camcorder nicht anders möglich ist. Von der Rechenleistung her wären sie allerdings nicht notwendig“, so Schlattmann. „Der zentrale Rechner arbeitet mit einer Geforce-8800-Grafikkarte. Das System läuft prinzipiell auf normaler Hardware. Bei Verwendung von drei normalen Webcams kann unser Handtracking-Verfahren auch auf Privat-Computern eingesetzt werden.“

„Das Besondere an unserem Verfahren ist, dass wir ohne externe Hilfsmittel auskommen“, so Schlattmanns Kollege Ferenc Kahlesz. „Um Handbewegungen in Echtzeit mit großer Genauigkeit verfolgen zu können, muss man normalerweise zumindest die Finger farblich markieren, damit sich die Software leichter orientieren kann. Oder man braucht dazu einen Datenhandschuh, der die Gelenkstellung per Funk oder Kabel an den Rechner meldet.“ Mit einem einzigen Handschuh ist es zudem oft nicht getan – schließlich haben die Nutzer unterschiedlich große Hände. Das Bonner Verfahren sei flexibler, sagen die Forscher. Egal ob Kinderhände oder jene von Erwachsenen, die Kameras würden genau erkennen, in welche Richtung der Benutzer gerade zeigt und wie seine Handfläche geneigt ist.

Zudem muss das Verfahren nicht initialisiert werden. Sobald die Hand im Blickfeld der Kameras auftaucht, legt die Tracking-Software los. Bei anderen Methoden wird der Nutzer bei Programmstart aufgefordert, seine Hand in einer definierten Position an eine bestimmte Stelle zu legen. „Das System funktioniert mittlerweile sehr gut, wir haben jedoch noch einige Ideen und Verbesserungspläne“, sagt Schlattmann.

Das Verfahren soll auch nicht nur für die Gamer-Gemeinde interessant sein, denn intuitive und flexible Eingabegeräte seien etwa in der Medizin gefragt. Beispielsweise fallen in der Computertomographie immense Datenmengen an, aus denen Grafikprogramme detaillierte dreidimensionale Bilder erzeugen. Mit der Software ist es zum Beispiel möglich, sich durch das Gehirn zu einem Tumor zu navigieren. Man kann ihn aus allen Blickwinkeln betrachten oder umliegendes, die Sicht verstellendes Gewebe ausblenden.

ZDNet.de Redaktion

Recent Posts

KI-gestütztes Programmieren bringt IT-Herausforderungen mit sich

OutSystems-Studie: 62 Prozent der Befragten haben Sicherheits- und Governance-Bedenken bei Softwareentwicklung mit KI-Unterstützung.

2 Tagen ago

Studie: Ein Drittel aller E-Mails an Unternehmen sind unerwünscht

Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…

5 Tagen ago

HubPhish: Phishing-Kampagne zielt auf europäische Unternehmen

Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…

6 Tagen ago

1. Januar 2025: Umstieg auf E-Rechnung im B2B-Geschäftsverkehr

Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.

6 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…

6 Tagen ago

Erreichbarkeit im Weihnachtsurlaub weiterhin hoch

Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…

7 Tagen ago