Categories: Workspace

Uni Bonn: PC-Steuerung durch Handbewegung

Informatiker der Universität Bonn haben ein Verfahren entwickelt, mit dem es möglich ist, 3D-Anwendungen durch bloße Handbewegungen zu steuern. Die Verwendung eines Datenhandschuhs ist bei der von den Forschern „Handtracking“ genannten Methode nicht mehr notwendig. „Unser System funktioniert mit drei Camcordern, die die Bewegung der Fingerspitzen verfolgen“, erklärt Markus Schlattmann, wissenschaftlicher Mitarbeiter der Arbeitsgruppe „Computer, Grafik„. „Das Ganze geht präzise, schnell und intuitiv“, sagt der Informatiker. Zur Demonstration steuert Schlattmann ein virtuelles Flugzeug mit bloßen Handgesten über die Alpen.

Jede der drei Kameras ist an einen Computer angeschlossen, der die Handbewegungen verarbeitet und an einen zentralen PC weitersendet. „Die drei Rechner sind notwendig, weil die Ansteuerung der Camcorder nicht anders möglich ist. Von der Rechenleistung her wären sie allerdings nicht notwendig“, so Schlattmann. „Der zentrale Rechner arbeitet mit einer Geforce-8800-Grafikkarte. Das System läuft prinzipiell auf normaler Hardware. Bei Verwendung von drei normalen Webcams kann unser Handtracking-Verfahren auch auf Privat-Computern eingesetzt werden.“

„Das Besondere an unserem Verfahren ist, dass wir ohne externe Hilfsmittel auskommen“, so Schlattmanns Kollege Ferenc Kahlesz. „Um Handbewegungen in Echtzeit mit großer Genauigkeit verfolgen zu können, muss man normalerweise zumindest die Finger farblich markieren, damit sich die Software leichter orientieren kann. Oder man braucht dazu einen Datenhandschuh, der die Gelenkstellung per Funk oder Kabel an den Rechner meldet.“ Mit einem einzigen Handschuh ist es zudem oft nicht getan – schließlich haben die Nutzer unterschiedlich große Hände. Das Bonner Verfahren sei flexibler, sagen die Forscher. Egal ob Kinderhände oder jene von Erwachsenen, die Kameras würden genau erkennen, in welche Richtung der Benutzer gerade zeigt und wie seine Handfläche geneigt ist.

Zudem muss das Verfahren nicht initialisiert werden. Sobald die Hand im Blickfeld der Kameras auftaucht, legt die Tracking-Software los. Bei anderen Methoden wird der Nutzer bei Programmstart aufgefordert, seine Hand in einer definierten Position an eine bestimmte Stelle zu legen. „Das System funktioniert mittlerweile sehr gut, wir haben jedoch noch einige Ideen und Verbesserungspläne“, sagt Schlattmann.

Das Verfahren soll auch nicht nur für die Gamer-Gemeinde interessant sein, denn intuitive und flexible Eingabegeräte seien etwa in der Medizin gefragt. Beispielsweise fallen in der Computertomographie immense Datenmengen an, aus denen Grafikprogramme detaillierte dreidimensionale Bilder erzeugen. Mit der Software ist es zum Beispiel möglich, sich durch das Gehirn zu einem Tumor zu navigieren. Man kann ihn aus allen Blickwinkeln betrachten oder umliegendes, die Sicht verstellendes Gewebe ausblenden.

ZDNet.de Redaktion

Recent Posts

Black Friday: Vorsicht vor schädlichen QR-Codes

Bösartige QR-Codes, die per E-Mail versendet werden, eignen sich sehr gut, um Spam-Filter zu umgehen.

22 Stunden ago

Black Friday: Zahl der ominösen Shopping-Websites steigt

Unsichere Websites und Phishing-Mails in Verbindung mit Black Friday können kauffreudigen Konsumenten zum Verhängnis werden.

23 Stunden ago

SmokeBuster bekämpft SmokeLoader

Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.

1 Tag ago

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

2 Tagen ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

2 Tagen ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

2 Tagen ago