Categories: Workspace

Uni Bonn: PC-Steuerung durch Handbewegung

Informatiker der Universität Bonn haben ein Verfahren entwickelt, mit dem es möglich ist, 3D-Anwendungen durch bloße Handbewegungen zu steuern. Die Verwendung eines Datenhandschuhs ist bei der von den Forschern „Handtracking“ genannten Methode nicht mehr notwendig. „Unser System funktioniert mit drei Camcordern, die die Bewegung der Fingerspitzen verfolgen“, erklärt Markus Schlattmann, wissenschaftlicher Mitarbeiter der Arbeitsgruppe „Computer, Grafik„. „Das Ganze geht präzise, schnell und intuitiv“, sagt der Informatiker. Zur Demonstration steuert Schlattmann ein virtuelles Flugzeug mit bloßen Handgesten über die Alpen.

Jede der drei Kameras ist an einen Computer angeschlossen, der die Handbewegungen verarbeitet und an einen zentralen PC weitersendet. „Die drei Rechner sind notwendig, weil die Ansteuerung der Camcorder nicht anders möglich ist. Von der Rechenleistung her wären sie allerdings nicht notwendig“, so Schlattmann. „Der zentrale Rechner arbeitet mit einer Geforce-8800-Grafikkarte. Das System läuft prinzipiell auf normaler Hardware. Bei Verwendung von drei normalen Webcams kann unser Handtracking-Verfahren auch auf Privat-Computern eingesetzt werden.“

„Das Besondere an unserem Verfahren ist, dass wir ohne externe Hilfsmittel auskommen“, so Schlattmanns Kollege Ferenc Kahlesz. „Um Handbewegungen in Echtzeit mit großer Genauigkeit verfolgen zu können, muss man normalerweise zumindest die Finger farblich markieren, damit sich die Software leichter orientieren kann. Oder man braucht dazu einen Datenhandschuh, der die Gelenkstellung per Funk oder Kabel an den Rechner meldet.“ Mit einem einzigen Handschuh ist es zudem oft nicht getan – schließlich haben die Nutzer unterschiedlich große Hände. Das Bonner Verfahren sei flexibler, sagen die Forscher. Egal ob Kinderhände oder jene von Erwachsenen, die Kameras würden genau erkennen, in welche Richtung der Benutzer gerade zeigt und wie seine Handfläche geneigt ist.

Zudem muss das Verfahren nicht initialisiert werden. Sobald die Hand im Blickfeld der Kameras auftaucht, legt die Tracking-Software los. Bei anderen Methoden wird der Nutzer bei Programmstart aufgefordert, seine Hand in einer definierten Position an eine bestimmte Stelle zu legen. „Das System funktioniert mittlerweile sehr gut, wir haben jedoch noch einige Ideen und Verbesserungspläne“, sagt Schlattmann.

Das Verfahren soll auch nicht nur für die Gamer-Gemeinde interessant sein, denn intuitive und flexible Eingabegeräte seien etwa in der Medizin gefragt. Beispielsweise fallen in der Computertomographie immense Datenmengen an, aus denen Grafikprogramme detaillierte dreidimensionale Bilder erzeugen. Mit der Software ist es zum Beispiel möglich, sich durch das Gehirn zu einem Tumor zu navigieren. Man kann ihn aus allen Blickwinkeln betrachten oder umliegendes, die Sicht verstellendes Gewebe ausblenden.

ZDNet.de Redaktion

Recent Posts

Google kündigt neue Sicherheitsfunktionen für Chrome an

Der Sicherheitscheck entzieht unsicheren Websites automatisch alle Berechtigungen. Zudem können Nutzer in Chrome künftig Websites…

7 Stunden ago

Cyberkriminelle nehmen Fertigungsbetriebe ins Visier

Ontinue registriert einen Anstieg beim Anteil am Gesamtangriffsvolumen um 105 Prozent. Das Angriffsvolumen auf den…

7 Stunden ago

o1: OpenAI stellt neues KI-Modell für komplexe Abfragen vor

Das o1 genannte Modell liegt als Preview vor. Bei einer Mathematikprüfung beantwortet es 83 Prozent…

3 Tagen ago

Zoom erhält IT-Sicherheits- kennzeichen des BSI

Das Kennzeichen erhalten Zoom Workplace Pro und Zoom Workplace Basic. Es bescheinigt unter anderem aktuelle…

4 Tagen ago

Google verbessert Tab-Verwaltung in Chrome

iOS und iPadOS erhalten Tab-Gruppen. Zudem unterstützt Chrome nun die Synchronisierung von Tab-Gruppen.

4 Tagen ago

Identitätsdiebstahl: 58 Prozent der Deutschen sorgen sich um digitales Erbe

Sie befürchten einen Missbrauch der Identitäten von Verstorbenen. 60 Prozent befürworten deswegen eine Klärung des…

4 Tagen ago