Categories: Workspace

Touchscreen reagiert auf Handzeichen

US-Forscher haben einen Touchscreen namens Thin Sight entwickelt, der Gesten erkennen kann, die der User im Abstand von wenigen Zentimetern vor dem Bildschirm ausführt. „Der Monitor registriert mehr als die bloße Berührung mit dem Finger. Er ist eigentlich sowohl Scanner als auch Kamera mit niedriger Auflösung“, sagt Shahram Izadi, Leiter der Forschungsgruppe am Microsoft Lab.

Thin Sight verfügt über Infrarotsensoren, die Bewegungen von Händen und Fingern registrieren und in Steuerbefehle umsetzen, berichtet der New Scientist. Die Infrarotsensoren sind in einer zusätzlichen Elektronikschicht integriert, die unabhängig von der Anzeigeschicht des Displays arbeitet.

Eine Software wertet die Infrarotdaten aus und setzt sie in Steuerbefehle um. Sie erlaubt außerdem die Steuerung des Rechners mit beiden Händen. Ein Foto kann vergrößert werden, indem der User seine Finger auseinanderzieht. Die umgekehrte Geste bewirkt eine Verkleinerung. Drehen und Wenden der Anzeige ist ebenfalls mit zwei Fingern möglich. Ein Demonstrationsvideo findet sich bei Youtube.

Als großen Vorteil ihrer Entwicklung betrachten die Forscher, dass sich die Technologie in einen Monitor integrieren lässt. Bislang entwickelte Modelle zur Steuerung per Geste erfordern zusätzliche Kameras, die die Bewegungen aufnehmen. Mit der Thin-Sight-Technologie nimmt lediglich die Stärke des Monitors durch die zusätzliche Infrarotsensorschicht etwas zu. Andere Unternehmen forschen ebenfalls an „sehenden“ Displays. So hatte
Apple einen Bildschirm patentiert, der wie eine Webcam arbeitet. Zwischen den einzelnen Pixeln befinden sich Kamerasensoren. Sharp wiederum hatte ein Display präsentiert, das Visitenkarten einscannen kann.

Laut Analysten wird sich der Touchscreen-Sektor zu einer wahren Goldgrube entwickeln und in fünf Jahren 4,4 Milliarden Dollar Umsatz bringen. Multifunktionale Touchscreens, die mit zusätzlicher Sensorik erweiterte Funktionen ermöglichen, stecken jedoch noch in den Kinderschuhen. „Es ist noch sehr früh für diesen Ansatz. Die aktuellen Prototypen sind zumeist sehr klein und arbeiten langsam“, sagt Izadis Kollege Steve Hodges. „In zehn Jahren werden wir jedoch viele Multitouch-Displays vorfinden.“

Durch Infrarotsensoren eröffne sich noch eine weitere Möglichkeit, so Izadi. Thin Sight könne sowohl Infrarotsignale empfangen als auch senden. Der Monitor funktioniere damit auch mit einer herkömmlichen Fernbedienung, mit der der Rechner gesteuert werden könne. Daten könnten beispielsweise von einem Mobiltelefon empfangen, aber auch an ein entsprechendes Gerät gesendet werden.

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

13 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

1 Tag ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

2 Tagen ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

2 Tagen ago