Justin Rattner, CTO und Chef der Intel Labs, hat auf dem Intel Developer Forum (IDF) in San Francisco die Pläne seines Unternehmens zu Context-Aware-Computing vorgestellt. Darunter versteht er Geräte, die selbst herausfinden, was der Nutzer in bestimmten Situationen mit ihnen machen möchte. Dafür sollen sie auf „Hard Sensors“ wie Bewegungsmelder und GPS-Empfänger sowie auf „Soft Sensors“ wie Kalendereinträge oder vom Anwender eingegebene Daten zurückgreifen.
Als Beispiel für ein kontextsensitives Gerät demonstrierte Rattner den „Personal Vacation Assistant“, an dem Intel schon seit längerer Zeit arbeitet. Der „persönliche Urlaubsberater“ – immer noch ein Prototyp – sieht aus wie ein großes Navigationsgerät. Mit den Kontextinformationen, die er sammelt, soll er Reisenden bei der Planung ihrer Aktivitäten helfen.
Dazu gibt der Anwender seine Vorlieben ein, etwa, wo er gerne übernachtet und was er gerne unternimmt. Diese Informationen verknüpft das Gerät mit Daten über vergangene Aktivitäten, dem momentanen Standort und den Eintragungen im Kalender. Auf dieser Basis empfiehlt es Sehenswürdigkeiten, Restaurants und andere Orte. Am Ende der Reise stellt das Gerät einen Reisebericht samt Fotos und Videos zusammen. Intel und der Reiseführer-Anbieter Fodor’s haben das Gerät bereits mit rund einem Dutzend Touristen in New York City getestet.
„Die Sensorinformationen sind der Kern dieser kontextsensitiven Geräte“, erklärte Lama Nachman, Forscherin der Intel Labs. Sie stellte den Prototypen einer TV-Fernbedienung vor, die mittels zahlreicher Sensoren erkennen soll, wer sie gerade in der Hand hält. Nachman zufolge erkennt das Gerät Personen an der Art, wie sie sich bewegen. Den zugrunde liegenden Vorgang nennen die Intel-Techniker „unbeaufsichtigtes Lernen“, was bedeutet, dass die Sensoren immer aktiv sind und die Software im Hintergrund lernt.
Hat die Fernbedienung den Nutzer erkannt, macht sie ihm je nach Vorlieben Vorschläge, welche Sendungen er sich ansehen sollte. Diese Vorschläge erscheinen als Pop-up-Menü auf dem Fernsehbildschirm.
Außer der Entwicklung konkreter Anwendungen, befasst man sich bei Intel auch damit, die Daten der Hard- und Soft-Sensoren auf eine Plattform zu bringen, über die der Anwender sie kontrollieren kann. „Wir brauchen ein System aus Wahrnehmungskategorien, um Kontextinformationen zu verwalten“, erklärt Rattner. „So können die Anwender regeln, welche Kontextinformationen an wen weitergegeben werden und wann die Informationen ungültig werden sollen.“
Rattner wollte keine Vorhersage treffen, wann die ersten kontextsensitiven Geräte auf den Markt kommen. Er erklärte lediglich, dass „diese Funktionen vermutlich in nicht allzu ferner Zukunft in Intel-Produkten enthalten sein werden“.
Intel hatte im Juli 2010 eine eigene Abteilung zur Erforschung zukünftiger Alltagsgeräte unter dem Namen Interaction and Experience Research (IXR) eingerichtet. Ein Projekt heißt SENS. Es übermittelt automatisch Informationen über Aktivitäten des Anwenders per Netzwerk an Freunde und Verwandte. Das Projekt soll zeigen, wie die Sensoren eines Geräts die jeweiligen Situationskontexte zu einer „sozial erweiterten Realität“ verarbeiten können.
Intels Personal Vacation Assistant ist ein Beispiel für Context-Aware-Computing (Bild: Intel).
Neueste Kommentare
Noch keine Kommentare zu IDF: Intel experimentiert mit kontextsensitiven Geräten
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.