Project Oxford: Microsoft arbeitet an der Erkennung von Emotionen

Die Cloud-basierten Algorithmen sollen Softwareentwicklern ermöglichen, anhand von Fotos Gesichtsausdrücke und menschliche Emotionen zu identifizieren. Das Tool kann mehrere Personen und verschiedene Gefühlszustände gleichzeitig verfolgen. Die Gefühlserkennung ist eines von mehreren Werkzeugen, die Microsofts Project Oxford in seinem Portfolio von APIs und SDKs anbietet.

Microsofts Project Oxford, eine Sammlung von Cloud-Services, bietet eine Technologie zur Erkennung von Gesichtsausdrücken. Softwareentwickler sollen mit den Cloud-basierten Algorithmen in die Lage versetzt werden, anhand von Fotos menschliche Emotionen zu identifizieren. Das Tool wurde in einer Betaversion freigegeben und verspricht, acht wesentliche menschliche Gefühlszustände auszumachen: Wut, Verachtung, Furcht, Ekel, Glück, Indifferenz, Trauer und Überraschung. Laut Microsoft werden diese Emotionen über Kulturgrenzen hinweg verstanden und mit bestimmten Gesichtsausdrücken vermittelt.

CEO Satya Nadella erklärte während einer Veranstaltung die Absicht, alternative Eingabe- und Ausgabemethoden zu schaffen, um neue Kategorien persönlicher Computer zu ermöglichen. Das Emotionen ermittelnde Tool ist als ein Beispiel dafür gedacht. Geräte sollen in einer völlig neuen Weise mit Anwendern interagieren können, wenn sie fähig sind, die Stimmung eines Nutzers zu erkennen.

Das KI-Tool erkennt Gesichtsausdrücke und menschliche Emotionen (Bild: Microsoft).Das KI-Tool erkennt Gesichtsausdrücke und menschliche Emotionen (Bild: Microsoft).

In seiner Betavariante ist das Werkzeug offenbar noch nicht in der Lage, Gefühle immer zweifelsfrei und richtig zu ermitteln, vermag auch nicht das gesamte Spektrum menschlicher Emotionen zu erkennen. Bei seiner Demonstration versuchte Chris Bishop, Chef von Microsoft Research Cambridge, jedoch das große Potenzial aufzuzeigen. Er führte vor, wie mehrere Personen und verschiedene Emotionen gleichzeitig verfolgt werden können. Jede der Emotionen wurde mit einem Skalawert zwischen null und eins ausgegeben.

WEBINAR

Wie eine optimale IT-Infrastruktur für UCC-Lösungen die Produktivität Ihrer Mitarbeiter steigert

Das Webinar “Wie eine optimale IT-Infrastruktur für UCC-Lösungen die Produktivität Ihrer Mitarbeiter steigert” informiert Sie über die Vorteile einer Unified Communications & Collaboration-Lösung (UCC) und skizziert die technischen Grundlagen, die für die erfolgreiche Implementierung nötig sind. Jetzt registrieren und die aufgezeichnete Fassung des Webinars ansehen.

Als ein konkretes Beispiel für den Einsatz nannte Microsoft die Einschätzung von Kundenreaktionen durch Marketing-Fachleute. Ein Entwickler könnte das Tool etwa auch in einer Messaging-App einsetzen, die Emotionen als Bilder zu interpretieren vermag.

Die Gefühlserkennung ist eines von mehreren Werkzeugen, die das Project Oxford in seinem Portfolio von Künstliche-Intelligenz-APIs und SDKs anbietet. Dazu zählen die Computer-Vision-APIs zur Erkennung und Einordnung von Bildinhalten, die Face-APIs zur Gesichtserkennung, die Speech-APIs mit Spracherkennung und Sprachsynthese sowie APIs für Rechtschreibprüfung. Der Language Understanding Intelligent Service (LUIS) verspricht eine für die jeweilige Anwendung maßgeschneiderte Erkennung von Anweisungen in natürlicher Sprache.

[mit Material von Katie Collins, News.com]

Themenseiten: Anwendungsentwicklung, Cloud-Computing, Microsoft, Software

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

2 Kommentare zu Project Oxford: Microsoft arbeitet an der Erkennung von Emotionen

Kommentar hinzufügen
  • Am 13. November 2015 um 10:12 von Gast

    Okay…prima…da man davon ausgehen kann, dass keine Daten wirklich sicher sind, so bin ich also bald komplett gläsern bei den Geheimdiensten vorhanden:
    Nicht nur Adresse, Geburtsdatum, usw., Vorlieben, Freunde, Mailverkehr (->Lebensabläufe), sondern auch Fingerabdruck, Iris, Emotionen (also Gestik und Mimik)…

    ->Klon, übernehmen Sie!

  • Am 13. November 2015 um 9:30 von M@tze

    „Jede der Emotionen wurde mit einem Skalawert zwischen null und eins ausgegeben.“ Zwischen Null und Eins kommt aber nicht mehr viel… ;) Wird das jetzt als boolescher Wert dargestellt oder zwischen 0 und 100?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *