Wer heute ein Videogerät, Handy oder einen Fotoapparat kauft, muss sich erst umständlich durch Menüs und Bedienungsanleitungen kämpfen. Besser wäre es, wenn man dem neuen Gerät einfach sagen könnte, was man von ihm will, und zwar so, wie man mit einem anderen Menschen reden würde. Flexibler, natürlicher Sprachdialog mit technischen Geräten, der wie eine Unterhaltung in der Alltagssprache funktioniert, ist das Ziel des europäischen Forschungsprojekts Talk, das von Manfred Pinkal, Professor für Computerlinguistik an der Universität des Saarlandes, koordiniert wird.
Auf den Voice Days in Bonn wird Pinkal am 19. Oktober 2006 die neue Technologie vorstellen, die in Talk entwickelt und gemeinsam mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), den Firmen BMW und Bosch in ein Demonstratorsystem für die Sprachsteuerung im Fahrzeug umgesetzt wurde. „In der Future Park-Ausstellung im Alten Bundestag Park wird vorgeführt, wie ein Autofahrer im lockeren Gespräch mit seinem MP3-Player alle gewünschten Musiktitel erhält, ohne auch nur eine Taste zu drücken: Herkömmliche Sprachdialogsysteme funktionieren über spezielle Kommandos, die der Benutzer lernen muss. Das Gerät bestimmt die Sprache, in der man mit ihm reden kann und der unerfahrene Benutzer gibt oft nach wenigen Versuchen frustriert auf, weil das System anders als erwartet oder gar nicht reagiert“, so Pinkal. Für die Wissenschaftler des Talk-Projekts sei von Beginn an klar gewesen, dass die Kommunikation zwischen Mensch und komplexem Gerät nur erfolgreich sein werde, wenn der Mensch in seiner Alltagssprache den Ton angeben könne. Deshalb sei ein multimodales Verfahren zur Dialogmodellierung entwickelt worden, mit dem man die menschliche Sprache mit grafischen Oberflächen und der konventionellen Tastenbedienung kombiniere.
„Die Systeme sind inhaltsorientiert und flexibel. Der Benutzer sagt das, was er will, und zwar so, wie er es will: als knappe Anweisung oder in ganzen Sätzen und zwar mit selbst gewählten Worten. Und die Systeme sind anpassungsfähig, sie stellen sich also nicht nur auf das Wissen und Können des Benutzers ein, sondern auch auf die Situation. Das ist im Fahrzeug besonders wichtig, da der Fahrer nicht von seiner eigentlichen Aufgabe, der Fahrzeugführung, abgelenkt werden darf“, erklärt Pinkal.
Kern der zukunftsweisenden Sprachdialogsysteme sei das Konzept des „Information State Update“ (ISU), das in einer Serie von EU-Projekten seit Ende der neunziger Jahre entwickelt wurde: „Alle Informationen über den Ablauf des Mensch-Maschine-Dialogs werden im ‚Informationszustand‘ des Systems gespeichert. Bei jeder Anfrage berechnet es die jeweils angemessene Reaktion und ergänzt den Informationszustand mit zusätzlichen Informationen über den Benutzer, die dann bei den folgenden Gesprächen verwendet werden“, sagt Pinkal.
Die ISU-Technik unterstütze die Feinabstimmung des Dialogs auf die Situation und sie erlaube die Modellierung von häufig wiederkehrenden Dialogmustern: Der Kern des Dialogsystems könne für verschiedene natürliche Sprachen und grafische Oberflächen eingesetzt und auf ganz unterschiedliche Gebiete angewendet werden. Sich wiederholende Anforderungen wie ähnliche Dialoge oder tabellarische Übersichten müssten nicht jedes Mal neu programmiert werden, sondern könnten – einmal abgespeichert – für alle möglichen Situationen abgerufen werden. Das spare Zeit und Kosten in der Entwicklung.
OutSystems-Studie: 62 Prozent der Befragten haben Sicherheits- und Governance-Bedenken bei Softwareentwicklung mit KI-Unterstützung.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…