Erinnern Sie sich noch: Als die Verbraucherversion von Google Glass im Jahr 2014 auf den Markt kam, wurde sie als Beginn einer neuen Ära von Mensch-Computer-Schnittstellen gepriesen. Die Menschen sollten damit ihren Alltag bestreiten und alle benötigten Informationen direkt vor ihren Augen abrufen. Wie viele Menschen sehen Sie heute, acht Jahre später, mit einer intelligenten Brille herumlaufen?
Die Stanford-Professorin Elizabeth Gerber erklärt, dass die Technologie die Menschen nur erreichen kann, wenn sie es wollen. In ihrer Rede auf der Herbstkonferenz der Stanford Human-Centered Artificial Intelligence stellte sie fest, dass „wir Google Glass nicht tragen wollten, weil es in unsere Privatsphäre eindrang. Wir wollten es auch nicht, weil es die menschliche Interaktion verändert. Denken Sie einfach an Google Glass, wenn Sie darüber nachdenken, was KI leisten kann – die Menschen müssen es wollen.“
„KI so zu gestalten, dass die Menschen sie wollen, ist genauso wichtig wie sicherzustellen, dass sie funktioniert“, so Gerber weiter. Eine weitere Lektion ist der gescheiterte Einsatz von KI-basierten Tutoren, die dazu führten, dass die Kinder von den Fächern abgehalten wurden. Das Gleiche gilt für Arbeitnehmer, die mit KI-gesteuerten Systemen arbeiten müssen, fügte sie hinzu. Die Entwicklung von KI, die den Menschen in den Mittelpunkt stellt, erfordert eine stärkere Interaktion mit den Menschen im gesamten Unternehmen und ist oft eine harte Arbeit, um alle Beteiligten dazu zu bringen, sich darüber zu verständigen, welche Systeme hilfreich und für das Unternehmen von Wert sind.
„Die richtigen Leute im Raum zu haben, ist keine Garantie für einen Konsens, und in der Tat entstehen Ergebnisse oft aus Unstimmigkeiten und Unbehagen. Wir müssen mit Unbehagen umgehen und es produktiv nutzen“, sagte Genevieve Bell, Professorin an der Australian National University und Rednerin auf der HAI-Veranstaltung. „Wie bringt man Menschen bei, sich an einem Ort zurechtzufinden, an dem sie sich unwohl fühlen?“
Es könnte sogar bedeuten, dass keine KI besser ist als irgendeine KI, wie Gerber betonte. „Denken Sie daran, dass Sie bei der Entwicklung diesen menschenzentrierten Ansatz verfolgen und für die Arbeit der Menschen entwerfen, manchmal brauchen Sie nur ein Skript. Anstatt einen KI-zentrierten Ansatz zu verfolgen, sollten Sie den Menschen in den Mittelpunkt stellen. Entwerfen und testen Sie iterativ mit den Menschen, um ihre Arbeitszufriedenheit und ihr Engagement zu steigern.“
Vielleicht ist es kontraintuitiv, bei der Entwicklung von KI nicht zu versuchen, KI menschenähnlicher zu machen, z. B. durch den Einsatz von natürlicher Sprachverarbeitung für Konversationsschnittstellen. Dabei kann die Funktionalität des Systems, die den Menschen zu mehr Produktivität verhilft, verwässert werden oder ganz verloren gehen. „Sehen Sie sich an, was passiert, wenn jemand, der es nicht versteht, das Eingabeaufforderungssystem entwirft“, so Ben Shneiderman, Professor an der University of Maryland. „Warum ist es eine Konversationssache? Warum ist es eine natürlich sprachliche Schnittstelle, wenn es ein großartiger Ort für den Entwurf eines strukturierten Prompts ist, der die verschiedenen Komponenten enthält, die entlang der Semantik entworfen wurden?“
„Der Gedanke, dass die Interaktion zwischen Mensch und Computer auf der Interaktion zwischen Mensch und Mensch basieren sollte, ist suboptimal – es ist ein schlechtes Design“, so Shneiderman weiter. „Menschlich-menschliche Interaktion ist nicht das beste Modell. Wir haben bessere Möglichkeiten zu entwerfen, und die Abkehr von der natürlichen Sprachinteraktion ist eine offensichtliche Möglichkeit. Es gibt viele Möglichkeiten, wie wir dieses Modell überwinden und uns auf die Idee des Designs von Werkzeugen – Super-Tools, Telebots und aktiven Geräten – umstellen können.“
„Wir wissen nicht, wie wir KI-Systeme so gestalten können, dass sie einen positiven Einfluss auf den Menschen haben“, sagte James Landay, stellvertretender Direktor des Stanford HAI und Gastgeber der Konferenz. „Es gibt einen besseren Weg, KI zu entwickeln.“
Die folgenden Empfehlungen wurden auf der Konferenz ausgesprochen:
Die Podiumsteilnehmer schlugen eine neue Definition der menschenzentrierten KI vor, die die Notwendigkeit von Systemen betont, die das menschliche Leben verbessern, und die problematischen Anreize in Frage stellt, die derzeit die Entwicklung von KI-Tools antreiben. „Die derzeitigen Bemühungen beruhen auf der Leugnung menschlicher Kompetenz“, so Shneiderman. „Ja, Menschen machen Fehler, aber sie sind auch bemerkenswert in ihrer Kreativität und in ihrer Fähigkeit zur Expertise. Was wir wirklich tun müssen, ist, Maschinen zu bauen, die intelligente Menschen intelligenter machen. Wir wollen ihre Fähigkeiten verbessern. Bei vielen Konstruktionen haben wir das verstanden, indem wir Begrenzungen, Leitplanken und Verriegelungen eingebaut haben.
Das sind all die Dinge, die seit 70 Jahren in der Literatur über menschliche Faktoren beschrieben werden – wie wir Fehler verhindern können. Wenn die Temperatur Ihres selbstreinigenden Ofens über 600 Grad Celsius liegt, können Sie die Tür nicht mehr öffnen, okay? Und das ist in vielen Technologien eingebaut. Das ist Design bei der Arbeit. Das ist die richtige Art von Design, von der wir mehr bauen müssen. Und wir müssen die menschliche Kompetenz verbessern und gleichzeitig die Fehlerwahrscheinlichkeit verringern.“
Dies erfordert multidisziplinäre Teams, die sich aus Arbeitnehmern, Managern, Softwareentwicklern und anderen Personen mit gegensätzlichen Perspektiven zusammensetzen, so Jodi Forlizzi, Professorin an der Carnegie Mellon University. Darüber hinaus, so Saleema Amershi, Senior Principal Research Manager bei Microsoft Research, „müssen wir einige unserer Prozesse so umgestalten, dass selbst wenn es Leute wie Designer oder Leute gibt, die sich mit menschzentrierten Prinzipien auskennen. Viele dieser Leute sind nicht in dem Raum, in dem die Entscheidungen darüber getroffen werden, was gebaut wird. Wir müssen unsere gesamten Prozesse überdenken und dafür sorgen, dass diese Leute, die mit den Technologen zusammenarbeiten, frühzeitig mit den KI-Leuten zusammenarbeiten.“
„Meistens stellen wir die Frage, was diese Modelle leisten können, aber wir sollten uns wirklich fragen, was die Menschen mit diesen Modellen tun können.“ sagte Amershi. „Derzeit messen wir KI, indem wir die Genauigkeit optimieren, aber Genauigkeit ist nicht das einzige Maß für den Wert. Die Entwicklung einer menschenzentrierten KI erfordert menschenzentrierte Metriken.“
„Wir wollen KI-Modelle, die verständlich, vorhersehbar und kontrollierbar sind“, so Shneiderman. „Das ist immer noch die dauerhafte Vorstellung, dass man das Sagen hat und dass man es übersteuern kann. Wir verlassen uns auf verlässliche, sichere und vertrauenswürdige Dinge, wie die Einstellung des Verschlusses, der Schärfe und der Farbbalance durch unsere Kameras. Aber wenn wir sehen, dass der Fokus falsch ist, können wir das ändern. Das mentale Modell sollte so aussehen, dass die Nutzer ein Bedienfeld haben, mit dem sie das bekommen, was sie wollen, und dann gibt ihnen das System einige Vorschauen, einige Möglichkeiten, aber sie können es übersteuern.“
OutSystems-Studie: 62 Prozent der Befragten haben Sicherheits- und Governance-Bedenken bei Softwareentwicklung mit KI-Unterstützung.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…