Seit der Geburtsstunde der Computerwissenschaft hat man die Frage gestellt: Können Maschinen denken? Dabei wurden unterschiedliche Ansichten geäußert. Der amerikanische Philosoph Hubert Dreyfus vertrat zum Beispiel die Auffassung, dass künstliche Intelligenz „unmöglich“ ist. Der deutsch-amerikanische Informatiker Joseph Weizenbaum bezeichnet sie sogar als „unmoralisch“.
Vor über sechs Dekaden hat der britische Logiker, Mathematiker und Kryptoanalytiker Alan Mathison Turing, der heute als ein Vater der Computerwissenschaft gilt, den Turing-Test entwickelt. Mit diesem Test soll festgestellt werden, ob eine Maschine ein dem Menschen vergleichbares Denkvermögen besitzt. Turing konstatierte, dass wir in das Zeitalter der Maschinenintelligenz eintreten, sobald wir keinen Unterschied mehr zwischen menschlicher und Maschinenintelligenz wahrnehmen können. Mit seinen Thesen und Grundlagentheorien hat Turing die weitere Entwicklung der künstlichen Intelligenz maßgeblich beeinflusst.
Seit dieser Zeit wurden viele kognitive Modelle entwickelt, um menschliche Intelligenz nachzubilden. 1966 hat beispielsweise Joseph Weizenbaum das Computerprogramm ELIZA veröffentlicht, mit dem die Möglichkeiten der Kommunikation eines Menschen mit einem Computer über natürliche Sprache aufgezeigt wurden. Ein weiterer wichtiger Meilenstein war der Schachcomputer Deep Blue. Heute kennen wir Computer, die Menschen bei der amerikanischen Fernseh-Quizshow Jeopardy schlagen können (IBMs Watson), Automobile, die ihrem namen endlich gerecht werden und nicht nur selbst fahren, sondern auch selbst lenken können sowie Geräte, die auf Kommandos reagieren (Apples Siri). Aber abgesehen von solchen singulären Lösungen bleibt die prinzipielle Frage bestehen: Können Maschinen menschliche Intelligenz nachbilden und mit ihr konkurrieren?
Eines ist dabei klar: Wenn wir menschliche Intelligenz in all ihrer denkenden und problemlösenden Größe imitieren wollen, müssen wir das menschliche Gehirn nachbilden und dafür detaillierte Einblicke in seine Funktionsweise unter neurowissenschaftlichen Gesichtspunkten gewinnen. Allzu oft schlagen wir heute noch den Weg ein, die Basis für die Maschinenintelligenz mit der Akkumulation gesammelten Wissens in Supercomputern mit extrem hoher Rechenpower zu schaffen.
Dabei ignorieren wir aber eine entscheidende Überlegung von Turing. Ein Ansatz, „denkende“ Maschinen zu realisieren, sei nicht die Nachbildung des Erwachsenengehirns, sondern des Gehirns eines Kindes. Die Idee dahinter ist die Simulation eines menschlichen Gehirns, das eine adaptive Lernfähigkeit wie ein Kind hat und sich in der Interaktion mit Menschen schnell weiterentwickelt. Das adaptive Lernen ist auch meiner Meinung nach der Schlüssel zum Erfolg der Maschinenintelligenz.
Im Unterschied zu vielen Denkschulen, die ein „Vorsicht vor Maschinen“ predigen, sind wir auch der festen Überzeugung, dass Maschinenintelligenz die optimale Möglichkeit für die „kreative Destruktion“ ist. Ein Blick auf die heutige Welt zeigt dies: Wir sind gewissermaßen „versklavt“, die Ungleichverteilung nach dem Pareto-Prinzip gilt. Täglich sind wir 80 Prozent unserer Zeit damit beschäftigt, die gleichen 20 Prozent banaler Dinge zu erledigen. Sei es die Hausarbeit oder das Autofahren, wir sind „Sklaven“ einfacher Tätigkeiten.
Maschinenintelligenz wird hier der „ultimative Befreier“ sein und der Menschheit die Möglichkeit bieten, sich mit kreativeren Dingen zu beschäftigen. Maschinen werden „die wertvollsten Diener“ sein, damit der Mensch durch die Entlastung von Routinetätigkeiten eine exponiertere Stellung in der Wertschöpfungskette einnehmen kann.
Ob und wann Maschinen menschliche Intelligenz dominieren können, ist heute nur schwer absehbar. Falls dies aber eintreten sollte, wäre in der Tat zu entscheiden, wer wen „beherrscht“. Aber dies ist heute noch Science-Fiction, denn komplexe Entscheidungsprozesse, aktives Denken und Erkennen sowie emotionale Intelligenz sind heute und bis auf weiteres einzig und allein die Domänen der menschlichen Intelligenz.
... ist CEO von IPsoft in New York. Das Unternehmen hat es sich zur Aufgabe gemacht, den IT-Betrieb zu optimieren und manuelle Prozesse durch selbstverwaltende Technologien zu ersetzen.
Tipp: Wie groß war der Einfluss des britischen Wissenschaftlers Alan Turing auf die IT-Industrie? Testen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…