Categories: Innovation

Was künstliche Intelligenz kann und was sie können soll

Künstliche Intelligenz ist das grundsätzliche Konzept von Maschinen, die “smarte” Aufgaben erfüllen. Der untergeordnete Begriff maschinelles Lernen (ML) stellt den Lernprozess dar, mit dem sich ein System anhand von Daten selbst ein bestimmtes Verhalten aneignet.

Generell lässt sich also sagen: ML ist das Lernen anhand von Beispielen und Erfahrung. Bisher besteht die Programmierung vor allem daraus, Regeln zu definieren. Doch es wird immer die Ausnahme von der Regel geben. Maschinelles Lernen ist das Programm, welches diese Regeln für uns findet und im Laufe der Zeit mithilfe von Daten verbessert.

Alexander Krock, der Autor dieses Beitrags, ist seit mehr als sieben Jahren bei Google. In seiner jetzigen Position als Head of Google Cloud Customer Engineering DACH leitet er die Customer Engineering Services von Google Cloud in Deutschland, Österreich und der Schweiz (Bild: Google).

Jeder erinnert sich sicherlich daran, wie viele Spammails durch die Standardfilter der meisten Anbieter in unsere Postfächer gespült wurden. Also haben wir teils einzelne Regeln erstellt, um jede Mail mit “Geschäftsvorschlag” im Betreff als Spam einzustufen. Aber alle anderen unerwünschten Nachrichten sind dennoch direkt zugestellt worden. Heute haben Mailanbieter nachgerüstet. Der Filter, mit dem wir bei Gmail arbeiten, basiert auf einem KI-System, das weltweit pro Minute 10 Millionen Spam- und Phishingattacken zuverlässig herausfiltert.

Nehmen wir ein anderes Beispiel: Für uns Menschen ist es recht einfach, einen Hotdog von einer Pizza zu unterscheiden. Wie würden wir dies nun anhand von Regeln einem Programm beibringen? Mit einem ML-System ist dies deutlich einfacher. Anhand von Bildern von Pizzen und Hotdogs könnte das Programm selbst lernen, was das eine und was das andere ist. Interessant dabei ist, wie sich eine KI neue Muster beibringt.

KI lernt stetig dazu

Erinnern Sie sich daran, wie Sie Ihre Muttersprache gelernt haben? Vermutlich hat ihnen niemand Wörterbücher und ein paar Grammatikbücher in die Hand gedrückt. Stattdessen haben Sie anhand von Beispielen Kenntnisse erworben. Wenn Sie als Kind einen Hund gesehen haben, sagten Ihre Eltern sicherlich „Hund“, wenn Sie darauf zeigten. Mit der Zeit haben Sie durch Wiederholung gelernt, was ein Hund ist.

Als Sie dann zum ersten Mal eine Katze gesehen haben, könnte es sein, dass Sie das Tier als „Hund“ bezeichneten und Ihre Eltern Sie korrigierten. Die Katze war ein neuer Input und Ihr Gehirn hat bestehende Denkmuster genutzt. Daher war dann die logische Schlussfolgerung, dass es sich um einen Hund handeln muss. Mit der Korrektur haben Sie allerdings eine neue Information erhalten und das Bild einer Katze wurde im Gehirn entsprechend verknüpft.

Dieser Aspekt ist einer der wichtigsten, wenn wir über KI und ML sprechen: Das System muss ebenfalls immer erst trainiert werden und kann nicht sofort alle Aufgaben übernehmen. Das neuronale Netzwerk ist zum Lernen auf Input angewiesen. Es ahmt in gewisser Weise ein Gehirn nach. Millionen oder Milliarden von „Neuronen“, bei denen es sich um kleine Recheneinheiten handelt, führen jeweils eine einfache Berechnung durch und geben anschließend die Informationen an verbundene Neuronen weiter. Ein so trainiertes System ist in der Lage sehr abstrakte Muster zu erkennen und kann beispielsweise sehr zuverlässig sagen, was eine “Umarmung” oder eine “Party” darstellt.

Wie funktioniert das in der Praxis? Wenn Sie bei Google Fotos nach “Hund” suchen, werden Ihnen Bilder von Hunden angezeigt, ohne dass Sie diese jemals mit der entsprechenden Beschreibung versehen hätten. Das System wurde und wird auch weiterhin mit einer Reihe an Beispielen von Fotos mit der Aufschrift „Hund“ trainiert.

Je mehr qualitative Daten das System verarbeitet, desto besser kann es später Katzen und Hunde erkennen. Qualitative Daten sind im Fall von Hunden und Katzen beispielsweise verschiedene Rassen, unterschiedliche Körperhaltungen und sich verändernde Perspektiven. Auf diese Weise kann die KI dann sogar besonders knifflige Fälle erkennen.

In den Rechenzentren – sprich in der Cloud – gibt es genügend Rechenkapazität, um ML-Systeme zu trainieren (Bild: Google).

Das Erkennen und Benennen von Bildern wird bereits jetzt von verschiedenen Unternehmen genutzt und kann heute immer spezieller trainiert werden. Mit AutoML stellen wir bei Google Cloud ein System zur Verfügung, mit dem jeder ohne viel Vorkenntnisse sein eigenes ML-Modell erstellen und trainieren kann. Zwei Beispiele:

  1. Disney nutzt AutoML Vision, um Produkte und Produktfotos schnell bestimmten Kategorien im Webshop zuzuordnen. Ein Produktmanager lädt beispielsweise Fotos von einem T-Shirt mit Spiderman-Motiv auf die Website hoch und das Produkt wird sofort mit “Spiderman”, “T-Shirt”, “Marvel” und “Superhelden” gelabelt.
  2. Die Zoological Society of London (ZSL) hat sich dem Schutz von Tierarten weltweit verpflichtet. Um diese Aufgabe effektiv wahrzunehmen, wurden auf der ganzen Welt sogenannte Kamerafallen installiert. Auf diese Weise können Tiere in der Natur erfasst und gezählt werden. Bisher mussten diese Bilder jedoch einzeln angeschaut und klassifiziert werden, was viele hunderte Stunden an Arbeit bedeutete. Mit AutoML Vision hat die ZSL ein ML-Modell trainiert, das erkennt, welche Tiere fotografiert wurden. So wurde aus vielen Tagen und Wochen Arbeit nur wenige Stunden oder sogar nur einige Minuten. Die so gewonnene Zeit kann die ZSL nun noch besser in Tierschutzprojekte stecken.

Vom Erkennen zum Machen

Das genaue Identifizieren und Labeln von bestimmten Objekten, Tieren oder Menschen ist aber nur eine Möglichkeit, künstliche Intelligenz einzusetzen. Die Google-Tochter Deepmind, die vor wenigen Jahren mit ihrem Programm AlphaGo bekannt wurde, arbeitet an vollständig selbstlernenden Systemen, die nicht nur erkennen, sondern auch interagieren.

So baute DeepMind ein System, das ausschließlich einen Videospielbildschirm und die grundlegende Steuerung als Input erhielt. Das Ziel für das System: Maximierung der Punktzahl. Am Anfang war die Steuerung nur zufällig und folgte keinem System. Nach nur 120 Minuten aber beherrschte die KI das Spiel und machte zuverlässig Punkte.

Die Entwickler fanden diesen Fortschritt großartig und waren zufrieden mit dem Ergebnis. Angeblich gingen sie dann zum Mittagessen, während das System weiterlief. Als sie zwei Stunden später zurückkamen, war etwas Bemerkenswertes passiert. Die KI hatte selbstständig eine Strategie entwickelt und maximierte auf diese Weise die Punkte.

Rechenleistung aus der Wolke

Was hat das nun alles mit der Cloud zu tun? Maschinelles Lernen, Deep Learning und künstliche Intelligenz im Allgemeinen brauchen sehr viel Rechenleistung. Wir sprechen zwar bereits seit Beginn des Computerzeitalters über künstliche Intelligenz, diese konnte jedoch zunächst aufgrund der fehlenden und später wegen der horrenden Kosten für Rechenleistung nicht verwirklicht werden.

Hier hilft Cloud-Computing: Das Mieten von Hochleistungs-Hardware in Rechenzentren, auf die Nutzer über das Internet zugreifen können. Die neueste Technologie, mit der die Rechenleistung für KI-Systeme stark verbessert wird, sind Tensor Processing Units (TPU). Im Gegensatz zu den CPUs oder GPUs ist der von Google entwickelte Prozessor TPU darauf ausgelegt das Open-Source-KI-Framework TensorFlow besonders schnell betreiben zu können. TensorFlow ist wichtiger Bestandteil zahlreicher KI- und ML-Systeme.

Dadurch beschleunigen unsere TPUs das Training von KI-Systemen um das 15- bis 30-Fache. Das entspricht einem Sprung von sieben Jahren in die Zukunft, verglichen mit bisherigen Entwicklungszyklen. In unseren Datencentern können wir eine Vielzahl an sogenannten Pods einbauen, auf denen die TPUs angebracht sind. Ein Pod allein bringt bereits die Leistung von 11,5 Petaflops. Als Vergleich: Eine aktuelle PlayStation 4 hat 4,19 Teraflops. Ein einziger Pod mit TPUs entspricht also der Rechenleistung von über 2740 Hochleistungsspielekonsolen.

Eine solche Hardware kann kaum ein Unternehmen lokal vorhalten, erst recht nicht in der Masse, wie sie in Datencentern von Cloud-Anbietern zur Verfügung stehen. Aus diesem Grund spielt Cloud-Computing eine Schlüsselrolle in der Entwicklung von KI-Systemen.

Was KI braucht

Fassen wir also zum Abschluss noch einmal zusammen, wie man KI erfolgreich einsetzen kann. Erstens brauchen wir qualitativ hochwertige Datensätze, mit denen unser ML-System Muster erlernt. Idealerweise trainieren Sie Ihre ML-Systeme mit Daten, die repräsentativ für das sind, was in der realen Welt vorkommt.

Zweitens ist eine besonders große Rechenleistung notwendig. Die Cloud bietet eben diese leistungsfähige Hardware an, die Unternehmen und Entwickler für ihr eigenes ML-Modell nutzen können.

Drittens sind gute Werkzeuge und Frameworks essentiell. Obwohl sich die grundlegenden ML-Algorithmen in ein paar Minuten beschreiben lassen, sind diese ziemlich kompliziert zu implementieren. Daher braucht es eine Reihe von Services – je nach Kenntnisstand des Anwenders: von vollständigen “Do it yourself”-Diensten wie TensorFlow, über Managed Services bis hin zu Angeboten wie AutoML, welche keiner ML- oder Programmierkenntnisse bedürfen.

AUTOR

Alexander Krock ...

... ist seit mehr als sieben Jahren bei Google. In seiner jetzigen Position als Head of Google Cloud Customer Engineering DACH leitet er die Customer Engineering Services von Google Cloud in Deutschland, Österreich und der Schweiz. Das Customer Engineering Team arbeitet als integrierter Teil des Sales-Teams mit dem Fokus, die Aspirationen und Kundenziele durch die Anwendung von Google Cloud Technologien zu erreichen. Vor seiner aktuellen Position leitete Alexander Krock ein Team von technisch orientierten Ad-Tech-Spezialisten, das den größten Agenturen und Werbetreibenden in Zentraleuropa (DACH & CEE) bei der Integration von DoubleClick in die Marketingstrategie unterstützte.

Kai Schmerer

Kai ist seit 2000 Mitglied der ZDNet-Redaktion, wo er zunächst den Bereich TechExpert leitete und 2005 zum Stellvertretenden Chefredakteur befördert wurde. Als Chefredakteur von ZDNet.de ist er seit 2008 tätig.

Recent Posts

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

3 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

7 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

8 Stunden ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

9 Stunden ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

9 Stunden ago

Netzwerk-Portfolio für das KI-Zeitalter

Huawei stellt auf der Connect Europe 2024 in Paris mit Xinghe Intelligent Network eine erweiterte…

11 Stunden ago