Categories: ForschungInnovation

Google stellt zweite Generation seiner AI-Plattform vor

Google hat seine nächste Generation von Spezial-Chips für maschinelles Lernen angekündigt, ein Teilgebiet künstlicher Intelligenz (Artificial Intelligence, AI). Die Cloud TPUs (Tensor Processing Units) sollen die schnellere und effizientere Abarbeitung von Algorithmen für maschinelles Lernen erlauben. Sie sollen nicht nur Googles eigene Dienste beflügeln, sondern über die Google Compute Engine auch für Unternehmen und unabhängige Entwickler verfügbar werden.

„Es ist uns wichtig, diese Fortschritte allen zugute kommen zu lassen – nicht nur den Nutzern von Google-Produkten“, versichert CEO Sundar Pichai in einem Blogeintrag. Zu erwarten seien große Durchbrüche bei komplexen gesellschaftlichen Problemen, wenn Wissenschaftler und Ingenieure über leistungsfähigere Werkzeuge für Computing und Forschung verfügen. „Aber heute gibt es noch zu viele Barrieren, die dem entgegenstehen.“

Tensor-Processing-Unit–Board (Bild: Google)

AI könnte beispielsweise zugänglicher werden durch die vereinfachte Schaffung von Maschinenlernen-Modellen, die als neuronale Netze bezeichnet werden. Heute sei das Entwerfen eines neuronalen Netzes extrem zeitintensiv und bedürfe großer Expertise. Der Internetkonzern will nun mit AutoML als neuer Herangehensweise zeigen, dass neuronale Netze ihrerseits neuronale Netze konzipieren können. Er hofft, dass AutoML mit Fähigkeiten aufwartet, über die heute nur wenige Hochschulabsolventen verfügen. In drei bis fünf Jahren soll es Hunderttausenden von Entwicklern ermöglichen, neuronale Netze für ihre speziellen Anforderungen zu schaffen.

Als Hardware-Grundlage kommt die Tensor Processing Unit in Googles Rechenzentren zur Beschleunigung von maschinellem Lernen zum Einsatz. Leistungsdaten der Spezial-Chips enthüllte Google erst im letzten Monat. Schon die erste TPU-Generation sorgte demnach für einen gewaltigen Leistungssprung bei Anwendungen mit trainierten neuronalen Netzen.

Die für künstliche Intelligenz optimierten Chips stehen heute hinter beantworteten Suchanfragen und unterstützen Dienste wie die Bildersuche, Google Photos und die Google-Cloud-Vision-API. Sie sollen auch erhebliche qualitative Verbesserungen von Google Translate im letzten Jahr ermöglicht haben. Nicht zuletzt hätten sie beim Sieg von Googles KI-Programm AlphaGo gegen den weltweit besten Spieler des klassischen asiatischen Brettspiels Go geholfen.

Google-Chef Sundar Pichai sieht in diesem Zusammenhang einen neuen Übergang im Computing – die Verlagerung von „Mobile first“ zu „AI first“. „Wie schon bei früheren Veränderungen zwingt uns das, unsere Produkte von Grund auf neu zu denken für eine Welt, die eine natürlichere, nahtlosere Interaktion mit Technologie ermöglichen“, schreibt er. Beispielhaft verweist er dabei auf die „sehende“ Kamera dank Google Lens sowie das per Sprache bedienbare und antwortende Smartphone.

ANZEIGE

So lassen sich Risiken bei der Planung eines SAP S/4HANA-Projektes vermeiden

Ziel dieses Ratgebers ist es, SAP-Nutzern, die sich mit SAP S/4HANA auseinandersetzen, Denkanstöße zu liefern, wie sie Projektrisiken bei der Planung Ihres SAP S/4HANA-Projektes vermeiden können.

ZDNet.de Redaktion

Recent Posts

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

6 Stunden ago

Microsoft verschiebt erneut Copilot Recall

Die Entwickler arbeiten noch an weiteren „Verfeinerungen“. Windows Insider erhalten nun wohl eine erste Vorschau…

1 Tag ago

GenKI im Job: Mitarbeitende schaffen Tatsachen

Laut Bitkom-Umfrage werden in jedem dritten Unternehmen in Deutschland private KI-Zugänge genutzt. Tendenz steigend.

1 Tag ago

97 Prozent der Großunternehmen melden Cyber-Vorfälle

2023 erlitten neun von zehn Unternehmen in der DACH-Region Umsatzverluste und Kurseinbrüche in Folge von…

1 Tag ago

„Pacific Rim“-Report: riesiges, gegnerisches Angriffs-Ökosystem

Der Report „Pacific Rim“ von Sophos beschreibt Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit staatlich unterstützten…

1 Tag ago

DeepL setzt erstmals auf NVIDIA DGX SuperPOD mit DGX GB200-Systemen

NVIDIA DGX SuperPOD soll voraussichtlich Mitte 2025 in Betrieb genommen und für Forschungsberechnungen genutzt werden.

1 Tag ago