Categories: ForschungInnovation

Google Nima: Bildbewertung mit Hilfe künstlicher Intelligenz

Google hat mit Nima (Neural Image Assessment) ein künstliches neuronales Netz vorgestellt, das Bilder unter subjektiven und ästhetischen Gesichtspunkten bewertet. Es handelt sich um ein Deep Convolutional Neural Network (CNN) und damit ein von biologischen Prozessen inspiriertes Konzept maschinellen Lernens. Ein Deep CNN fällt dabei außerdem in den Bereich von Deep Learning.

Schon länger ist es möglich, die technische Qualität von Bildern einzuschätzen durch die Messung von Verschlechterungen auf Pixelebene, also etwa verschwommener Wiedergabe oder durch Kompression entstandener Artefakte. Damit blieben aber Eigenschaften außen vor, die mit Gefühlen und Schönheit im Auge des Betrachters verbunden sind – wie beispielsweise bei Landschaftsbildern der Fall.

Von Nima vorhergesagter Score und durchschnittliche Bewertung menschlicher Betrachter (Bild: Google mit AVA-Beispielbildern)

Deshalb kommen auch CNNs zum Einsatz, die mit bereits von Menschen bewerteten Bildern trainiert werden. Bislang wurden diese aber nur mit niedriger oder hoher Qualität kategorisiert. Die Google-Forscher sahen das jedoch als eingeschränkte Herangehensweise und gingen dazu über, mit einer Punktzahl zwischen 1 und 10 bewertete Bilder zu verwenden. Das so trainierte Nima-Modell soll nun in der Lage sein, einem jeden vorliegenden Bild einen wahrscheinlichen Score zuzuweisen, wie ihn auch Menschen vergeben würden.

Als Grundlage dienten Bilder aus einer Datenbank für Aesthetic Visual Analysis (AVA), die im Zusammenhang mit Fotowettbewerben von durchschnittlich 200 Menschen bewertet wurden. Damit trainiert konnte Nima eine ästhetische Einstufung der Bilder vornehmen, die dicht an die von kundigen menschlichen Betrachtern vergebene Punktzahl herankam.

Mit Hilfe von Nima optimierte Fotos und die vergebenen Scores (Bild: Google mit Testfotos von MIT-Adobe FiveK)

Laut Google erzielte Nima auch mit anderen Bildersammlungen vergleichbare Ergebnisse. Die Scores für technische und ästhetische Bildqualität ließen sich nun anwenden, um Bilder in wahrnehmbarer Weise zu verbessern. Das Modell sei so in der Lage, einen Deep-CNN-Filter zu bestimmen, der in ästhetischer Hinsicht fast optimale Einstellungen von Parametern wie Helligkeit, Glanzlichtern und Schatten erlaubt.

Die Google-Forscher hoffen auf eine breite Palette nützlicher Funktionen, die sich daraus ergeben könnten. „Wir könnten Nutzer beispielsweise in die Lage versetzen, auf einfache Weise die besten Bilder unter vielen zu finden“, schreiben sie in einem Blogeintrag. „Oder sogar verbesserte Aufnahmen ermöglichen, zu denen die Nutzer Feedback in Echtzeit erhalten. Bei der Nachbearbeitung könnten diese Modelle zur Bestimmung von Optimierungsparametern dienen, die zu wahrnehmbar besseren Ergebnissen führen.“

ZDNet.de Redaktion

Recent Posts

SmokeBuster bekämpft SmokeLoader

Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.

4 Stunden ago

Taugen Kryptowährungen als Unterstützer der Energiewende?

Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.

20 Stunden ago

Supercomputer-Ranking: El Capitan überholt Frontier und Aurora

Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…

24 Stunden ago

Ionos führt neue AMD-Prozessoren ein

Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…

1 Tag ago

Lags beim Online-Gaming? DSL-Vergleich und andere Tipps schaffen Abhilfe

Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…

1 Tag ago

GenKI-Fortbildung immer noch Mangelware

Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…

1 Tag ago