Categories: ForschungInnovation

Google Nima: Bildbewertung mit Hilfe künstlicher Intelligenz

Google hat mit Nima (Neural Image Assessment) ein künstliches neuronales Netz vorgestellt, das Bilder unter subjektiven und ästhetischen Gesichtspunkten bewertet. Es handelt sich um ein Deep Convolutional Neural Network (CNN) und damit ein von biologischen Prozessen inspiriertes Konzept maschinellen Lernens. Ein Deep CNN fällt dabei außerdem in den Bereich von Deep Learning.

Schon länger ist es möglich, die technische Qualität von Bildern einzuschätzen durch die Messung von Verschlechterungen auf Pixelebene, also etwa verschwommener Wiedergabe oder durch Kompression entstandener Artefakte. Damit blieben aber Eigenschaften außen vor, die mit Gefühlen und Schönheit im Auge des Betrachters verbunden sind – wie beispielsweise bei Landschaftsbildern der Fall.

Von Nima vorhergesagter Score und durchschnittliche Bewertung menschlicher Betrachter (Bild: Google mit AVA-Beispielbildern)

Deshalb kommen auch CNNs zum Einsatz, die mit bereits von Menschen bewerteten Bildern trainiert werden. Bislang wurden diese aber nur mit niedriger oder hoher Qualität kategorisiert. Die Google-Forscher sahen das jedoch als eingeschränkte Herangehensweise und gingen dazu über, mit einer Punktzahl zwischen 1 und 10 bewertete Bilder zu verwenden. Das so trainierte Nima-Modell soll nun in der Lage sein, einem jeden vorliegenden Bild einen wahrscheinlichen Score zuzuweisen, wie ihn auch Menschen vergeben würden.

Als Grundlage dienten Bilder aus einer Datenbank für Aesthetic Visual Analysis (AVA), die im Zusammenhang mit Fotowettbewerben von durchschnittlich 200 Menschen bewertet wurden. Damit trainiert konnte Nima eine ästhetische Einstufung der Bilder vornehmen, die dicht an die von kundigen menschlichen Betrachtern vergebene Punktzahl herankam.

Mit Hilfe von Nima optimierte Fotos und die vergebenen Scores (Bild: Google mit Testfotos von MIT-Adobe FiveK)

Laut Google erzielte Nima auch mit anderen Bildersammlungen vergleichbare Ergebnisse. Die Scores für technische und ästhetische Bildqualität ließen sich nun anwenden, um Bilder in wahrnehmbarer Weise zu verbessern. Das Modell sei so in der Lage, einen Deep-CNN-Filter zu bestimmen, der in ästhetischer Hinsicht fast optimale Einstellungen von Parametern wie Helligkeit, Glanzlichtern und Schatten erlaubt.

Die Google-Forscher hoffen auf eine breite Palette nützlicher Funktionen, die sich daraus ergeben könnten. „Wir könnten Nutzer beispielsweise in die Lage versetzen, auf einfache Weise die besten Bilder unter vielen zu finden“, schreiben sie in einem Blogeintrag. „Oder sogar verbesserte Aufnahmen ermöglichen, zu denen die Nutzer Feedback in Echtzeit erhalten. Bei der Nachbearbeitung könnten diese Modelle zur Bestimmung von Optimierungsparametern dienen, die zu wahrnehmbar besseren Ergebnissen führen.“

ZDNet.de Redaktion

Recent Posts

SEO-Beratung von Spezialisten wie WOXOW: Deshalb wird sie immer wichtiger

Wer bei Google mit den passenden Suchbegriffen nicht in den Top-Rankings gefunden wird, der kann…

7 Stunden ago

Umfrage: Weniger als die Hälfte der digitalen Initiativen sind erfolgreich

Unternehmen räumen der Entwicklung technischer und digitaler Führungskompetenzen ein zu geringe Priorität ein. Gartner fordert…

8 Stunden ago

Google schließt zwei Zero-Day-Lücken in Android

Betroffen sind Android 12, 13, 14 und 15. Google sind zielgerichtete Angriffe auf die beiden…

1 Tag ago

Gefährliche Weiterentwicklung der APT36-Malware ElizaRAT

Schadprogramm der pakistanischen Hackergruppe APT36 weitet seine Aktivitäten aus und verbessert seine Techniken.

1 Tag ago

Google schließt weitere schwerwiegende Sicherheitslücken in Chrome 130

Tenable vergibt für beide Schwachstellen einen CVSS-Basis-Score von 9,8. Zwei Use-after-free-Bugs erlauben möglicherweise das Einschleusen…

1 Tag ago

Microsoft nennt weitere Details zu kostenpflichtigen Patches für Windows 10

Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…

2 Tagen ago