Google hat mit Nima (Neural Image Assessment) ein künstliches neuronales Netz vorgestellt, das Bilder unter subjektiven und ästhetischen Gesichtspunkten bewertet. Es handelt sich um ein Deep Convolutional Neural Network (CNN) und damit ein von biologischen Prozessen inspiriertes Konzept maschinellen Lernens. Ein Deep CNN fällt dabei außerdem in den Bereich von Deep Learning.
Schon länger ist es möglich, die technische Qualität von Bildern einzuschätzen durch die Messung von Verschlechterungen auf Pixelebene, also etwa verschwommener Wiedergabe oder durch Kompression entstandener Artefakte. Damit blieben aber Eigenschaften außen vor, die mit Gefühlen und Schönheit im Auge des Betrachters verbunden sind – wie beispielsweise bei Landschaftsbildern der Fall.
Deshalb kommen auch CNNs zum Einsatz, die mit bereits von Menschen bewerteten Bildern trainiert werden. Bislang wurden diese aber nur mit niedriger oder hoher Qualität kategorisiert. Die Google-Forscher sahen das jedoch als eingeschränkte Herangehensweise und gingen dazu über, mit einer Punktzahl zwischen 1 und 10 bewertete Bilder zu verwenden. Das so trainierte Nima-Modell soll nun in der Lage sein, einem jeden vorliegenden Bild einen wahrscheinlichen Score zuzuweisen, wie ihn auch Menschen vergeben würden.
Als Grundlage dienten Bilder aus einer Datenbank für Aesthetic Visual Analysis (AVA), die im Zusammenhang mit Fotowettbewerben von durchschnittlich 200 Menschen bewertet wurden. Damit trainiert konnte Nima eine ästhetische Einstufung der Bilder vornehmen, die dicht an die von kundigen menschlichen Betrachtern vergebene Punktzahl herankam.
Laut Google erzielte Nima auch mit anderen Bildersammlungen vergleichbare Ergebnisse. Die Scores für technische und ästhetische Bildqualität ließen sich nun anwenden, um Bilder in wahrnehmbarer Weise zu verbessern. Das Modell sei so in der Lage, einen Deep-CNN-Filter zu bestimmen, der in ästhetischer Hinsicht fast optimale Einstellungen von Parametern wie Helligkeit, Glanzlichtern und Schatten erlaubt.
Die Google-Forscher hoffen auf eine breite Palette nützlicher Funktionen, die sich daraus ergeben könnten. „Wir könnten Nutzer beispielsweise in die Lage versetzen, auf einfache Weise die besten Bilder unter vielen zu finden“, schreiben sie in einem Blogeintrag. „Oder sogar verbesserte Aufnahmen ermöglichen, zu denen die Nutzer Feedback in Echtzeit erhalten. Bei der Nachbearbeitung könnten diese Modelle zur Bestimmung von Optimierungsparametern dienen, die zu wahrnehmbar besseren Ergebnissen führen.“
Wer bei Google mit den passenden Suchbegriffen nicht in den Top-Rankings gefunden wird, der kann…
Unternehmen räumen der Entwicklung technischer und digitaler Führungskompetenzen ein zu geringe Priorität ein. Gartner fordert…
Betroffen sind Android 12, 13, 14 und 15. Google sind zielgerichtete Angriffe auf die beiden…
Schadprogramm der pakistanischen Hackergruppe APT36 weitet seine Aktivitäten aus und verbessert seine Techniken.
Tenable vergibt für beide Schwachstellen einen CVSS-Basis-Score von 9,8. Zwei Use-after-free-Bugs erlauben möglicherweise das Einschleusen…
Erstmals liegen Preise für Verbraucher vor. Sie zahlen weniger als Geschäftskunden. Dafür beschränkt Microsoft den…