Google hat zu im Android-Code entdeckten Neuerungen für das Kameramodul Stellung bezogen. Unterstützung für Rohbildformate und einen Serienbildmodus sei in der Tat neuerdings in das Hardware Abstraction Layer (HAL) integriert, das Software-Zugriff auf Hardware-Funktionen gibt. Als nächstes werde man Android-Programmierern diese Funktionen über Schnittstellen zur Verfügung stellen, sagte Sprecherin Gina Scigliano.
Tatsächlich nutzt die HDR+-Funktion des Smartphones Google Nexus 5 heute schon den Serienbildmodus, um eine Reihe von Aufnahmen mit unterschiedlicher Belichtung zu machen und daraus ein Bild mit besonders großer Dynamik (High Dynamic Range, HDR) zu errechnen. Solche Anwendungen könnten aber auch Dritte in Zukunft schreiben, wenn Google erst die Programmierschnittstellen (APIs) zur Verfügung gestellt hat.
In die gleiche Richtung geht Google mit dem unkompromierten Rohdatenformat (RAW), das es künftig als Alternative zu JPEG anbieten wird. Sein Vorteil besteht in mehr Flexibilität bei der Bearbeitung und besserer Bildqualität – bei allerdings deutlich größeren Dateien. Interesse daran dürften vor allem Hobbyfotografen haben – eine Zielgruppe, die etwa Nokia mit seinen Smartphones gezielt anspricht. So unterstützt das Nokia Lumia 1520 heute schon Rohdaten; Anfang 2014 soll durch ein Update auch das Lumia 1020 dazu in der Lage sein. Nokia nutzt übrigens Adobes offen dokumentiertes DNG-Format; Scigliano wollte nichts zum von Google verwendeten Rohdatenformat sagen.
Einen Zeitplan für die Einführung der neuen Programmierschnittstellen hat Google nicht genannt. Scigliano beschrieb aber das Konzept: „Kernkonzept des neuen HAL und der kommenden APIs ist Fotografie im Burst-Modus. Die Grundidee ist, dass man nicht mehr ein einzelnes Foto mit vorgegebenen Bedingungen macht, sondern die Möglichkeit besteht, eine Anfrage für Serienaufnahmen mit unterschiedlichen Einstellungen etwa zur Belichtungszeit zu stellen. Das Kamera-Subsystem nimmt eine solche Reihe auf, die dann auf Applikationsebene bearbeitet werden kann.“
Zusätzliche Details finden sich in einer offiziellen Beschreibung des neuen System mit Vergleich zu seinen Vorgängern. Darin heißt es, die Kameraschnittstelle sei ursprünglich „als Black Box mit hochstufigen Kontrollen“ konzipiert worden, über die Anwendungen eher wenig wissen konnten. Jetzt gebe man Applikationen erstmals Kontrollmöglichkeiten, heißt es in der Dokumentation. Dadurch „wird es leichter, hochwertige Kameraanwendungen zu entwickeln, die sich über die Produkte hinweg einsetzen lassen, aber doch so weit wie möglich auf gerätespezifische Algorithmen zugreifen können, um Qualität und Leistung zu optimieren.“ Beispielsweise könne man Schärfe und Belichtung besser regeln und nachträglich „Rauschen reduzieren, den Kontrast erhöhen oder das Bild schärfen.“
Die neuen Funktionen und Weiterentwicklungen sollen auch dem Nexus 5 noch zugute kommen. Erste Tests waren von der Kamera wenig beeindruckt. Scigliano zufolge ist sich „das Team der von manchen angesprochenen Probleme bewusst. Eine Aktualisierung wird in Kürze erfolgen.“
[mit Material von Stephen Shankland, News.com]
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…