Google hat zu im Android-Code entdeckten Neuerungen für das Kameramodul Stellung bezogen. Unterstützung für Rohbildformate und einen Serienbildmodus sei in der Tat neuerdings in das Hardware Abstraction Layer (HAL) integriert, das Software-Zugriff auf Hardware-Funktionen gibt. Als nächstes werde man Android-Programmierern diese Funktionen über Schnittstellen zur Verfügung stellen, sagte Sprecherin Gina Scigliano.
Tatsächlich nutzt die HDR+-Funktion des Smartphones Google Nexus 5 heute schon den Serienbildmodus, um eine Reihe von Aufnahmen mit unterschiedlicher Belichtung zu machen und daraus ein Bild mit besonders großer Dynamik (High Dynamic Range, HDR) zu errechnen. Solche Anwendungen könnten aber auch Dritte in Zukunft schreiben, wenn Google erst die Programmierschnittstellen (APIs) zur Verfügung gestellt hat.
In die gleiche Richtung geht Google mit dem unkompromierten Rohdatenformat (RAW), das es künftig als Alternative zu JPEG anbieten wird. Sein Vorteil besteht in mehr Flexibilität bei der Bearbeitung und besserer Bildqualität – bei allerdings deutlich größeren Dateien. Interesse daran dürften vor allem Hobbyfotografen haben – eine Zielgruppe, die etwa Nokia mit seinen Smartphones gezielt anspricht. So unterstützt das Nokia Lumia 1520 heute schon Rohdaten; Anfang 2014 soll durch ein Update auch das Lumia 1020 dazu in der Lage sein. Nokia nutzt übrigens Adobes offen dokumentiertes DNG-Format; Scigliano wollte nichts zum von Google verwendeten Rohdatenformat sagen.
Einen Zeitplan für die Einführung der neuen Programmierschnittstellen hat Google nicht genannt. Scigliano beschrieb aber das Konzept: „Kernkonzept des neuen HAL und der kommenden APIs ist Fotografie im Burst-Modus. Die Grundidee ist, dass man nicht mehr ein einzelnes Foto mit vorgegebenen Bedingungen macht, sondern die Möglichkeit besteht, eine Anfrage für Serienaufnahmen mit unterschiedlichen Einstellungen etwa zur Belichtungszeit zu stellen. Das Kamera-Subsystem nimmt eine solche Reihe auf, die dann auf Applikationsebene bearbeitet werden kann.“
Zusätzliche Details finden sich in einer offiziellen Beschreibung des neuen System mit Vergleich zu seinen Vorgängern. Darin heißt es, die Kameraschnittstelle sei ursprünglich „als Black Box mit hochstufigen Kontrollen“ konzipiert worden, über die Anwendungen eher wenig wissen konnten. Jetzt gebe man Applikationen erstmals Kontrollmöglichkeiten, heißt es in der Dokumentation. Dadurch „wird es leichter, hochwertige Kameraanwendungen zu entwickeln, die sich über die Produkte hinweg einsetzen lassen, aber doch so weit wie möglich auf gerätespezifische Algorithmen zugreifen können, um Qualität und Leistung zu optimieren.“ Beispielsweise könne man Schärfe und Belichtung besser regeln und nachträglich „Rauschen reduzieren, den Kontrast erhöhen oder das Bild schärfen.“
Die neuen Funktionen und Weiterentwicklungen sollen auch dem Nexus 5 noch zugute kommen. Erste Tests waren von der Kamera wenig beeindruckt. Scigliano zufolge ist sich „das Team der von manchen angesprochenen Probleme bewusst. Eine Aktualisierung wird in Kürze erfolgen.“
[mit Material von Stephen Shankland, News.com]
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Malware SmokeLoader wird weiterhin von Bedrohungsakteuren genutzt, um Payloads über neue C2-Infrastrukturen zu verbreiten.
Bankhaus Metzler und Telekom-Tochter MMS testen, inwieweit Bitcoin-Miner das deutsche Stromnetz stabilisieren könnten.
Mit 1,7 Exaflops ist El Capitan nun der dritte Exascale-Supercomputer weltweit. Deutschland stellt erneut den…
Der deutsche Hyperscaler erweitert sein Server-Portfolio um vier Angebote mit den neuen AMD EPYC 4004…
Beim Online-Gaming kommt es nicht nur auf das eigene Können an. Auch die technischen Voraussetzungen…
Fast jedes zweite Unternehmen bietet keinerlei Schulungen an. In den übrigen Betrieben profitieren oft nur…