Google hat eine App für iOS veröffentlicht, die eine Apple-Exklusivfunktion verbessert: Motion Stills stabilisiert Live Photos, also mit den jüngsten Apple-Smartphones aufgenommene Kurzvideos. Zugleich lassen sie sich in animierte GIFs oder Videos verwandeln, sodass auch Nutzer sie sehen können, die keine Apple-Plattform verwenden.
Live Photos hatte Apple im September 2015 auf den Smartphone-Modellen iPhone 6S und 6S Plus eingeführt. Deren Kamera hält standardmäßig auch die Momente unmittelbar vor und nach Drücken des Auslösers fest. Dadurch soll man Apple zufolge auf eine lebendige Erinnerung zurückgreifen können, statt nur auf einen einzigen Moment. Letztlich handelt es sich um ein 1,5 Sekunden langes Video, sogar mit Ton. Die Aufnahme solcher Bilder ist den beiden jüngsten Apple-Smartphones vorbehalten, sie können aber mit jedem Apple-Mobilgerät angesehen beziehungsweise abgespielt werden, das iOS 9 einsetzt.
Die Stabilisierungstechnik erinnert an die Hyperlapse-Funktionen, die Microsoft sowie die Facebook-Tochter Instagram unabhängig voneinander eingeführt haben. Mit ihnen lassen sich Zeitraffer-Videos anfertigen, die ohne eine solche Stabilisierung völlig inkonsistente Perspektiven aufweisen können, wenn sie nicht von einem Stativ aus gemacht wurden, sondern mit einem Smartphone oder gar einer Actionkamera.
Die Google-Entwickler Ken Conley und Matthias Grundmann stellen Motion Stills in einem Blogbeitrag vor und merken dabei auch an, dass die Technik künftig in weiteren Google-Apps zum Einsatz kommen könnte, etwa dem zentralen Angebot Google Fotos mit unbegrenztem Cloudspeicher. Google Fotos unterstützt Live Photos unter iOS seit März 2016.
Während der Entwicklung hätten sie hunderte Millionen Video stabilisiert und in GIFs konvertiert, schreiben die beiden Google-Forscher. „Unser Algorithmus nutzt eine lineare Programmierung, um einen virtuellen Kamerapfad zu berechnen.“ So ergebe sich ein Bild, das wie von einem festen Ort gefilmt wirke, mit konstantem Hintergrund.
„Unsere Herausforderung war es dann, diese für den verteilten Einsatz in einem Rechenzentrum entworfene Technik zu verkleinern, sodass sie auf einem Mobiltelefon läuft. Wir erreichten eine Beschleunigung um Faktor 40 durch temporäres Subsampling, Entkopplung von Bewegungsparametern und den Einsatz von GLOP, der von Google Research entwickelten Lösung, um lineare Gleichungen aufzulösen. Zusätzliche Beschleunigung und Reduktion des benötigten Speicherplatzes brachte die Berechnung niedrig aufgelöster Warp-Texturen, um Echtzeit-GPU-Rendering zu ermöglichen, ganz wie in einem Videospiel.“
Über eine Portierung auf Android äußern sich die Forscher nicht. Zwar gibt es unter Android keine Live Photos, das Verfahren könnte aber natürlich auch für die Stabilisierung normaler (Kurz-)Videos genutzt werden.
Tipp: Wie gut kennen Sie das iPhone? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…
Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…
Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.
Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…
Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…
Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…