Categories: KI

3D-Rekonstruktion mit KI: 2 Kameras reichen schon

Bislang waren dafür hunderte Kameraperspektiven oder Laborbedingungen notwendig. Jetzt können die darzustellenden Objekte in ihrer natürlichen Umgebung aufgenommen werden. Anwendungsgebiete sehen die Forschenden beim autonomen Fahren (Bild) oder auch beim Erhalt historischer Denkmäler.

Ausgangsbasis

In den letzten Jahren sind neuronale Methoden für kamerabasierte Rekonstruktion sehr beliebt geworden. Diese benötigen allerdings meist hunderte von Kameraperspektiven. Auf der anderen Seite gibt es klassische photometrische Verfahren, die zwar aus wenigen Perspektiven hochpräzise Rekonstruktionen auch aus Objekten mit einer geringen Oberflächentextur berechnen, die aber typischerweise nur in kontrollierten Laborumgebungen funktionieren.

Daniel Cremers, Professor für Bildverarbeitung und Künstliche Intelligenz an der TUM hat gemeinsam mit seinem Team eine Methode entwickelt, die beide Verfahren verbindet. Die Forschenden kombinieren dafür ein neuronales Netz der Oberfläche mit einem genauen Modell des Beleuchtungsprozesses, das die Abnahme des Lichts mit der Entfernung zwischen Objekt und Lichtquelle berücksichtigt.

Dabei kann aus der Helligkeit in den Bildern bestimmt werden, wie die Oberfläche zum Licht ausgerichtet und wie weit sie von der Lichtquelle entfernt ist. „So gelingt es uns, aus wenigen Daten Objekte deutlich präziser nachzubilden, als es bei vorherigen Verfahren möglich war. Für unsere Rekonstruktionen können wir das natürliche Umfeld verwenden und auch Objekte mit nur einer geringen Oberflächentextur nachbilden“, sagt Daniel Cremers.

Anwendungen

Das Verfahren könne zum Beispiel genutzt werden, um historische Denkmäler zu erhalten oder Museumsobjekte zu digitalisieren. Werden diese zerstört oder verfallen mit der Zeit, sei es mithilfe von Fotos möglich, diese zu rekonstruieren und wahrheitsgetreu wiederaufzubauen, so Cremers weiter.

Neuronale kamerabasierte Rekonstruktionsverfahren entwickeln die Forschenden auch für das autonome Fahren. Hier wird die Umgebung mit einer Kamera gefilmt. Das autonome Auto kann dabei die Umgebung in Echtzeit nachbilden, ein dreidimensionales Szenenverständnis entwickeln und auf Grundlage dessen Entscheidungen treffen. Das Verfahren basiert auf neuronalen Netzen, die für einzelne Bilder eines Videos 3D-Punktwolken der Welt vorhersagen, die dann zu einem großskaligen Modell der durchfahrenen Straßen fusioniert werden.

Manuel

Recent Posts

Studie: Ein Drittel aller E-Mails an Unternehmen sind unerwünscht

Der Cybersecurity Report von Hornetsecurity stuft 2,3 Prozent der Inhalte gar als bösartig ein. Die…

2 Tagen ago

HubPhish: Phishing-Kampagne zielt auf europäische Unternehmen

Die Hintermänner haben es auf Zugangsdaten zu Microsoft Azure abgesehen. Die Kampagne ist bis mindestens…

3 Tagen ago

1. Januar 2025: Umstieg auf E-Rechnung im B2B-Geschäftsverkehr

Cloud-Plattform für elektronische Beschaffungsprozesse mit automatisierter Abwicklung elektronischer Rechnungen.

3 Tagen ago

Google schließt schwerwiegende Sicherheitslücken in Chrome 131

Mindestens eine Schwachstelle erlaubt eine Remotecodeausführung. Dem Entdecker zahlt Google eine besonders hohe Belohnung von…

3 Tagen ago

Erreichbarkeit im Weihnachtsurlaub weiterhin hoch

Nur rund die Hälfte schaltet während der Feiertage komplett vom Job ab. Die anderen sind…

4 Tagen ago

Hacker missbrauchen Google Calendar zum Angriff auf Postfächer

Security-Experten von Check Point sind einer neuen Angriffsart auf die Spur gekommen, die E-Mail-Schutzmaßnahmen umgehen…

5 Tagen ago