3D-Bilder mit Erstphotonen

  • 28. November 2013

Neues Bildsyntheseverfahren arbeitet bei extrem schwacher Beleuchtung.

Aus den Laufzeiten von Laserpulsen, die von einem Objekt reflektiert wurden, kann man dessen dreidimensionale Form rekonstruieren. Das klappt selbst dann, wenn das Objekt einige hundert Meter entfernt oder sogar hinter einem Schirm verborgen ist. Bisher benötigte man dazu intensive Laserstrahlung. Doch jetzt haben MIT-Forscher detailreiche 3D-Bilder von Gegenständen mit Hilfe von extrem schwachen Laserpulsen gewonnen, indem sie für jedes Pixel die Ankunft des jeweils ersten Photons registrierten.

Der experimentelle Aufbau für die Erstphotonenbildsynthese

Abb.: Der experimentelle Aufbau für die Erstphotonenbildsynthese (Bild: A. Kirmani et al.)

Das von den Forschern um Ahmed Kirmani und Vivek Goyal vorgestellte Verfahren der Erstphotonenbildsynthese ist eine clevere Weiterentwicklung des Lidars (Light Detecting and Ranging), der optischen Variante des Radars. Mit Lidar werden hauptsächlich Abstände und Geschwindigkeiten gemessen. Dabei wird aus der Laufzeit von Laserpulsen, die von einem Objekt zurückgeworfen werden, dessen Abstand ermittelt.

Rastert man eine Objektoberfläche mit gepulstem Laserlicht ab und registriert die von ihr zurückgeworfene Photonen zeitaufgelöst mit einer Lawinenphotodiode, so lässt sich anhand der Zählstatistik pixelweise ein dreidimensionales Bild des Objektes erstellen. Dieses 3D-Lidar benötigt intensives Laserlicht, insbesondere für 3D-Bilder von weit entfernten Objekten. Bei vernachlässigbarer Hintergrundstrahlung braucht man pro Pixel für die 3D-Rekonstruktion einige zehn Photonen, für die Bestimmung der Reflektivität sogar einige hundert.

Angesichts dieser Verhältnisse erstaunt es, dass die Erstphotonenbildsynthese pro Pixel nur einzelne Photonen benötigt, um selbst bei merklichem Hintergrundlicht detailreiche 3D-Bilder zu liefern. Das neue Verfahren erreicht dies in mehreren Schritten, durch die sich das gewonnene Bild stetig verbessert. Die Forscher demonstrieren dies u. a. anhand einer lebensgroßen Schaufensterpuppe, bekleidet mit einem schwarzen T-Shirt mit weißer Aufschrift. Die Puppe, die mit einem gepulsten Laserstrahl von 226 Picosekunden Pulsdauer und 10 Megahertz Pulsfrequenz abgerastert und von einer Glühlampe beleuchtet wurde, war 1,5 Meter vom Aufnahmegerät entfernt.

Für jedes Pixel zeichneten die Forscher auf, wann das erste Photon auf die Photodiode traf. Die Beleuchtung war so eingestellt, dass dieses Photon mit gleicher Wahrscheinlichkeit vom Objekt reflektiert worden war oder von der Glühlampe kam. Außerdem zählten sie, wie viele Laserpulse auf das Objekt treffen mussten, bevor das erste Photon registriert wurde. Daraus ermittelten sie die Reflektivität des Pixels, während sie aus der Zeitspanne zwischen dem Eintreffen des ersten Photons und dem unmittelbar davor abgegebenen Puls die Entfernung des Pixels berechneten.

Das so gewonnene dreidimensionale Bild war durch die Hintergrundbeleuchtung noch stark verrauscht (s. Abb. 2, A-C). Zur Verbesserung des Bildes nutzten die Forscher aus, dass die Reflektivitäten und die Distanzen für benachbarte Pixel normalerweise sehr ähnlich sind, es sei denn, dass zwischen den Pixeln scharfe Grenzlinien liegen. Ein Optimierungsprogramm zur Abschätzung der Reflektivitäten lieferte ein deutlich verbessertes 3D-Bild (s. Abb. 2, D-F).

Das gewonnene 3D-Bild wird schrittweise verbessert

Abb. 2: Das gewonnene 3D-Bild wird schrittweise verbessert (s. Text). (Bild: A. Kirmani et al.)

Im nächsten Schritt unterdrückten die Forscher das störende Hintergrundlicht. Dabei nutzten sie aus, dass die Ankunftszeiten der jeweils ersten Photonen für benachbarte Pixel wesentlich stärker streuten, wenn sie vom Hintergrundlicht statt vom reflektierten Licht stammten. Wurden statt der Hintergrundphotonen nur reflektierte Photonen verwendet, so verbesserte sich das Bild ein weiteres Mal (s. Abb. 2, G-I). Schließlich wurden auch die schon erwähnten Korrelationen zwischen den Entfernungen benachbarter Pixel von einem Optimierungsprogramm berücksichtigt, wodurch das endgültige 3D-Bild zustande kam (s. Abb. 2, J-L). Auf ihm lassen sich Details im Gesicht der Puppe und die Schrift auf dem T-Shirt deutlich erkennen.

Für eine Million Pixel brauchte die Datenaufnahme für die Reflektivität und die 3D-Rekonstruktionzirka zwanzig Minuten, während die anschließende Berechnung auf einem PC etwa drei Minuten benötigte. Wie gut die 3D-Rekonstruktion durch Erstphotonenbildsynthese war, zeigte ein direkter Vergleich mit den Resultaten des 3D-Lidar, für das das Hintergrundlicht ausgeschaltet und eine hundertmal größere Laserphotonenzahl benutzt wurde. Die Abweichung der 3D-Rekonstruktion betrug im Mittel vier Millimeter und war erwartungsgemäß dort am größten, wo das Laserlicht streifend auf die Objektoberfläche auftraf.

Die Forscher sehen für die Erstphotonenbildsynthese vielversprechende Anwendungsmöglichkeiten überall dort, wo gute 3D-Bilder mit einer möglichst geringen Laserintensität gewonnen werden sollen, wie etwa bei Anwendungen in der Biologie. Zudem lassen sich mit dem neuen Verfahren bei gegebener Laserleistung größere Entfernungen überbrücken als mit dem herkömmlichen 3D-Lidar.

Rainer Scharf

DE

Share |

Bestellen

Sie interessieren sich für ein Bezugsmöglichkeiten von Optik & Photonik oder Laser Technik Journal?

Webinar

Optimierung: Der Schlüssel zur Bestimmung von unbekannten Parametern in Simulationsmodellen

  • 30. March 2017

Optimie­rungs­ver­fah­ren sind ein wich­ti­ges Werk­zeug in der Si­mu­la­tion. In die­sem We­bi­nar er­fah­ren Sie, wie Op­ti­mie­rung ein­ge­setzt wer­den kann, um die ge­nau­en Wer­te von Pa­ra­me­tern zu be­stim­men.

Alle Webinare »

Site Login

Bitte einloggen

Andere Optionen Login

Website Footer