Räume per Radar dreidimensional erfassen

  • 20. October 2017

Neues Verfahren soll Objekte lokali­sieren und ihre Zu­sam­men­setzung be­stimmen.

Neue Signalverarbeitungsverfahren für die Bildgebung und Material­charak­teri­sierung mittels Radar haben Forscher der Univer­sitäts­allianz Ruhr ent­wickelt. Lang­fristiges Ziel ist es, diese Tech­niken mit der radar­basierten Ortung von Gegen­ständen zu kombi­nieren. Die Vision: eine fliegende Platt­form, die selbst­ständig eine drei­dimen­sionale Reprä­sen­tation des um­gebenden Raums erzeugen kann. Nütz­lich könnte die Technik zum Beispiel sein, um bei einem Brand heraus­zu­finden, was die Feuer­wehr­leute hinter den Rauch­wolken im Gebäude erwartet.

Testraum

Abb.: In diesem abgeschirmten Raum können die Forscher ihre Systeme unter kon­trol­lier­ten Be­din­gungen testen. (Bild: R. Schirde­wahn)

Prinzipiell taugt das gleiche Messverfahren für die Material­charak­teri­sierung und die Ortung. Nur wird es der­zeit noch nicht gleich­zeitig für beides ein­ge­setzt. Das Prinzip: Ein Radar strahlt elektro­magne­tische Wellen ab, die an Objekten reflek­tiert werden. Grob gesagt lässt sich aus der Lauf­zeit der ein­ge­strahlten und zurück­ge­worfenen Signale berechnen, wie weit ein Gegen­stand ent­fernt ist.

In den zurückkommenden Wellen steckt aber noch mehr Information. Denn die Stärke des reflek­tierten Signals hängt davon ab, wie groß ein Objekt ist, wie es geformt ist und aus welchem Material es besteht. Eine Material­konstante, die rela­tive Permit­ti­vität, beschreibt, wie durch­lässig eine Substanz für elektro­magne­tische Wellen ist. Aus der Permit­ti­vität können die Forscher also Rück­schlüsse darauf ziehen, um welches Material es sich handelt.

Ein Radarsignal in ein aussagekräftiges Bild umzuwandeln erfordert hohen Rechen­auf­wand. Die auf­ge­zeich­neten Daten sind etwa so wie von einer Kamera, der die Linse zum Fokus­sieren fehlt. Die Fokus­sie­rung erfolgt nach­träg­lich im Computer. Algo­rithmen für diesen Prozess ent­wickelte Jan Barowski an der Uni Bochum. „Als ich ange­fangen habe, hat eine solche Korrektur noch zehn Stunden gedauert“, sagt er. Heute läuft die Aus­wertung über eine Laptop-Grafik­karte in Echt­zeit. Barowskis Algo­rithmen erledigen dabei nicht nur die Fokus­sierung, sondern elimi­nieren auch system­bedingte Mess­fehler aus den Daten.

Das aktuell vorliegende System kann in einer kontrol­lierten Labor­umge­bung bereits erkennen, wo ein Objekt ist und dass es aus einem anderen Material bestehen muss als zum Beispiel der Unter­grund, auf dem es liegt. Im nächsten Schritt wollen die Forscher das System befähigen zu erkennen, was das Objekt ist. Die Permit­ti­vität von Kunst­stoffen können sie bereits gut bestimmen, aber zum Beispiel noch nicht zwischen ver­schie­denen Kunst­stoffen unter­scheiden. Schritt für Schritt wollen die Projekt­partner das System nun für den Ein­satz unter realis­tischen Bedin­gungen opti­mieren.

RUB / RK

Share |

Webinar

Einführung in die Simulation von Halbleiter-Bauelementen

  • 30. November 2017

Von Mosfets über LEDs bis zu Wafern – Halb­leiter­bau­elemente sind essen­tielle Bestand­teile moderner Tech­nik in nahezu allen Bran­chen. Die nume­ri­sche Simu­la­tion kann dabei ein wich­ti­ges Hilfs­mit­tel dar­stel­len, um diese Bau­elemen­te in ihrer Funk­tions­weise zu analy­sie­ren und somit deren Kon­zep­tion zu er­leich­tern.

Alle Webinare »

Site Login

Bitte einloggen

Andere Optionen Login

Website Footer