Räume per Radar dreidimensional erfassen

  • 20. October 2017

Neues Verfahren soll Objekte lokali­sieren und ihre Zu­sam­men­setzung be­stimmen.

Neue Signalverarbeitungsverfahren für die Bildgebung und Material­charak­teri­sierung mittels Radar haben Forscher der Univer­sitäts­allianz Ruhr ent­wickelt. Lang­fristiges Ziel ist es, diese Tech­niken mit der radar­basierten Ortung von Gegen­ständen zu kombi­nieren. Die Vision: eine fliegende Platt­form, die selbst­ständig eine drei­dimen­sionale Reprä­sen­tation des um­gebenden Raums erzeugen kann. Nütz­lich könnte die Technik zum Beispiel sein, um bei einem Brand heraus­zu­finden, was die Feuer­wehr­leute hinter den Rauch­wolken im Gebäude erwartet.

Testraum

Abb.: In diesem abgeschirmten Raum können die Forscher ihre Systeme unter kon­trol­lier­ten Be­din­gungen testen. (Bild: R. Schirde­wahn)

Prinzipiell taugt das gleiche Messverfahren für die Material­charak­teri­sierung und die Ortung. Nur wird es der­zeit noch nicht gleich­zeitig für beides ein­ge­setzt. Das Prinzip: Ein Radar strahlt elektro­magne­tische Wellen ab, die an Objekten reflek­tiert werden. Grob gesagt lässt sich aus der Lauf­zeit der ein­ge­strahlten und zurück­ge­worfenen Signale berechnen, wie weit ein Gegen­stand ent­fernt ist.

In den zurückkommenden Wellen steckt aber noch mehr Information. Denn die Stärke des reflek­tierten Signals hängt davon ab, wie groß ein Objekt ist, wie es geformt ist und aus welchem Material es besteht. Eine Material­konstante, die rela­tive Permit­ti­vität, beschreibt, wie durch­lässig eine Substanz für elektro­magne­tische Wellen ist. Aus der Permit­ti­vität können die Forscher also Rück­schlüsse darauf ziehen, um welches Material es sich handelt.

Ein Radarsignal in ein aussagekräftiges Bild umzuwandeln erfordert hohen Rechen­auf­wand. Die auf­ge­zeich­neten Daten sind etwa so wie von einer Kamera, der die Linse zum Fokus­sieren fehlt. Die Fokus­sie­rung erfolgt nach­träg­lich im Computer. Algo­rithmen für diesen Prozess ent­wickelte Jan Barowski an der Uni Bochum. „Als ich ange­fangen habe, hat eine solche Korrektur noch zehn Stunden gedauert“, sagt er. Heute läuft die Aus­wertung über eine Laptop-Grafik­karte in Echt­zeit. Barowskis Algo­rithmen erledigen dabei nicht nur die Fokus­sierung, sondern elimi­nieren auch system­bedingte Mess­fehler aus den Daten.

Das aktuell vorliegende System kann in einer kontrol­lierten Labor­umge­bung bereits erkennen, wo ein Objekt ist und dass es aus einem anderen Material bestehen muss als zum Beispiel der Unter­grund, auf dem es liegt. Im nächsten Schritt wollen die Forscher das System befähigen zu erkennen, was das Objekt ist. Die Permit­ti­vität von Kunst­stoffen können sie bereits gut bestimmen, aber zum Beispiel noch nicht zwischen ver­schie­denen Kunst­stoffen unter­scheiden. Schritt für Schritt wollen die Projekt­partner das System nun für den Ein­satz unter realis­tischen Bedin­gungen opti­mieren.

RUB / RK

Share |

Webinar

Welches Turbulenzmodell soll ich benutzen?

  • 01. March 2018

Lösungen der seit nun fast 200 Jah­ren be­kann­ten Navier-Stokes-Glei­chung­en be­schrei­ben Strö­mung­en in al­len De­tails. Doch Tur­bu­len­zen sind noch im­mer ein nu­me­ri­scher Alb­traum, selbst mit Su­per­com­pu­tern sind tur­bu­len­te Strö­mung­en in re­a­lis­ti­schen Mo­del­len meist un­be­rech­en­bar.

Alle Webinare »

Site Login

Bitte einloggen

Andere Optionen Login

Website Footer