Drohnen sehen im Dunkeln

  • 21. September 2017

Spezialkamera für schlechte Licht­verhältnisse ist dem mensch­lichen Auge nach­empfunden.

Um sicher fliegen zu können, müssen Drohnen immer ihre genaue Position kennen und sich orientieren können. Kommer­zielle Drohnen nutzen dazu ein GPS-System, das aber innerhalb von Gebäuden und in städtischen Gegenden nicht ganz zuverlässig ist. Außerdem funk­tionieren die herkömmlich einge­bauten Kameras nur bei guten Lichtver­hältnissen und redu­zierten Geschwin­digkeiten, weil sonst die Fotos durch die Bewegung unscharf werden und von den Bild­verarbeitungs­algorithmen nicht erkannt werden. Um dieses Problem zu lösen, verwenden profes­sionelle Drohnen meist teure und sperrige Laser­scanner als Sensoren.

Abb.: So sieht die Spezialkamera der Nachtsicht-Drohne seine Umgebung. Sie erfasst für jedes Pixel Veränderungen in der Helligkeit. (Bild: UZH)

Abb.: So sieht die Spezialkamera der Drohne seine Umgebung. Sie erfasst für jedes Pixel Veränderungen in der Helligkeit. (Bild: UZH)

Eine Forscher­gruppe der Universität Zürich und des Schweizer Forschungs­konsortiums NCCR Robotics hat nun eine Alter­native entwickelt, damit Drohnen bei unter­schiedlichsten Umgebungs­bedingungen fliegen können. Dank einer Spezial­kamera, die dem mensch­lichen Auge nachem­pfunden ist, verliert die Drohne auch bei schnellen Bewegungen nicht die Orien­tierung und kann im Dunkeln mehr sehen als mit herkömm­lichen Kameras. „Dieses Forschungs­projekt verbindet als erstes seiner Art künst­liche Intelligenz mit Robotik. Damit können Drohnen bald sehr viel autonomer und schneller fliegen als bisher, besonders auch bei schlechten Licht­verhältnissen“, sagt Davide Scaramuzza, Leiter der UZH-Forschungs­gruppe „Robotics and Perception“. Er und sein Team program­mierten bereits Drohnen so, dass sie mithilfe der einge­bauten Kamera auf die Position im Raum schließen konnten.

Diese „Event“-Kameras wurden von der UZH und der ETH gemein­sam entwickelt. Im Gegensatz zu herkömm­lichen Kameras erfassen sie nicht das gesamte Bild gleich­zeitig, sondern individuelle Veränderungen in der Helligkeits­stufe jedes einzelnen Pixels. So wird das Bild auch bei schnellen Bewegungen und bei schlechtem Umgebungs­licht scharf. Die Forscher entwickelten zudem eine neue Software, um die Daten der Event-Kamera effizient zu verar­beiten und autonome Flüge mit höheren Geschwindig­keiten und bei schlech­terem Licht zu ermög­lichen.

Mit den Kameras bestückte Drohnen können zusammen mit der ent­wickelten Software Rettungs­teams in Situa­tionen unter­stützen, in denen herkömm­liche Drohnen überfordert sind – zum Beispiel bei der Suche und der Bergung bei schlechten Lichtver­hältnissen in der Abend- oder Morgen­dämmerung. Die Drohnen sind auch schneller am Zielort im Katastrophen­gebiet, um Über­lebende schneller orten zu können.

„Es steht noch viel Arbeit bevor, bis diese Drohnen wirklich genutzt werden können. Die für den Versuch benutzte Kamera ist ein früher Prototyp und wir müssen beweisen, dass unsere Software auch außerhalb des Labors funk­tioniert", erklärt Doktorand Henri Rebecq. Und Scaramuzza ergänzt: „Wir denken, dass wir es schaffen werden. Unsere bis­herigen Versuche haben bereits gezeigt, dass die Kombination einer Standard- mit einer Event-Kamera das System exakter und zuver­lässiger macht.“

UZH / JOL

Share |

Webinar

Warum reale akustische Systeme nur multiphysikalisch simuliert werden können

  • 02. November 2017

In diesem Webi­nar wird ge­zeigt, warum man bei­spiels­weise schon bei der Simu­la­tion eines „ein­fachen“ Laut­spre­chers auf multi­phy­si­ka­li­sche Kopp­lung an­ge­wie­sen sein kann, wenn man ex­pe­ri­men­tel­le Er­geb­nis­se kor­rekt re­pro­du­zie­ren will.

Alle Webinare »

Site Login

Bitte einloggen

Andere Optionen Login

Website Footer