Fliegende 3D-Augen

Forschung Kompakt / 2.5.2012

Ob als Einsatzhelfer bei Großveranstaltungen oder als hochauflösende 3D-Vermesser von Straßenzügen: Intelligente Schwärme aus Flugrobotern eignen sich als universelles Werkzeug für Polizei, Krisenmanager oder Städteplaner. Für einwandfreie Flugmanöver ohne Kollisionen sorgt ein spezieller 3D-Sensor von Fraunhofer-Forschern.

Bild: 3D-Kamera
© Foto Fraunhofer IMS

Die 3D-Kamera im Flugroboter erkennt aus sieben Metern Entfernung kleinere Objekte von 20 mal 15 Zentimeter.

Wie auf Kommando steigt das Team langsam laut surrend in die Luft. Gut zwei Dutzend Flugroboter fliegen über der Menschenmenge aus Tausenden von Fußballfans. Aufgebrachte Rowdys haben das Spielfeld gestürmt und bengalische Feuer gelegt. Es kommt zu Schlägereien, Rauch verhindert die Sicht, es herrscht Chaos. Nur der Flugroboter-Schwarm behält die Übersicht. Die unbemannten Flugroboter sind eine Art Mini-Hubschrauber mit einer Spannweite von etwa zwei Metern. Auf den beiden seitlichen Schwenkflügeln sitzt jeweils ein Propeller. Sie verleihen dem Fluggerät eine schnelle und präzise Manövrierbarkeit. Beim Flug über das Spielfeld fangen die Kameras und Sensoren die wichtigsten Bilder und Daten ein und funken sie zur Zentrale. Wo gibt es Schwerverletzte? Wo müssen Feuer gelöscht werden? Über welchen Weg lässt sich die rivalisierende Meute am besten auseinanderbringen? Dank der Informationen können die Einsatzleiter schneller wichtige Entscheidungen treffen, während die Robo-
ter wie ein Vogelschwarm selbstständig über die Arena navigieren – ohne dabei miteinander oder mit anderen Hindernissen zu kollidieren.

Herzstück der Technologie, die Kollisionen verhindert, ist ein CMOS-Sensor von Fraunhofer-Forschern des Instituts für Mikroelektronische Schaltungen und Systeme IMS in Duisburg. »Der Sensor kann sehr effizient dreidimensionale Abstände vermessen«, sagt Werner Brockherde, Leiter der Entwicklungsabteilung. Wie bei einer Schwarz-Weiß-Ka-
mera erfasst jeder Bildpunkt auf dem Sensor einen Grauwert. »Obendrein bekommt man zu jedem Pixel aber noch einen Abstandswert«, erklärt Brockherde. Auf diese Weise kann der Flugroboter die Position von anderen Objekten im Raum genau bestimmen.

Sensor löst höher auf als Radar

Gegenüber dem Radar, das mit Hilfe von reflektierten Echos Abstände von Objekten erfasst, bietet der IMS-Abstandssensor erhebliche Vorteile: »Die örtliche Auflösung ist sehr viel höher«, sagt Brockherde. »Ein Radar wäre bei dieser Nahfeldmanövrierung viel zu grob.« Auf eine Entfernung von bis zu 7,5 Metern erkennen die Flugroboter selbst kleinere Objekte von bis zu 20 mal 15 Zentimeter. Zudem werden die Abstandsinformationen mit einer sehr hohen Rate von 12 Bildern pro Sekunde übertragen.

Selbst bei starkem Störlicht, etwa wenn die Sonne direkt blendet, liefert der Sensor präzise Bilder. Dieser arbeitet nach dem Time-of-Flight-Verfahren (TOF). Dabei senden Lichtquellen kurze Impulse aus, die von den Objekten reflektiert und vom Sensor wieder eingefangen werden. Um zu verhindern, dass zu starkes Hintergrundlicht das eigentliche Signal überdeckt, öffnet sich der elektronische Verschluss nur für wenige Nanosekunden. Zudem erfolgt eine Differenzmessung, bei der jeweils eine Aufnahme nur mit Hintergrundlicht und eine zusammen mit dem eigentlichen Signal erfolgen. Die Differenz liefert die Informationen über das gewünschte Signal. »Das alles geschieht in Echtzeit«, sagt Brockherde.

Eingebaut sind die 3D-Abstandssensoren in Kameras der Firma TriDiCam, einer Ausgründung des Fraunhofer IMS. »Für uns bietet dieses Forschungsprojekt neue Herausforderungen in Bezug auf Umgebungsbedingungen und die Sicherheit dieser Sensortechnologie«, sagt Jochen Noell, Geschäftsführer von TriDiCam. Die Entwicklung ist Teil des Projekts AVIGLE, das zu den Gewinnern des Spitzentechnologie-Wettbewerbs »Hightech.NRW« gehört und vom Land Nordrhein-Westfalen und der EU gefördert wird. Am 12. und 13. Juni stellen die IMS-Ingenieure ihre Sensortechnologie beim Fraunhofer CMOS Imaging Workshop in Duisburg vor.

Die Flugroboter sollen nicht nur bei der intelligenten Luftüberwachung von Großereignissen zum Einsatz kommen. Katastrophenhelfer könnten von ihnen ebenso profitieren wie etwa Städteplaner, die mit ihnen detaillierte 3D-Modelle von Straßenzügen erstellen oder großflächig Dächer auf ihre Eignung für Solar-Anlagen prüfen könnten. Ob virtuelle Karten von schwer zugängigen Gebieten, Überwachung von Baustellen, Kontaminationsmessungen auf AKW-Anlagen – für viele Anwendungen wären teure Luft- oder Satellitenaufnahmen nicht mehr notwendig.