Experimentelle CBRNE-Roboter unterstützen bei der Erkennung und Bergung von radioaktiven Gefahrstoffen
In Situationen, die für Menschen zu gefährlich sind, unterstützen neben Drohnen auch unbemannte Landfahrzeuge. Roboter, die mit CBRNE-Sensorik und autonomen Assis-tenzfunktionen ausgestattet sind, übernehmen dann die Aufklärung. Die intelligente Kombination von CBRNE-Aufklärungssensorik, Navigationsstrategien und Geodatenverarbeitung mithilfe unbemannter Landfahrzeuge stellt einen Forschungsschwerpunkt von Dr. Frank E. Schneider dar, stellvertretender Leiter der FKIE-Abteilung Kognitive Mobile Systeme.
»In Vorbereitung auf Ereignisse mit RN-Material wie zum Beispiel Tschernobyl wurde in Deutschland ein behördliches Radioaktivitätsüberwachungssystem1 installiert. Mit einem Abstand von mehreren Kilometern sind rasterartig Sensoren über ganz Deutschland verteilt, welche die aktuellen radioaktiven Strahlungswerte kontinuierlich an das Bundesamt für Strahlungsschutz melden. Die vom Roboter während einer Voraufklärung in einer potenziellen Gefahrenzone festgestellte Strahlungsintensität gleichen wir mit dem »Normalwert« ab, den das Radioaktivitätsüberwachungssystem aus diesem Gebiet meldet. Mittels Datenfusion werden die Werte in einer Strahlungskarte, der Heatmap, zusammengeführt, um eine mögliche Bedrohungslage zu bestätigen oder auszuschließen«, veranschaulicht Schneider das Einsatzszenario.
Ein weiterer Fokus der Abteilung Kognitive Mobile Systeme liegt auf der Entwicklung intelligenter Navigations- und Assistenzfunktionen, die eine kontrollierte Steuerung der CBRNE-Roboter erleichtern: Sie stellen sicher, dass der Roboter den kompletten Gefahrenbereich abfährt und so die Strahlenquelle sicher lokalisieren kann. Weitere Messungen des Roboters informieren den Leitstand über die Größe der Gefahrenzone, die Art des gefundenen Strahlenmaterials und die Positionen bzw. Koordinaten, in denen der Sicherheitskorridor angelegt werden sollte. Die so gewonnenen Daten liefern den Experten und Einsatzkräften die Grundlage für das weitere Vorgehen.
»Click & Grasp«-System befähigt Greifarm, komplexe Bewegungen
auszuführen
Per Mausklick in ein Live-Videobild befähigt ein smartes »Click & Grasp«-System den Greifarm des Roboters, Gegenstände automatisiert aufzunehmen und an anderer, ebenfalls per Mausklick angewiesener Stelle, wieder abzulegen. In Praxistests konnte das System autonom nach ausgetretenem Material greifen, es auf Strahlung überprüfen, abtransportieren und in einem speziellen Behälter deponieren. Selbst komplexe Bewegungsabläufe wie das Öffnen von Autotüren gelingen dank der innovativen Assistenzfunktion, sodass sogar der Zugriff auf radioaktives Material in geschlossenen Räumen möglich ist.
Zudem arbeitet das Team rund um Dr. Schneider an neuen Bedienkonzepten, die mittels spezieller Sensorik ein photorealistisches 3D-Modell generiert und eine virtuelle Realität erzeugt, sodass der Bediener Objekte aus verschiedenen Blickwinkeln betrachten kann, ohne den Roboter bewegen zu müssen. »Der Bediener erhält quasi ein erweitertes Situationsbewusstsein«, so der Forscher. Darüber hinaus erlauben an der menschlichen Hand und dem Arm angebrachte Sensoren die Armbewegung des Menschen auf die des Roboters zu übertragen. Der Manipulator erhält auf diese Weise intuitive Steuerungsmöglichkeiten. »Diese neue Assistenzfunktion nennen wir ›Jackensteuerung‹. Sie ermöglicht es auch Einsatzkräften, die keine ausgewiesenen Fachkräfte sind, den Roboter intuitiv zu steuern.«
1Etwa 1700 über Deutschland verteilte Messstellen des Gamma-Ortsdosisleistung (ODL)-Messnetzes des Bundesamts für Strahlenschutz