Teilprojekt 3: Optische Unterwasser 3D-Messtechnik
Teilprojektleiter | Prof. Dr.-Ing. habil. Thomas Luhmann |
Teilprojektmitarbeiter | Robin Rofallski, M.Sc. |
Teilprojektvolumen | 241.727 € |
Fördermittelgeber | Nds. Ministerium für Wissenschaft und Kultur - VW-Vorab/Wissenschaft für nachhaltige Entwicklung |
Teilprojektlaufzeit | 01/2017 bis 03/2020 |

In diesem Teilprojekt wird ein kamerabasiertes Multi-Sensor-System zur Positionierung, Navigation und Kartierung von unbemannten Unterwasserfahrzeugen entwickelt. Die Positionierung und Navigation stellen insbesondere unter Wasser eine große Herausforderung dar, da bislang kein Sensor existiert, welcher analog zum über Wasser nutzbaren GNSS eine zentimetergenaue globale Verortung des Systems ermöglicht. Es wird daher die Fusion mit komplementärer Sensorik, wie einem USBL-Receiver in Kombination mit einem Akustik-Modem und GNSS-Empfänger, sowie der ROV-integrierten Inertialmesseinheit (IMU), Kameras und weiteren Sensoren angestrebt (siehe Abbildung 1). Diese sorgen für eine Gesamtsystemgenauigkeit, welche aufgrund der Redundanzen höher ist als jene der einzelnen Systemkomponenten.
Es wird weitgehend auf kostenintensive Positionierungssensorik verzichtet und die Forschungsfrage hinsichtlich ihrer Ersetzbarkeit durch kostengünstigere Kameras und zusätzliche Low-Cost-Sensorik definiert.
Wichtige Ziele des Teilprojektes sind daher:
- Realisierung eines Multi-Sensor-Systems
- Entwicklung eines Kalibrierworkflows zur Bestimmung der Orientierungs- und Kalibrierparameter
- Entwicklung eines Auswertealgorithmus zur Positionierung
- Genauigkeitsevaluation anhand von geeigneten Prüfobjekten
Zur Positionierung werden drei Kameras mit vor- und rückblickendem Sichtfeld am ROV angebracht und mithilfe sequentieller Auswerteverfahren verarbeitet, sodass in Kombination mit den zusätzlichen Sensoren eine stabile Position geschätzt werden kann. Das Dreikamerasystem bietet den Vorteil, eine robustere geometrische Basis zu schaffen, als es bei vergleichbaren Systemen mit zwei (Stereo) Kameras der Fall ist, um so zeitabhängiges Driften zu vermeiden. Das Kamerasystem ist modular aufgebaut und lässt sich flexibel sowohl in den BlueROV2 als auch in beliebige andere Unterwasserplattformen integrieren (siehe Abbildungen 2 und 3). Eine eigens entwickelte Auslösung durch einen Microcontroller (Trigger) gewährleistet einerseits die Synchronisierung der drei Kameras untereinander und bietet andererseits eine Schnittstelle zur Integration weiterer Sensoren.
Algorithmisch werden die Daten mittels Simultaneous Localization and Mapping (SLAM) ausgewertet. Hiermit lassen sich sowohl die Position als auch die Umgebung ohne Vorinformation dreidimensional in einem lokalen Koordinatensystem bestimmen. Eine funktionsfähige Lösung, welche die Grundanforderungen hinsichtlich Robustheit und Genauigkeit bestmöglich erfüllt, konnte in ORB-SLAM 2 identifiziert werden [Mur-Artal2017] und wird künftig auf die spezifischen Anforderungen des Dreikamerasystems angepasst.
Da der Sichtbereich der rückblickenden Kamera nicht mit jenen der beiden vorderen Kameras überlappt, ist die relative Orientierung nicht durch ein ebenes Testfeld bestimmbar. Es wurde daher ein Kalibrierraum entworfen, welcher photogrammetrische Codemarken an vier starren Wänden enthält und so die Bestimmung der Orientierungsparameter der drei Kameras in einem gemeinsamen Koordinatensystem ermöglicht (siehe Abbildung 3).
Die Mehrmedienkorrektur, bedingt durch optische Strahlbrechung an verschiedenen Trennflächen von Luft, Wasser und Glas, wird der Auswerteprozedur vorgeschaltet, um so eine Schnittstelle zwischen vorausgewerteten Bildern und dem Algorithmus zu schaffen.
Grundlegende Arbeiten sind im Teilprojekt abgeschlossen und einige vertiefte Erkenntnisse im Bereich der Sensorik, Algorithmik und Datenverarbeitung für Unterwasserfahrzeuge konnten bereits gewonnen und in [Rofallski2018] publiziert werden.
Literaturquellen
[Mur-Artal2017] Mur-Artal, R. & Tardós, J.D. (2017): ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo, and RGB-D Cameras. IEEE Transactions on Robotics, Vol. 33, No. 5, October 2017
[Rofallski2018] Rofallski, R., Luhmann, T. (2018): Fusion von Sensoren mit optischer 3D-Messtechnik zur Positionierung von Unterwasserfahrzeugen. DVW e.V. (Hrsg.): Hydrographie 2018 – Trend zu unbemannten Messsystemen, DVW-Schriftenreihe, Band 91, S. 223 - 234, Augsburg, Germany, 2018
