Teilprojekt 3: Optische Unterwasser 3D-Messtechnik

Teilprojektleiter Prof. Dr.-Ing. habil. Thomas Luhmann
Teilprojektmitarbeiter Robin Rofallski, M.Sc.
Teilprojektvolumen 241.727 €
Fördermittelgeber Nds. Ministerium für Wissenschaft und Kultur - VW-Vorab/Wissenschaft für nachhaltige Entwicklung
Teilprojektlaufzeit 01/2017 bis 03/2020
Abbildung 1: Positionierung eines unbemannten Unterwasserfahrzeugs mit Kameras, Inertialeinheit und akustischer Positionierung
Abbildung 1: Positionierung eines unbemannten Unterwasserfahrzeugs mit Kameras, Inertialeinheit und akustischer Positionierung

In diesem Teilprojekt wird ein kamerabasiertes Multi-Sensor-System zur Positionierung, Navigation und Kartierung von unbemannten Unterwasserfahrzeugen entwickelt. Die Positionierung und Navigation stellen insbesondere unter Wasser eine große Herausforderung dar, da bislang kein Sensor existiert, welcher analog zum über Wasser nutzbaren GNSS eine zentimetergenaue globale Verortung des Systems ermöglicht. Es wird daher die Fusion mit komplementärer Sensorik, wie einem USBL-Receiver in Kombination mit einem Akustik-Modem und GNSS-Empfänger, sowie der ROV-integrierten Inertialmesseinheit (IMU), Kameras und weiteren Sensoren angestrebt (siehe Abbildung 1). Diese sorgen für eine Gesamtsystemgenauigkeit, welche aufgrund der Redundanzen höher ist als jene der einzelnen Systemkomponenten.

Abbildung 2: Konzeptzeichnung des Mehrkamerasystems mit Synchronisation durch einen zentralen Trigger, realisiert durch einen Microcontroller
Abbildung 2: Konzeptzeichnung des Mehrkamerasystems mit Synchronisation durch einen zentralen Trigger, realisiert durch einen Microcontroller
Abbildung 3: Das Mehrkamerasystem in den Druckgehäusen
Abbildung 3: Das Mehrkamerasystem in den Druckgehäusen
Abbildung 4: Design des Kalibrierraumes. Durch rotierte Aufnahmen um alle drei Raumachsen können die Parameter der relativen Orientierung der drei Kameras bestimmt werden
Abbildung 4: Design des Kalibrierraumes. Durch rotierte Aufnahmen um alle drei Raumachsen können die Parameter der relativen Orientierung der drei Kameras bestimmt werden

Es wird weitgehend auf kostenintensive Positionierungssensorik verzichtet und die Forschungsfrage hinsichtlich ihrer Ersetzbarkeit durch kostengünstigere Kameras und zusätzliche Low-Cost-Sensorik definiert.

Wichtige Ziele des Teilprojektes sind daher:

  • Realisierung eines Multi-Sensor-Systems
  • Entwicklung eines Kalibrierworkflows zur Bestimmung der Orientierungs- und Kalibrierparameter
  • Entwicklung eines Auswertealgorithmus zur Positionierung
  • Genauigkeitsevaluation anhand von geeigneten Prüfobjekten

Zur Positionierung werden drei Kameras mit vor- und rückblickendem Sichtfeld am ROV angebracht und mithilfe sequentieller Auswerteverfahren verarbeitet, sodass in Kombination mit den zusätzlichen Sensoren eine stabile Position geschätzt werden kann. Das Dreikamerasystem bietet den Vorteil, eine robustere geometrische Basis zu schaffen, als es bei vergleichbaren Systemen mit zwei (Stereo) Kameras der Fall ist, um so zeitabhängiges Driften zu vermeiden. Das Kamerasystem ist modular aufgebaut und lässt sich flexibel sowohl in den BlueROV2 als auch in beliebige andere Unterwasserplattformen integrieren (siehe Abbildungen 2 und 3). Eine eigens entwickelte Auslösung durch einen Microcontroller (Trigger) gewährleistet einerseits die Synchronisierung der drei Kameras untereinander und bietet andererseits eine Schnittstelle zur Integration weiterer Sensoren.

Algorithmisch werden die Daten mittels Simultaneous Localization and Mapping (SLAM) ausgewertet. Hiermit lassen sich sowohl die Position als auch die Umgebung ohne Vorinformation dreidimensional in einem lokalen Koordinatensystem bestimmen. Eine funktionsfähige Lösung, welche die Grundanforderungen hinsichtlich Robustheit und Genauigkeit bestmöglich erfüllt, konnte in ORB-SLAM 2 identifiziert werden [Mur-Artal2017] und wird künftig auf die spezifischen Anforderungen des Dreikamerasystems angepasst. 

Da der Sichtbereich der rückblickenden Kamera nicht mit jenen der beiden vorderen Kameras überlappt, ist die relative Orientierung nicht durch ein ebenes Testfeld bestimmbar. Es wurde daher ein Kalibrierraum entworfen, welcher photogrammetrische Codemarken an vier starren Wänden enthält und so die Bestimmung der Orientierungsparameter der drei Kameras in einem gemeinsamen Koordinatensystem ermöglicht (siehe Abbildung 3).

Die Mehrmedienkorrektur, bedingt durch optische Strahlbrechung an verschiedenen Trennflächen von Luft, Wasser und Glas, wird der Auswerteprozedur vorgeschaltet, um so eine Schnittstelle zwischen vorausgewerteten Bildern und dem Algorithmus zu schaffen.

Grundlegende Arbeiten sind im Teilprojekt abgeschlossen und einige vertiefte Erkenntnisse im Bereich der Sensorik, Algorithmik und Datenverarbeitung für Unterwasserfahrzeuge konnten bereits gewonnen und in [Rofallski2018] publiziert werden. 

 

Literaturquellen

[Mur-Artal2017] Mur-Artal, R. & Tardós, J.D. (2017): ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo, and RGB-D Cameras. IEEE Transactions on Robotics, Vol. 33, No. 5, October 2017

[Rofallski2018] Rofallski, R., Luhmann, T. (2018): Fusion von Sensoren mit optischer 3D-Messtechnik zur Positionierung von Unterwasserfahrzeugen. DVW e.V. (Hrsg.): Hydrographie 2018 – Trend zu unbemannten Messsystemen, DVW-Schriftenreihe, Band 91, S. 223 - 234, Augsburg, Germany, 2018

Logos