Muster oder Oberflächenstrukturen der Objekte verursachten Schwankungen in der Bildintensität. Das Stereo-
Matching-Verfahren kann bei Oberflächen ohne jede Textur, wie z. B. bei flachen weißen Wänden, keine Werte
liefern. Das vom rc_visard genutzte Verfahren (SGM) bietet – selbst bei feineren Strukturen – den bestmöglichen
Kompromiss aus Laufzeit und Genauigkeit.
Für das Stereo-Matching-Verfahren müssen die Positionen der linken und rechten Kamera sowie ihre Ausrichtung
zueinander genau bekannt sein. Dies wird durch Kalibrierung erreicht. Die Kameras des rc_visard werden bereits
im Werk vorkalibriert. Hat sich der rc_visard jedoch, beispielsweise während des Transports, dekalibriert, muss
die Stereokamera neu kalibriert werden.
Für die Berechnung der 3D-Informationen benötigt der rc_visard folgende Softwaremodule:
• Stereokamera: Dieses Modul dient dazu, synchronisierte Stereo-Bildpaare aufzunehmen und diese in Bilder
umzuwandeln, die so weit es geht den Aufnahmen einer idealen Stereokamera entsprechen (Rektifizie-
rung) (Abschnitt 6.1).
• Stereo-Matching: Dieses Modul errechnet mithilfe des Stereo-Matching-Verfahrens SGM die Disparitäten
der rektifizierten Stereo-Bildpaare (Abschnitt 6.2).
• Kamerakalibrierung: Mit diesem Modul kann der Benutzer die Stereokamera des rc_visard neu kalibrie-
ren (Abschnitt 6.7).
5.2 Sensordynamik
Neben 3D-Informationen zu einer Szene kann der rc_visard auch Echtzeit-Schätzungen zu seiner Eigenbewegung
oder seinem dynamischen Zustand bereitstellen. Hierfür misst er seine aktuelle Pose, d. h. seine Position und Aus-
richtung in Bezug auf ein Referenzkoordinatensystem, sowie seine Geschwindigkeit und Beschleunigung. Für
diese Messungen werden die Messungen aus der SVO (stereobasierte visuelle Odometrie) mit den Werten des
integrierten inertialen Messsystems (IMU) kombiniert. Diese Kombination wird auch als visuelles Trägheitsnavi-
gationssystem (VINS) bezeichnet .
Die visuelle Odometrie verfolgt die Bewegung charakteristischer Punkte in Kamerabildern, um auf dieser Grund-
lage die Kamerabewegung abzuschätzen. Objektpunkte werden je nach Blickrichtung der Kamera auf verschie-
dene Pixel projiziert. Die 3D-Koordinaten jedes dieser Objektpunkte lassen sich über Stereo-Matching der Punkt-
projektionen im linken und rechten Kamerabild errechnen. So werden für zwei unterschiedliche Betrachtungspo-
sitionen A und B zwei zugehörige 3D-Punktwolken errechnen. Eine statische Umgebung vorausgesetzt, entspricht
die Bewegung, die eine Punktwolke in eine andere Punktwolke transformiert, der Kamerabewegung. Das Prinzip
wird in
Abb. 5.2
für einen vereinfachten 2D-Anwendungsfall dargestellt.
5.2. Sensordynamik
24