Um eine Objekterkennung durchzuführen, müssen im Allgemeinen die folgenden Serviceargumente an das
SilhouetteMatch-Modul übergeben werden:
• Das Template des Objekts, welches in der Szene erkannt werden soll.
• Das Koordinatensystem, in dem die Posen der detektierten Objekte zurückgegeben werden sollen (siehe
Hand-Auge-Kalibrierung, Abschnitt 7.5.5).
Optional können auch folgende Serviceargumente an das SilhouetteMatch-Modul übergeben werden:
• Für den Fall, dass Objekte nicht direkt auf der Basisebene liegen, sondern auf einer zu dieser parallelen
Ebene, kann ein Versatz angegeben werden. Der Versatz bezeichnet die Distanz beider Ebenen in Richtung
der Kamera. Wenn dieser Wert nicht gesetzt wird, wird ein Versatz von 0 angenommen.
• Eine Region of Interest, in welcher die Objekte erkannt werden sollen. Wenn keine ROI gesetzt wird, werden
Objekte im gesamten Kamerabild gesucht.
• Die aktuelle Roboterpose, wenn als Koordinatensystem
boter montiert ist.
Im „Ausprobieren"-Abschnitt der Seite SilhouetteMatch der Web GUI kann die Objektdetektion ausprobiert wer-
den. Das Ergebnis wird, wie in
Abb. 7.13: Ergebnisbild des SilhouetteMatch-Moduls, wie über die Web GUI dargestellt
Das rechte Bild zeigt die kalibrierte Basisebene in blau und das zu erkennende Template in grün. Das Template
wird passend zu Abstand und Verkippung der Basisebene verformt dargestellt.
Das linke Bild zeigt das Detektionsergebnis. Die blauschattierte Fläche auf der linken Seite markiert den Teil
des linken Kamerabilds, welcher nicht mit dem rechten Kamerabild überlappt. In diesem Bereich können keine
Objekte erkannt werden. Die gewählte Region of Interest wird als petrolfarbenes Rechteck dargestellt. Erkannte
Kanten im Bild werden in hellem Blau und erkannte Objekte in grün visualisiert. Rote Kreise markieren jeweils
den Ursprung der detektierten Objekte, wie im Template festgelegt. Die Posen der Objektursprünge werden im ge-
wählen Koordinatensystem zurückgegeben. Falls Objekte rotationssymmetrisch sind, besitzen alle Ergebnisposen
die gleiche Orientierung. Für nicht-rotationssymmetrische Objekte richtet sich die Orientierung nach der Normale
der Basisebene.
Die Detektionsergebnisse und Berechnungszeiten werden durch Laufzeitparameter beeinflusst, welche weiter un-
ten aufgezählt und beschrieben werden. Unsachgemäße Parameterwerte können zu Zeitüberschreitungen im De-
tektionsprozess des SilhouetteMatch-Moduls führen.
7.5. SilhouetteMatch
Abb. 7.13
dargestellt, visualisiert.
gewählt wurde und die Kamera am Ro-
external
131