Sie sind auf Seite 1von 614

7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

FANUC Roboterserie
R-30*B/R-30*B Mate STEUERUNG

*RVision
BEDIENUNGSHANDBUCH (Referenz)

B-83304GE/02

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

• Original-Anweisung

Vor dem Einsatz des Roboters ist das „FANUC Roboter Sicherheitshandbuch (B-80687GE)“
aufmerksam zu lesen.

• Kein Teil dieses Handbuchs darf in irgendeiner Form reproduziert werden.


• Alle Spezifikationen und Designs können ohne vorherige Ankündigung
geändert werden.

Die Produkte in diesem Handbuch unterliegen der Kontrolle durch das japanische
Devisen- und Außenhandelsgesetz. Für den Export aus Japan wird unter Umständen eine
Exportlizenz der japanischen Regierung benötigt.
Auch der Weiterexport in ein Drittland kann eine Lizenz der Regierung des Exportlandes
erforderlich machen. Außerdem kann das Produkt den Bestimmungen zum Weiterexport
der US-Regierung unterliegen.
Bei Fragen zum Export oder Weiterexport dieser Produkte wenden Sie sich vertrauensvoll
an FANUC.

In diesem Handbuch haben wir versucht, alle Anwendungen so genau wie möglich zu
beschreiben.
Wir können jedoch nicht alle untersagten oder unmöglichen Anwendungen beschreiben,
da es sehr viele davon gibt.
Aus diesem Grund können Sie alle Einzelheiten, die in diesem Handbuch nicht
ausdrücklich als möglich beschrieben sind, als "unmöglich" betrachten.

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 SICHERHEITSVORKEHRUNGEN

SICHERHEITSVORKEHRUNGEN
Vielen Dank für den Kauf eines FANUC Roboters.
Dieses Kapitel beschreibt die Maßnahmen, die Sie treffen müssen, um den sicheren Einsatz des Roboters
zu gewährleisten.
Bitte lesen Sie dieses Kapitel aufmerksam durch, bevor Sie den Roboter verwenden.

Bevor Sie die Funktionen des Roboterbetriebs verwenden, lesen Sie das entsprechende
Bedienungshandbuch, um mit diesen Funktionen vertraut zu werden.

Wenn eine Beschreibung in diesem Kapitel von der in einem anderen Teil dieses Handbuchs abweicht,
hat die Beschreibung in diesem Kapitel Vorrang.

Um die Sicherheit des Bedieners und des Systems zu gewährleisten, sind alle Sicherheitsvorkehrungen
beim Betrieb des Roboters und seiner in der Arbeitszelle installierten Peripheriegeräte zu befolgen.
Lesen Sie zusätzlich das „FANUC Roboter SICHERHEITSHANDBUCH (B-80687GE)“.

1 ARBEITSPERSONAL
Das Personal kann in folgende Kategorien aufgeteilt werden.

Bediener:
• Schaltet die Stromversorgung der Robotersteuerung ein/aus.
• Startet ein Roboterprogramm vom Bedienfeld aus.

Programmierer oder Programmiergeräte-Bediener:


• Bedient den Roboter.
• Programmiert den Roboter innerhalb des Sicherheitszauns.

Wartungstechniker:
• Bedient den Roboter.
• Programmiert den Roboter innerhalb des Sicherheitszauns.
• Wartung (Anpassungen, Austausch)

- Bediener dürfen nicht innerhalb des Sicherheitszauns arbeiten.


- Programmierer, Programmiergeräte-Bediener und Wartungstechniker dürfen innerhalb des
Sicherheitszauns arbeiten. Zu den Arbeiten, die innerhalb des Sicherheitszauns ausgeführt werden
dürfen, gehören Heben, Einstellen, Einlernen, Justieren, Warten usw.
- Um innerhalb des Sicherheitszauns arbeiten zu dürfen, muss das Personal geschult werden.

Während des Betriebs, der Programmierung und der Wartung des Robotersystems sollten der
Programmierer, Programmiergeräte-Bediener und Wartungsingenieur besondere Aufmerksamkeit auf ihre
Sicherheit richten, indem sie die folgenden Sicherheitsvorkehrungen treffen.

- Verwenden Sie adäquate Kleidung oder Uniformen während des Betriebs der Anlage.
- Tragen Sie Sicherheitsschuhe.
- Benutzen Sie einen Helm.

s-1

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

SICHERHEITSVORKEHRUNGEN B-83304GE/02

2 BEGRIFFSBESTIMMUNGEN – WARNUNG,
ACHTUNG UND ANMERKUNG
Um die Sicherheit des Benutzers zu garantieren und Schäden an der Maschine auszuschließen, hebt dieses
Handbuch jede Sicherheitsmaßnahme mit „Warnung“ oder „Achtung“ hervor – je nach ihrer Schwere.
Zusätzliche Informationen werden als „Anmerkung“. Lesen Sie den Inhalt jedes Textfeldes mit der
Aufschrift „Warnung“, „Achtung“ und „Anmerkung“, bevor Sie den Roboter benutzen.

WARNUNG
Bei Missachtung der empfohlenen Vorkehrungen kann es zu Verletzungen des
Bedieners oder zu Beschädigungen der Maschinen oder beidem kommen.

VORSICHT
Bei Missachtung der genannten Prozedur kann es zu Sachschäden kommen.

ANMERKUNG
Anmerkungen vermitteln Zusatzinformationen im Gegensatz zu Warnungen oder
Vorsichtshinweisen.

• Lesen Sie dieses Handbuch sorgfältig durch, und bewahren Sie es an einem sicheren Ort auf.

3 SICHERHEIT DES ARBEITSPERSONALS


Die Sicherheit des Arbeitspersonals hat immer Vorrang. Da es sehr gefährlich ist, den Verfahrbereich des
Roboters während des Automatikbetriebs zu betreten, müssen angemessene Sicherheitsmaßnahmen
getroffen werden.
Im Folgenden werden die allgemeinen Sicherheitsvorkehrungen aufgeführt. Um die Sicherheit des
Personals zu gewährleisten, ist äußerste Sorgfalt notwendig.

(1) Lassen Sie die Personen, die mit Robotersystem arbeiten, an den FANUC-Trainingskursen
teilnehmen.

FANUC bietet verschiedene Trainingskurse an.


Nähere Informationen erhalten Sie von unseren Vertriebsbüros.

(2) Selbst wenn der Roboter unbewegt ist, kann es sein, dass er sich noch in Bewegungsbereitschaft
befindet und auf ein Signal wartet. In diesem Zustand wird der Roboter als noch in Bewegung
angesehen. Um die Sicherheit des Arbeitspersonals zu gewährleisten, statten Sie das System mit
einem Alarm aus, um optisch oder akustisch anzuzeigen, dass sich der Roboter in Bewegung
befindet.
(3) Installieren Sie einen Sicherheitszaun mit einem Tor, so dass kein Arbeiter den Arbeitsbereich
betreten kann, ohne das Tor zu passieren. Installieren Sie einen Verriegelungsschalter, einen
Sicherheitsstecker in der Sicherheitstür und/oder andere Maßnahmen, durch die der Roboter
angehalten wird, sobald sich diese Tür öffnet.

s-2

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 SICHERHEITSVORKEHRUNGEN

Die Steuerung ist darauf ausgelegt, dieses Verriegelungssignal vom Türschalter zu


empfangen. Wenn die Tür geöffnet ist und dieses Signal empfangen wird, stoppt die
Steuerung den Roboter (Einzelheiten zum Stopptyp finden Sie unter STOPPTYP DES
ROBOTERS im Abschnitt SICHERHEITSVORKEHRUNGEN).
Anschlüsse siehe Abb. 3 (a) und Abb. 3 (b).

(4) Sorgen Sie für eine angemessene Erdung der Peripheriegeräte


(Klasse A, Klasse B, Klasse C oder Klasse D).
(5) Versuchen Sie, die Peripheriegeräte außerhalb des Verfahrbereichs zu installieren.
(6) Zeichnen Sie einen Umriss auf den Boden, der deutlich den Verfahrbereich des Roboters
einschließlich seiner Werkzeuge, wie etwa der Roboterhand, anzeigt.
(7) Installieren Sie einen Mattenschalter oder eine Lichtschranke am Boden, die sie mit einem optischen
oder akustischen Alarm koppeln, um den Roboter anzuhalten, wenn eine Person den Verfahrbereich
betritt.
(8) Falls nötig, installieren Sie ein Sicherheitsschloss, sodass niemand außer der verantwortlichen
Person die Stromversorgung des Roboters einschalten kann.

Der Leistungsschalter (Hauptschalter) in der Steuerung ist so konstruiert, dass niemand den
Strom wieder einschalten kann, wenn er mit einem Vorhängeschloss gesichert ist.

(9) Achten Sie bei der Justierung der einzelnen Peripheriegeräte darauf, dass die Stromversorgung des
Roboters ausgeschaltet ist.
(10) Bediener sollten während der Arbeit mit dem Bedienfeld oder dem Programmiergerät keine
Handschuhe tragen. Bei der Bedienung mit Handschuhen können Bedienungsfehler auftreten.
(11) Programme, Systemvariablen und andere Informationen können auf Memory Card oder CD-ROM
gespeichert werden. Eine regelmäßige Sicherung der Daten ist für den Fall eines versehentlichen
Datenverlusts sinnvoll.
(12) Befolgen Sie bei Transport und Installation des Roboters genau die Vorgaben von FANUC. Fehler
beim Transport oder bei der Installation können ein Umkippen des Roboters zur Folge haben,
wodurch sich die Arbeiter schwer verletzen können.
(13) Bei der ersten Inbetriebnahme nach der Installation sollte die Bedienung bei niedrigen
Geschwindigkeiten erfolgen. Anschließend können Sie die Geschwindigkeit allmählich erhöhen, um
den Betrieb des Roboters zu überprüfen.
(14) Vor Inbetriebnahme des Roboters muss genau überprüft werden, ob sich jemand innerhalb des
Sicherheitszauns aufhält. Außerdem muss sichergestellt werden, dass keine gefährliche Situation
vorliegt. Ist solch eine gefährliche Situation vorhanden, muss diese umgehend beseitigt werden,
bevor der Roboter in Betrieb genommen wird.
(15) Vor Inbetriebnahme des Roboters müssen folgende Vorkehrungen getroffen werden. Andernfalls
können der Roboter und die Peripherieeinrichtung beeinträchtigt werden oder es kann Personal
verletzt werden.
- Verwenden Sie den Roboter nicht in feuergefährlichen Umgebungen.
- Verwenden Sie den Roboter nicht in explosiven Umgebungen.
- Verwenden Sie den Roboter nicht in Strahlungsumgebungen.
- Verwenden Sie den Roboter nicht unter Wasser oder in Umgebungen mit hoher Luftfeuchtigkeit.
- Verwenden Sie den Roboter nicht zum Befördern von Menschen oder Tieren.
- Vermeiden Sie die Verwendung des Roboters als Trittleiter.
(Klettern Sie niemals auf den Roboter und hängen Sie sich nicht an den Roboter.)
(16) Wenn Sie Peripherieausrüstungen für den Roboterstopp (Schutzzaun usw.) und die Signale (externer
Nothalt, Schutzzaun usw.) des Roboters anschließen, vergewissern Sie sich, dass sich der Roboter
nicht mehr bewegt und dass keine Verdrahtungsfehler gemacht werden.
(17) Beachten Sie bei der Verwendung eines Podests die Sicherheitsmaßnahmen für Installations- und
Wartungsarbeiten in Höhe gemäß Abb. 3 (c).
Berücksichtigen Sie die Trittfläche und die Befestigungsposition des Sicherheitsgurts.

s-3

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

SICHERHEITSVORKEHRUNGEN B-83304GE/02

RP1 RP1
Pulsecoder
P u ls e c o d e r
R RI/RO,
I/ R O ,X HXHBK,
B K ,X R OXROT
T

RM1 RM1
MMotorleistung/Bremse
o t o r po w e r/ bra ke

ERDUNG
EARTH

S a fe t y fe n c e
Sicherheitszaun

Verriegelungsschalter
In t e r lo c k in g d e v ic e a n d s a f eund Sicherheitsstecker,
t y p lu g t h a t a r e a c t iv a t e d if t h e
ga t e beim
die is o p e Öffnen
ne d. der Tür aktiviert werden
Abb. 3 (a) Sicherheitszaun und Sicherheitstür

D u al c h ain
Zweikanalig Emergency stop board
Nothalt-Platine
(Dual Chain) (Note)
((ANMERKUNG)
orP Pan
oder a n eel
l bo a rd
board
Bedienfeldplatine N ote )

E AS 1 In n case
IIn a s e of
cVerbindung R - 3 iB,
o fR-30 0i A R-30
mit iB Mate
R-30iB, R-30iB Mate
T e r mKlemmen
Termin
Die inals
a ls EAS1
E A S EAS1,
1, E A S1,EAS2,EAS21
,EAS1 1EAS11,
1 ,E A S 2 ,E A S 2are
EAS2, 1 EAS21
o provided
r F ENC E on
sind 1,Fauf
E N
th C E2
eder
E A S 11 a r e p r ov id e d o n t h e o p e r a t io n bo x o r o n t h e t e r m in a l b lo c k
em ergency stop board.
Nothalt-Platine.
o f t h e p r in t e d c ir c u it b o a r d.
E AS 2
Refer
WeiteretoEinzelheiten
the ELECTRICAL
I n c a s e o f R - 3 0i A M a t e
zu den CONNCETIONS Chapter of
E A S 21 CONNECTION
T e r m in a ls E A Sof
ELEKTRISCHEN 1, E AANSCHLÜSSEN
S 1 1 ,E A S 2 ,E A S 2 1 a r e pr o v id e d
R-30n t hiB
ofinden econ
e Siem etroller
im n c ymain
r g eKapitel s t oten
p bance
o ard m
ANSCHLÜSSE o an
r cual
on n(B-8
e c t o31
des r 95
p aEN)
n e l . or
R-30 iB
s eMate
o f O con
(Wartungshandbuchs
in c a p e ntroller main
a i r t yfür ) tenan
pe die ce manuR-30iB
Steuerung al (B-83525EN)
for details.
(B-83195GE) oder des
T e r m ia n ls F E N C E 1 ,F E N C E 2 a r e pr o v id e d
Wartungshandbuchs für die Steuerung R-30iB Mate
o n t h e e m e r g e n c y s t o p bo a r d.
Einkanalig
S in gl e c ha in (B-83525GE).
(Single Chain) Bedienfeldplatine
P a n e l bo a r d
R e f e r t o c o n t r ol le r m a i n t e n a n c e m a n u a l fo r d e t a ils .

F ENC E 1

F ENC E 2

Abb. 3 (b) Schaltplan für Endschalter des Sicherheitszauns

s-4

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 SICHERHEITSVORKEHRUNGEN

Haken für Sicherheitsgurt


H o o k f o r s a fe t y b e lt

Sicherheitszaun
F e nc e

Stufen
S te ps

T r e s t le
Gestell
Trittfläche
F o o t s t e p für
diefoWartung
r m a in t e n a n c e

Abb. 3 (c) Trittfläche für die Wartung

3.1 SICHERHEIT DES BEDIENPERSONALS


Der Bediener ist eine Person, die das Robotersystem bedient. In diesem Sinne ist auch ein Arbeiter, der
das Programmiergerät bedient, ein Bediener. Der folgende Abschnitt gilt jedoch nicht für Bediener des
Programmiergeräts.

(1) Wenn sich der Roboter nicht im Betrieb befinden muss, schalten Sie die Stromversorgung der
Robotersteuerung aus, oder drücken Sie die NOTHALT-Taste, bevor Sie mit der notwendigen
Arbeit fortfahren.
(2) Bedienen Sie das Robotersystem von einer Stelle außerhalb des Sicherheitszauns aus.
(3) Installieren Sie einen Sicherheitszaun mit Sicherheitstür, um zu verhindern, dass ein anderer
Arbeiter als der Bediener unerwartet den Verfahrbereich betritt, und um den Arbeiter davon
abzuhalten, in den gefährlichen Bereich einzutreten.
(4) Installieren Sie eine NOTHALT-Taste in Reichweite des Bedieners.

Die Robotersteuerung ist darauf ausgelegt, mit einem externen NOTHALT-Schalter verbunden
zu werden. Mit diesem Anschluss stoppt die Steuerung die Roboteroperation (Einzelheiten
zum Stopptyp finden Sie unter „STOPPTYP DES ROBOTERS“ im Abschnitt
„SICHERHEITSVORKEHRUNGEN“), wenn die externe NOTHALT-TASTE gedrückt wird.
Siehe untenstehendes Diagramm für den Anschluss.

s-5

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

SICHERHEITSVORKEHRUNGEN B-83304GE/02

Zweikanalig
D u al c h ain (Dual Chain) (Note)
(ANMERKUNG)
Externer
E x te rn a lStopp-Taster
s to p b ut to n
Nothalt-Platine
Connect EES1 and EES11, EES2 and EES21
Emergency stop board
P an e loder
bo a rd EES1 und EES11, EES2 und EES21 anschließen.
or Panel board
Bedienfeldplatine In case R-30iB, R-30iB Mate
EE S1 EES1 ,EES11,EES2mit
,EES21 are onR-30
the emergency
(In
N oVerbindung
t e) R-30 iB, iB Mate stop board
C o nn e c t E E S 1a n d E E S 1 1 ,E E S 2 a nd E E S 2 1o r E M G IN 1 an d E M G IN 2 .
E E S 11 Die Anschlussklemmen EES1, EES11, EES2 und EES21
Refer to the auf ELECTRICA L CONNCETIONS Chapter of
EES 2 Ibefinden
n c a s e o f Rsich
-3 0 iA der Nothalt-Platine.
CONNECTION of
E E S 1 ,E E S 1 1 ,E E S 2,E E S 2 1 or E M G IN 1 ,E M G I N 2 a re o n th e p a n el b o a rd .
E E S 21 R-3 0iB con
Weitere troller maintenan
Einzelheiten zu den ce manual (B-83195EN) or
I n c a s e o f R -3 0 iA M a te
R-3 0iB Mate controller
ELEKTRISCHEN maintenance manual (B-83525EN)
ANSCHLÜSSEN
E E S 1 ,E E S 1 1 ,E E S 2,E E S 2 1   a re on t he e m e rge n c y s to p bo a rd
for
o r cd
oetails.
finden n n eSie
c t o r im
p an e l ( in c a s eANSCHLÜSSE
Kapitel o f O p e n air t yp e ) . des
SEinkanalig (Single Chain)
in gle c h ain E M G I N 1 ,E M G IN 2   a re o n th e e m e rg e nc y s to p b o ar d.
Wartungshandbuchs für die Steuerung R-30iB
Externer Stopp-Taster
E xt er na l s t o p b u tt on R e fe r to t he m a int e na n c e m a n ua l o f th e c o n tr o ller for de t ails .
(B-83195GE) oder des
Bedienfeldplatine
P an e l bo a rd Wartungshandbuchs für die Steuerung R-30iB Mate
E M G IN 1 (B-83525GE).
E M G IN 2

Abb. 3.1 Anschlussdiagramm für den externen NOTHALT-Schalter

3.2 SICHERHEIT FÜR DEN PROGRAMMIERER


Beim Einlernen des Roboters muss der Bediener den Arbeitsbereich des Roboters betreten.
Der Bediener muss die Sicherheit des Programmiergerätbedieners explizit sicherstellen.

(1) Wenn der Verfahrbereich des Roboters nicht unbedingt betreten werden muss, führen Sie alle
Aufgaben außerhalb dieses Bereichs aus.
(2) Überprüfen Sie vor dem Einlernen des Roboters, ob sich der Roboter und seine Peripheriegeräte alle
im normalen Betriebszustand befinden.
(3) Wenn der Verfahrbereich des Roboters zum Einlernen betreten werden muss, überprüfen Sie zuvor
Lage, Einstellungen und Zustand der Sicherheitseinrichtungen (wie z. B. NOTHALT-Taste und
Totmannschalter am Programmiergerät).
(4) Der Programmierer muss genau darauf achten, dass niemand sonst den Verfahrbereich betritt.
(5) Das Programmieren sollte möglichst außerhalb des Sicherheitszauns erfolgen. Muss die
Programmierung innerhalb des Sicherheitszauns durchgeführt werden, sollte der Programmierer
folgende Vorkehrungen treffen:
- Bevor Sie den Bereich innerhalb des Sicherheitszauns betreten, stellen Sie sicher, dass keine
gefährliche Situation vorliegt in diesem Bereich.
- Sie müssen immer bereit sein, im Notfall den NOTHALT-Knopf zu betätigen.
- Die Roboterbewegungen sollten bei langsamer Geschwindigkeit erfolgen.
- Vor dem Programmstart muss der Bediener den Status des kompletten Systems überprüfen, um
sicher zu gehen, dass kein Befehl der Fernsteuerung für ihn gefährlich werden könnte.

Das Bedienfeld ist mit einem NOTHALT-Schalter und einem Schlüsselschalter (Betriebsartenschalter) zum
Auswählen des Automatikbetriebs (AUTO) und des Einlernmodus (T1 und T2) ausgestattet. Bevor Sie den Bereich
innerhalb des Sicherheitszauns zum Einlernen betreten, stellen Sie den Schalter in den Einlernmodus und
entfernen Sie den Schlüssel aus dem Betriebsartenschalter, um zu verhindern, dass die Betriebsart versehentlich
geändert wird. Öffnen Sie erst dann die Sicherheitstür. Wenn die Sicherheitstür bei eingestellter Betriebsart
Automatik geöffnet wird, stoppt der Roboter (Einzelheiten zum Stopptyp finden Sie unter STOPPTYP DES
ROBOTERS im Abschnitt SICHERHEITSVORKEHRUNGEN). Sobald der Einlernmodus eingestellt ist, wird die
Sicherheitstür deaktiviert. Der Programmierer muss sich dessen bewusst sein, dass die Funktion der Sicherheitstür
deaktiviert ist. Er ist dafür verantwortlich, dass niemand den Bereich innerhalb des Zauns betritt.

s-6

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 SICHERHEITSVORKEHRUNGEN

Das Programmiergerät ist sowohl mit einem TOTMANN-Schalter als auch mit einem NOTHALT-Schalter
ausgestattet. Diese funktionieren wie folgt:
(1) NOTHALT Schalter: Verursacht einen Nothalt (Einzelheiten zum Stopptyp finden Sie unter STOPPTYP DES
ROBOTERS im Abschnitt SICHERHEITSVORKEHRUNGEN), wenn er gedrückt wird.
(2) TOTMANN-Schalter: Die Funktionsweise ist abhängig von der gewählten Stellung des Ein/Aus-Schalters am
Programmiergerät.
(a) Disable: Der TOTMANN-Schalter ist deaktiviert.
(b) Enable: Die Servostromversorgung wird abgeschaltet, wenn der Bediener den TOTMANN-Schalter
loslässt oder stark drückt.
(ANMERKUNG) Der TOTMANN-Schalter stoppt den Roboter, wenn der Bediener in einem Notfall das
Programmiergerät loslässt oder es stark drückt. Die Steuerung R-30iB/R-30iB Mate hat einen
TOTMANN-Schalter mit 3 Stellungen. In der mittleren Stellung ist der Roboterbetrieb möglich.
Wenn der Bediener den TOTMANN-Schalter hingegen loslässt oder stark drückt, wird der
Roboter sofort in den Nothalt-Zustand versetzt.

Die Steuerung ermöglicht den Einlernvorgang nur dann, wenn der Aktivierungsschalter am Programmiergerät
eingeschaltet ist und der TOTMANN-Schalter gedrückt wird. Der Programmiergerät-Bediener muss sich
vergewissern, dass der Roboter unter diesen Bedingungen betrieben werden kann. Er ist für die Sicherheit bei der
Ausführung der Aufgaben verantwortlich.

Basierend auf der Risikobewertung durch FANUC sollte der TOTMANN-Schalter nicht mehr als etwa 10000-mal pro
Jahr betätigt werden.

Das Programmiergerät, das Bedienfeld und die Schnittstelle zu den Peripheriegeräten senden jeweils
Roboter-Startsignale. Allerdings ändert sich die Wirksamkeit der einzelnen Signale in Abhängigkeit von der Stellung
des Betriebsschalters am Bedienfeld, dem TOTMANN-Schalter, dem Aktivierungsschalter des Programmiergeräts
und dem Fernsteuerungsmodus der Software.

In Verbindung mit Steuerung R-30iB


Programmiergerät- Software-
Mode Programmiergerät Bedienfeld Peripheriegerät
Aktivierungsschalter
Fernsteuermodus
Lokal Nicht erlaubt Nicht erlaubt Nicht erlaubt
Ein
Remote Nicht erlaubt Nicht erlaubt Nicht erlaubt
AUTO
Lokal Nicht erlaubt Starten erlaubt Nicht erlaubt
Aus
Remote Nicht erlaubt Nicht erlaubt Starten erlaubt
Lokal Starten erlaubt Nicht erlaubt Nicht erlaubt
Ein
T1-, T2- Remote Starten erlaubt Nicht erlaubt Nicht erlaubt
Betrieb Lokal Nicht erlaubt Nicht erlaubt Nicht erlaubt
Aus
Remote Nicht erlaubt Nicht erlaubt Nicht erlaubt
T1-,T2-Modus: TOTMANN-Taste (DEADMAN) aktiv.

(6) Vergewissern Sie sich vor dem Starten des Systems über das Bedienfeld, dass sich niemand im
Arbeitsbereich des Roboters befindet und dass dort normale Bedingungen herrschen.
(7) Wenn ein Programm beendet ist, führen Sie einen Test gemäß folgender Prozedur durch.
(a) Lassen Sie das Programm für mindestens einen Betriebszyklus im Einzelschrittmodus bei
niedriger Geschwindigkeit laufen.
(b) Lassen Sie das Programm für mindestens einen Betriebszyklus im Dauerbetrieb bei niedriger
Geschwindigkeit laufen.
(c) Lassen Sie das Programm für einen Betriebszyklus im Dauerbetrieb bei mittlerer
Geschwindigkeit laufen und überprüfen Sie, ob keine Störungen aufgrund einer Verzögerung
des Zeitablaufs auftreten.
(d) Lassen Sie das Programm für einen Betriebszyklus im Dauerbetrieb bei normaler
Betriebsgeschwindigkeit laufen und überprüfen sie, ob das System automatisch und ohne
Schwierigkeiten arbeitet.
(e) Nachdem Sie das Programm vollständig mit dem oben genannten Testverfahren getestet haben,
führen Sie es im Automatikbetrieb aus.
(8) Wenn das System im Automatikbetrieb betrieben wird, sollte der Bediener des Programmiergeräts
den Arbeitsbereich des Roboters verlassen.
s-7

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

SICHERHEITSVORKEHRUNGEN B-83304GE/02

3.3 SICHERHEIT FÜR WARTUNGSTECHNIKER


Um die Sicherheit des Wartungspersonals zu gewährleisten, beachten Sie bitte Folgendes äußerst
sorgfältig.

(1) Betreten Sie während des Betriebs niemals den Roboter-Verfahrbereich.


(2) Eine gefährliche Situation kann entstehen, wenn der Roboter oder das System bei Wartungsarbeiten
eingeschaltet sein sollten. Deshalb müssen der Roboter und das System bei allen Wartungsarbeiten
ausgeschaltet werden. Wenn nötig, muss ein Schloss angebracht werden, um andere Personen am
Einschalten des Roboters und/oder Systems zu hindern. Muss die Wartung bei eingeschalteter
Spannung durchgeführt werden, muss der Nothalt-Schalter gedrückt werden.
(3) Wenn es erforderlich ist, den Roboter-Verfahrbereich im eingeschalteten Zustand zu betreten,
drücken Sie den Nothalt-Taster am Bedienfeld oder Programmiergerät, bevor Sie den
Verfahrbereich betreten. Das Wartungspersonal muss kenntlich machen, dass Wartungsarbeiten
durchgeführt werden und außerdem dafür sorgen, dass keine andere Person den Roboter fahrlässig
bedient.
(4) Beim Betreten des Bereichs innerhalb des Sicherheitszauns muss der Wartungstechniker das ganze
System überprüfen und sicherstellen, dass keine gefährlichen Situationen vorliegt. Wenn der
Arbeiter den Sicherheitsbereich betreten muss, während eine gefährliche Situation vorliegt, ist
extreme Vorsicht geboten, und der Zustand der gesamten Anlage muss sorgsam überwacht werden.
(5) Vor der Wartung des Pneumatiksystems sollte die Druckluftzufuhr gestoppt werden und der Druck
in den Leitungen auf 0 Bar reduziert werden.
(6) Überprüfen Sie bitte vor dem Einlernen des Roboters, ob sich der Roboter und seine
Peripheriegeräte alle im normalen Betriebszustand befinden.
(7) Betreiben Sie den Roboter nicht im Automatikbetrieb, wenn sich jemand im Verfahrbereich
befindet.
(8) Wenn der Roboter vor einer Wand oder einem Gerät gewartet werden muss oder wenn mehrere
Arbeiter in der Nähe arbeiten, stellen Sie sicher, dass der Fluchtweg nicht versperrt ist.
(9) Wenn ein Werkzeug am Roboter angebracht ist, oder wenn außer dem Roboter ein anderes sich
bewegendes Gerät, wie z.B. ein Förderband, installiert ist, achten Sie auf seine Bewegung.
(10) Lassen Sie bei Bedarf einen Arbeiter, der mit dem Robotersystem vertraut ist, neben dem Bedienfeld
stehen und die durchgeführten Arbeiten überwachen. Falls eine gefährliche Situation entsteht,
muss der Arbeiter jederzeit bereit sein, den NOTHALT-Taster zu drücken.
(11) Wenn Sie ein Teil austauschen, wenden Sie sich an das FANUC-Service-Center. Wenn eine falsche
Prozedur angewendet wird, kann ein Unfall geschehen, der Schäden am Roboter und Verletzungen
des Arbeiters verursachen kann.
(12) Achten Sie beim Austauschen oder Installieren von Komponenten darauf, dass keine Fremdstoffe in
das System gelangen.
(13) Um sich beim Umgang mit Komponenten oder Platinen der Steuerung während der Wartung vor
Elektroschocks zu schützen, schalten Sie den Leistungsschalter aus.
Wenn es zwei Steuerschränke gibt, schalten Sie beide Hauptschalter aus.
(14) Ein Teil sollte nur durch ein von FANUC empfohlenes Teil ausgetauscht werden. Werden andere
Teile verwendet, können Fehlfunktionen oder Beschädigungen auftreten. Abzuraten ist insbesondere
vom Verwenden von Sicherungen, die nicht von FANUC empfohlen werden. Durch das Verwenden
einer falschen Sicherung kann ein Brand entstehen.
(15) Wenn Sie nach dem Beenden von Wartungsarbeiten das Robotersystem neu starten, vergewissern
Sie sich vorher, dass sich keine Personen im Arbeitsbereich aufhalten und dass keine Störung an
Roboter und Peripheriegeräten vorliegt.
(16) Vor dem Entfernen eines Motors oder einer Bremse sollte der Roboterarm mit einem Kran oder
einem anderen Hilfsmittel gestützt werden, damit er währenddessen nicht herunterfallen kann.

s-8

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 SICHERHEITSVORKEHRUNGEN

(17) Wenn Fett oder Öl auf dem Boden verschüttet wurde, muss es sofort entfernt werden, damit
niemand darauf ausrutschen kann.
(18) Folgende Teile sind heiß. Muss der Wartungstechniker solch ein heißes Teil anfassen, sollte er
hitzebeständige Handschuhe tragen oder andere Schutzvorkehrungen treffen.
- Servomotor
- Innerhalb der Steuerung
- Reduziergetriebe
- Getriebe
- Handgelenkseinheit
(19) Die Wartungsarbeiten sollten bei ausreichender Beleuchtung durchgeführt werden. Dabei muss
darauf geachtet werden, dass die Beleuchtung keine zusätzliche Gefahrenquelle darstellt.
(20) Wenn ein Motor, Getriebe oder andere schwere Lasten bewegt werden müssen, sollte ein Kran oder
ein ähnliches Gerät benutzt werden, um die Wartungsperson vor zu hohen Lasten zu schützen.
Andernfalls kann das Wartungspersonal schwer verletzt werden.
(21) Während der Wartung sollte niemand den Roboter betreten oder auf ihn klettern. Dabei kann der
Roboter beschädigt werden. Außerdem kann sich der Arbeiter durch einen Fehltritt schwer
verletzen.
(22) Falls Wartungsarbeiten in Höhe ausgeführt werden, installieren Sie eine Trittfläche, und tragen Sie
einen Sicherheitsgurt.
(23) Nach Beendigung der Wartung müssen Wasser- und Ölreste sowie Metallstaub vom Boden um den
Roboter herum und innerhalb des Sicherheitszauns entfernt werden.
(24) Beim Austausch eines Teils müssen alle Schrauben und andere Komponenten wieder an ihrer
ursprünglichen Stelle angebracht werden. Um sicherzugehen, dass keine Komponente fehlt oder
nicht eingebaut wurde, muss eine sorgfältige Überprüfung erfolgen.
(25) Ist eine Roboterbewegung während der Wartung erforderlich, müssen folgende Vorkehrungen
getroffen werden:
- Halten Sie einen Fluchtweg frei. Überwachen Sie während der Wartungsbewegung selbst
kontinuierlich das ganze System, sodass Ihr Fluchtweg nicht durch den Roboter oder durch
Peripheriegeräte blockiert wird.
- Achten Sie immer auf potenziell gefährliche Situationen, und seien Sie bereit,
den Nothalt-Taster zu drücken, falls dies erforderlich ist.
(26) Der Roboter sollte in regelmäßigen Abständen einer Inspektion unterzogen werden. (Lesen Sie die
Handbücher für die mechanische Einheit des Roboters und die Steuerung.) Ein Vernachlässigen
regelmäßiger Inspektionen kann sich negativ auf die Leistung oder auf die Lebensdauer des
Roboters auswirken und Unfälle verursachen.
(27) Nach Austausch eines Teils sollte ein entsprechender Testlauf nach einer festgelegten Methode
durchgeführt werden. (Siehe hierzu das Kapitel TESTLÄUFE im „Bedienungshandbuch für die
Steuerung R-30iB/R-30iB Mate – Basisbetrieb“.) Während des Testlaufs muss sich das
Arbeitspersonal außerhalb des Sicherheitszauns aufhalten.

s-9

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

SICHERHEITSVORKEHRUNGEN B-83304GE/02

4 SICHERHEIT DER WERKZEUGE UND DER


PERIPHERIEGERÄTE
4.1 SICHERHEITSVORKEHRUNGEN BEI DER
PROGRAMMIERUNG
(1) Verwenden Sie einen Endschalter oder einen Sensor, um gefährliche Bedingungen zu erkennen, und
wenn es nötig ist, erstellen Sie das Programm so, dass der Roboter gestoppt wird, sobald das
Sensor-Signal erfasst wird.
(2) Erstellen Sie das Programm so, dass der Roboter gestoppt wird, sobald ein abnormaler Zustand in
einem anderen Roboter oder den Peripheriegeräten auftritt, auch wenn der Roboter selbst normal
arbeitet.
(3) Bei einem System, in dem sich der Roboter und seine Peripheriegeräte asynchron bewegen, müssen
Sie bei der Programmierung besonders darauf achten, dass sie nicht kollidieren können.
(4) Sorgen Sie für eine passende Schnittstelle zwischen dem Roboter und seinen Peripheriegeräten, so
dass der Roboter den Zustand aller Geräte im System erfassen kann und in Abhängigkeit von den
jeweiligen Zuständen gestoppt werden kann.

s-10

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 SICHERHEITSVORKEHRUNGEN

4.2 SICHERHEITSVORKEHRUNGEN FÜR DEN


MECHANISMUS
(1) Halten Sie die Komponenten des Robotersystems sauber und betreiben Sie den Roboter in einer fett-,
wasser-, und staubfreien Umgebung.
(2) Verwenden Sie keine nicht freigegebene Schneidflüssigkeit oder Reinigungsflüssigkeit.
(3) Setzen Sie einen Endschalter oder einen mechanischen Anschlag ein, um die Bewegung des
Roboters zu begrenzen, sodass er nicht mit seinen Peripheriegeräten oder Werkzeugen
zusammenstoßen kann.
(4) Beachten Sie die folgenden Vorsichtmaßnahmen bzgl. der Kabel der mechanischen Einheit.
Wenn hierauf nicht geachtet wird, können unerwartete Probleme auftreten.
• Verwenden Sie für die mechanische Einheit ein Kabel, das die erforderlichen Anschlüsse hat.
• Bauen Sie kein zusätzliches Benutzerkabel und keinen zusätzlichen Schlauch in die
mechanische Einheit ein.
• Behindern Sie die Bewegung des Kabels der mechanischen Einheit nicht, wenn Kabel auf der
Außenseite der mechanischen Einheit hinzugefügt werden.
• Führen Sie bei einem Modell mit außen liegenden Kabeln keine diesbezüglichen Umbauten
durch (z. B. zusätzliche Schutzabdeckung und Befestigung am Überhang des außen liegenden
Kabels).
• Schließen Sie Überschneidungen/Kollisionen mit anderen Teilen der mechanischen Einheit aus,
wenn Sie Geräte am Roboter montieren.
(5) Das häufige Abschalten des Roboters während des Betriebs kann Probleme mit dem Roboter
verursachen. Vermeiden Sie eine Anlagenkonstruktion, bei der ein Stopp mit Abschalten
routinemäßig erfolgt. (Sehen Sie sich hierzu auch ein Bad-Case-Beispiel an.) Führen Sie den Stopp
mit Abschalten erst durch, nachdem Sie die Geschwindigkeit des Roboters reduziert haben, und
halten Sie ihn durch einen Haltstopp oder Zyklusstopp an, wenn ein Stopp mit Abschalten nicht
zwingend erforderlich ist. (Einzelheiten zum Stopptyp finden Sie unter „STOPPTYP DES
ROBOTERS“ im Abschnitt „SICHERHEITSVORKEHRUNGEN“.)
(Bad-Case-Beispiel)
• Sobald ein schlechtes Produkt erzeugt wird, wird eine Fertigungslinie per Nothalt gestoppt.
• Wenn Änderungen notwendig sind, wird der Sicherheitsschalter durch Öffnen des Schutzzauns
betätigt und ein Stopp mit Abschalten während des Roboterbetriebs ausgeführt.
• Ein Bediener drückt häufig den Nothalt-Taster und eine Fertigungslinie wird angehalten.
• Ein an das Sicherheitssignal angeschlossener Bereichssensor oder Mattenschalter wird
routinemäßig betätigt und ein Stopp mit Abschalten für den Roboter wird ausgeführt.
(6) Der Roboter stoppt wie bei Nothalt, wenn ein Kollisionsalarm (SRVO-050) usw. auftritt. Der
häufige Nothalt durch solche Alarme verursacht auch Probleme mit dem Roboter. Entfernen Sie die
Ursache des Alarms (z.B. Überlast, zu harte Bewegungen usw.).

s-11

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

SICHERHEITSVORKEHRUNGEN B-83304GE/02

5 SICHERHEIT DES
ROBOTERMECHANISMUS
5.1 SICHERHEITSVORKEHRUNGEN BEIM BETRIEB
(1) Wenn der Roboter im Tippbetrieb betrieben wird, stellen Sie die Geschwindigkeit so ein, dass der
Bediener den Roboter bei Gefahr sofort anhalten kann.
(2) Vergewissern Sie sich vor Betätigen der Jog-Taste, dass Sie im Voraus wissen, welche Bewegung
der Roboter im Tippbetrieb ausführen wird.

5.2 SICHERHEITSVORKEHRUNGEN BEI DER


PROGRAMMIERUNG
(1) Wenn sich die Verfahrbereiche von Robotern überschneiden, sorgen Sie dafür, dass sich die
Bewegungen der Roboter nicht stören.
(2) Stellen Sie sicher, dass Sie in einem Bewegungsprogramm für den Roboter den voreingestellten
Werkstückursprung festlegen und die Bewegung so programmieren, dass sie am Ursprung beginnt
und endet.
Ermöglichen Sie es dem Bediener, einfach mit einem kurzen Blick festzustellen, ob die Bewegung
abgeschlossen ist.

5.3 SICHERHEITSVORKEHRUNGEN FÜR DEN


MECHANISMUS
(1) Halten Sie den Arbeitsbereich des Robotersystems sauber und betreiben Sie den Roboter in einer
fett-, wasser-, und staubfreien Umgebung.

5.4 PROZEDUR, UM DEN ARM OHNE ANTRIEBSLEISTUNG


IM NOTFALL ODER IN EINER UNNORMALEN SITUATION
ZU BEWEGEN
Im Notfall oder in abnormalen Situationen (z.B., wenn Personen vom Roboter eingeklemmt sind,) kann
eine Bremslöse-Einheit verwandt werden, um dem Roboter ohne Antriebsenergie zu bewegen.
Informationen zur Verwendung der Bremslöse-Einheit und zum Abstützen des Roboters finden Sie im
Wartungshandbuch der Steuerung und im Bedienungshandbuch der mechanischen Einheit.

s-12

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 SICHERHEITSVORKEHRUNGEN

6 SICHERHEIT DES ENDEFFEKTORS


6.1 SICHERHEITSVORKEHRUNGEN BEI DER
PROGRAMMIERUNG
(1) Um die pneumatischen, hydraulischen und elektrischen Stellglieder zu steuern, beachten Sie genau
die notwendige Zeitverzögerung von der Ausgabe eines Steuerbefehls bis zur tatsächlichen
Bewegung und sorgen Sie für eine sichere Steuerung.
(2) Statten Sie den Endeffektor mit einem Endschalter aus, und kontrollieren Sie das Robotersystem,
indem Sie den Zustand des Endeffektors überwachen.

7 STOPPTYP DES ROBOTERS


Es gibt die drei folgenden Roboter-Stopptypen:

Stopp mit Abschalten (Kategorie 0 nach IEC 60204-1)


Die Servostromversorgung wird abgeschaltet, und der Roboter hält sofort an.
Die Servoleistung wird abgeschaltet, wenn der Roboter sich bewegt, und die Bewegungsbahn der
Abbremsung wird nicht kontrolliert.
Die folgenden Aktionen werden beim Stopp mit Abschalten ausgeführt.
- Ein Alarm wird ausgelöst, und die Servo-Stromversorgung wird ausgeschaltet.
- Der Roboter wird sofort angehalten. Das Programm wird angehalten.

Kontrollierter Stopp (Kategorie 1 nach IEC 60204-1)


Der Roboter wird abgebremst, bis er anhält, dann wird die Servostromversorgung abgeschaltet.
Beim kontrollierten Stopp werden die folgenden Aktionen ausgeführt.
- Der Alarm „SRVO-199 Controlled stop“ tritt zusammen mit einem abgebremsten Halt auf.
Das Programm wird angehalten.
- Ein Alarm wird ausgelöst, und die Servo-Stromversorgung wird ausgeschaltet.

Halt (Kategorie 2 nach IEC 60204-1)


Der Roboter wird abgebremst, bis er anhält, und die Servostromversorgung bleibt eingeschaltet.
Beim Halt werden die folgenden Aktionen ausgeführt.
- Der Roboter wird langsam bis zum Halt abgebremst. Das Programm wird angehalten.

WARNUNG
Der Anhalteweg und die Anhaltezeit des Controlled Stop (kontrollierter Stop) sind
länger als beim Halt mit Leistungsabschaltung. Eine Risikobewertung des
gesamten Robotersystems, die die verlängerten Anhaltewege und Anhaltezeiten
berücksichtigt, ist notwendig, wenn dieser kontrollierte Stopp verwendet wird.

Wenn der Nothalt-Taster gedrückt wird oder wenn der Schutzzaun geöffnet ist, liegt der Stopptyp des
Roboters „Stopp mit Abschalten“ oder „Kontrollierter Stopp“ vor.
Die Konfiguration des Stopptyps für jede Situation heißt Stop Pattern (Stoppmuster).
Das Stoppmuster unterscheidet sich je nach Steuerungstyp oder Optionen.

s-13

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

SICHERHEITSVORKEHRUNGEN B-83304GE/02

Es gibt die folgenden 3 Stoppmuster:

Externer Schutzzaun Servo


Stoppmuster Mode Nothalt-Taster SVOFF Input
Nothalt offen Disconnect
AUTO P-Stop P-Stop C-Stop C-Stop P-Stop
A T1 P-Stop P-Stop - C-Stop P-Stop
T2 P-Stop P-Stop - C-Stop P-Stop
AUTO P-Stop P-Stop P-Stop P-Stop P-Stop
B T1 P-Stop P-Stop - P-Stop P-Stop
T2 P-Stop P-Stop - P-Stop P-Stop
AUTO C-Stop C-Stop C-Stop C-Stop C-Stop
C T1 P-Stop P-Stop - C-Stop P-Stop
T2 P-Stop P-Stop - C-Stop P-Stop
P-Stop : Halt mit Abschalten
C-Stop : Kontrollierter Stopp
- : Disable (Deaktiviert)

Die folgende Tabelle zeigt das Stoppmuster entsprechend dem jeweiligen Steuerungstyp oder der Option.
In Verbindung mit
Option
R-30iB/R-30iB Mate
Standard A (*)
Kontrollierter Stopp (Controlled Stop) durch Nothalt (E-Stop) (A05B-2600-J570) C (*)
(*) R-30iB / R-30iB Mate verfügt nicht über Servo Disconnect.
R-30iB Mate verfügt nicht über SVOFF Input.

Das Stoppmuster der Steuerung wird im Bildschirm „Software Version“ in der Zeile
„Stop pattern“ angezeigt.
Unter „Software version“ im Bedienhandbuch der Steuerung finden Sie detaillierte Erläuterungen zum
Bildschirm „Software Version“.

s-14

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 SICHERHEITSVORKEHRUNGEN

Option „Controlled stop by E-Stop“ (Kontrollierter Stopp durch Nothalt)


Wenn die Option „Controlled stop by E-Stop“ (A05B-2600-J570) spezifiziert ist, wird der Stopp-Typ der
folgenden Alarme zu kontrollierter Stopp (Controlled Stop) aber nur im Automatikbetrieb (AUTO mode).
Im T1- oder T2-Modus lautet der Stopptyp „Stopp mit Abschalten“.
Hierbei handelt es sich um die normale Betriebsart des Systems.

Alarm Bedingung
SRVO-001 Operator panel E-stop Bedienfeld-Nothalt wurde gedrückt.
SRVO-002 Nothalt am Programmiergerät Nothalt am Programmiergerät wurde gedrückt.
SRVO-007 External emergency stops Der externe Nothalt-Eingang (EES1-EES11, EES2-EES21) ist offen.
SRVO-408 DCS SSO Ext Emergency Stop In der DCS-Funktion Safe I/O Connect ist SSO[3] = OFF.
SRVO-409 DCS SSO Servo Disconnect In der DCS-Funktion Safe I/O Connect ist SSO[4] = OFF.

Der kontrollierte Stopp unterscheidet sich folgendermaßen vom Stopp mit Abschalten:
- Beim kontrollierten Stopp (Controlled Stop) wird der Roboter auf der programmierten Bahn
angehalten. Diese Funktion ist wirksam in einem System, in dem der Roboter mit anderen Geräten
zusammenstoßen kann, wenn er von der programmierten Bahn abweicht.
- Beim kontrollierten Stopp (Controlled Stop) ist der physische Schock geringer als bei Nothalt.
Diese Funktion ist wirksam für Systeme, bei denen die physischen Rückwirkungen auf die
mechanische Einheit oder das Werkzeug am Armende minimiert werden sollen.
- Der Anhalteweg und die Anhaltezeit beim kontrollierten Stopp (Controlled Stop) sind je nach
Robotermodell und Achse länger als beim Stopp mit Abschalten. Bitte lesen Sie im Bedienhandbuch
des Robotermodells die Daten von Anhalteweg und Anhaltezeit.

Wenn diese Option geladen ist, kann diese Funktion nicht deaktiviert werden.

Der Stopptyp der Funktionen „DCS Position“ und „Speed Check“ wird durch das Laden dieser Option
nicht beeinflusst.

WARNUNG
Der Anhalteweg und die Anhaltezeit des Controlled Stop (kontrollierter Stopp)
sind länger als beim Halt mit Leistungsabschaltung. Eine Risikobewertung für
das ganze Robotersystem, die die verlängerten Anhaltewege und Anhaltezeiten
berücksichtigt, ist notwendig, wenn diese Option geladen ist.
130422

s-15

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 INHALTSVERZEICHNIS

INHALTSVERZEICHNIS
SICHERHEITSVORKEHRUNGEN .............................................................. s-1
1 VORWORT .............................................................................................. 1
1.1  ÜBERSICHT ÜBER DIESES HANDBUCH .................................................... 1
1.2 ZUGEHÖRIGE HANDBÜCHER .................................................................... 2
2  INFORMATIONEN ZUM BILDERKENNUNGSSYSTEM ........................ 4
2.1  BASISKONFIGURATION .............................................................................. 4
2.2 BILDVERARBEITUNGSGEFÜHRTE ROBOTERBEWEGUNG ..................... 5
2.3 OFFSET DES FESTSTEHENDEN KOORDINATENSYSTEMS UND
WERKZEUG-OFFSET ................................................................................... 6
2.4 FESTSTEHENDE KAMERA UND AM ROBOTER MONTIERTE KAMERA .. 7
2.5 KAMERA-KALIBRIERUNG ............................................................................ 7
2.6 BILDERKENNUNGSDATEN ......................................................................... 8
2.6.1  Arten von Bilderkennungsdaten ............................................................................... 8
2.6.2 Maximaler Umfang an erstellbaren Bilderkennungsdaten ....................................... 9
2.6.3 Mehr Bilderkennungsdaten erzeugen ..................................................................... 10
2.7  BENUTZER-KOORDINATENSYSTEM UND
WERKZEUG-KOORDINATENSYSTEM (User Tool) ................................... 10
3  BASISBETRIEB .................................................................................... 12
3.1  VISION SETUP (Bilderkennungseinrichtung) .............................................. 13
3.1.1  Neue Bilderkennungsdaten erstellen ...................................................................... 15
3.1.2 Bilderkennungsdaten löschen ................................................................................. 16
3.1.3 Bilderkennungsdaten kopieren ............................................................................... 16
3.1.4 Detailinformationen zu Bilderkennungsdaten überprüfen ..................................... 17
3.1.5 Bilderkennungsdaten bearbeiten ............................................................................ 18
3.2  VISION RUNTIME (BILDERKENNUNGS-LAUFZEIT) ................................. 20
3.3 VISION LOG (Bilderkennungsprotokoll) ...................................................... 21
3.4 VISION CONFIG (Bilderkennungskonfiguration) ......................................... 24
3.5 BILDERKENNUNGSDATEN SICHERN ...................................................... 27
3.5.1  Bilderkennungsdaten sichern ................................................................................. 27
3.5.2 Bilderkennungsdaten wiederherstellen ................................................................... 27
3.6  KOMMUNIKATION ZWISCHEN DEN STEUERUNGEN ............................. 27
3.7 HÄUFIG VERWENDETE OPERATIONEN .................................................. 28
3.7.1  Textfeld .................................................................................................................. 28
3.7.2 Dropdown-Feld ...................................................................................................... 29
3.7.3 Listenansicht ........................................................................................................... 29
3.7.4 Bildanzeigesteuerung ............................................................................................. 29
3.7.5 Verzeichnisstruktur ................................................................................................ 33
3.7.6 Ergebnisansicht ...................................................................................................... 37
3.7.7 Tabs ........................................................................................................................ 37
3.7.8 Punkte festlegen ..................................................................................................... 38
3.7.9 Fenster einrichten ................................................................................................... 39
3.7.10 Maskenbearbeitung ................................................................................................ 41
3.7.11 Belichtungsmodus einstellen .................................................................................. 46
3.7.12 Sortierung ............................................................................................................... 48
3.7.13 Bildwiedergabe ....................................................................................................... 50
c-1

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

INHALTSVERZEICHNIS B-83304GE/02

4  KAMERA-EINSTELLUNG..................................................................... 52
4.1  KOWA DIGITALKAMERA ............................................................................ 52
4.1.1  Graustufenkamera................................................................................................... 53
4.1.2 Farbkamera ............................................................................................................. 55
4.2  SONY ANALOG-KAMERA .......................................................................... 57
4.3 KOWA USB-KAMERA ................................................................................. 58
4.4 KAMERA FÜR BILDDATEIEN EINRICHTEN .............................................. 59
4.5 GIGE-KAMERA ........................................................................................... 60
4.5.1  Fehlerbehebung ...................................................................................................... 62

5  KAMERA-KALIBRIERUNG .................................................................. 63
5.1  RASTER-KALIBRIERUNG .......................................................................... 63
5.1.1  Kamera kalibrieren ................................................................................................. 64
5.1.2 Kalibrierpunkte überprüfen .................................................................................... 68
5.1.3 Kalibrierungsdaten überprüfen ............................................................................... 69
5.1.4 Automatische Neukalibrierung ............................................................................... 71
5.2  VOM ROBOTER ERZEUGTE GITTERKALIBRIERUNG ............................. 72
5.2.1  Kamera-Kalibrierungstools .................................................................................... 72
5.2.2 Kalibrierpunkte überprüfen .................................................................................... 74
5.2.3 Kalibrierungsdaten überprüfen ............................................................................... 75
5.2.4 Automatische Neukalibrierung ............................................................................... 76
5.3  KALIBRIERUNG MITTELS 3D-LASER-VISION-SENSOR .......................... 76
5.3.1  Kamera kalibrieren ................................................................................................. 77
5.3.2 Kalibrierpunkte überprüfen .................................................................................... 81
5.3.3 Kalibrierungsdaten überprüfen ............................................................................... 82
5.3.4 Automatische Neukalibrierung ............................................................................... 84
5.4  KALIBRIERUNG MITTELS VISUAL TRACKING ......................................... 85
5.4.1  Kamera kalibrieren ................................................................................................. 85
5.4.2 Kalibrierpunkte überprüfen .................................................................................... 89
5.4.3 Kalibrierungsdaten überprüfen ............................................................................... 91

6  BILDERKENNUNGSPROZESSE ......................................................... 93
6.1  2D SINGLE-VIEW VISION PROCESS
(2D-Bilderkennungsprozess mit Einzelansicht)............................................ 93
6.1.1  Einen Bilderkennungsprozess einstellen ................................................................ 93
6.1.2 Einen Test durchführen .......................................................................................... 98
6.1.3 Sollposition einstellen ............................................................................................ 99
6.1.4 Übersteuerbare Parameter ...................................................................................... 99
6.2  2D MULTI-VIEW VISION PROCESS
(Bilderkennungsprozess der zweidimensionalen Mehrfachansicht)........... 100
6.2.1  Einen Bilderkennungsprozess einstellen .............................................................. 100
6.2.2 Erfassungsbereich einer Kamera einstellen .......................................................... 104
6.2.3 Einen Test durchführen ........................................................................................ 105
6.2.4 Sollposition einstellen .......................................................................................... 106
6.2.5 Übersteuerbare Parameter .................................................................................... 106

c-2

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 INHALTSVERZEICHNIS

6.3  DEPALLETIZING VISION PROCESS


(Bilderkennungsprozess für Pallettenabnahme) ........................................ 107
6.3.1  Einen Bilderkennungsprozess einstellen .............................................................. 108
6.3.2 Einen Test durchführen ........................................................................................ 113
6.3.3 Sollposition einstellen .......................................................................................... 114
6.3.4 Übersteuerbare Parameter .................................................................................... 114
6.4  3D TRI-VIEW VISION PROCESS
(Dreidimensionaler Bilderkennungsprozess mit Dreifachansicht) .............. 115
6.4.1  Von der Anwendung berücksichtigte Faktoren .................................................... 115
6.4.1.1  Was wird berücksichtigt .................................................................................. 115
6.4.1.2 Kameraposition ................................................................................................ 116
6.4.2  Einen Bilderkennungsprozess einstellen .............................................................. 117
6.4.3 Erfassungsbereich einer Kamera einstellen .......................................................... 119
6.4.4 Einen Test durchführen ........................................................................................ 121
6.4.5 Sollposition einstellen .......................................................................................... 122
6.4.6 Übersteuerbare Parameter .................................................................................... 123
6.5  3DL SINGLE-VIEW VISION PROCESS
(3DL-Bilderkennungsprozess mit Einzelansicht)........................................ 123
6.5.1  Einen Bilderkennungsprozess einstellen .............................................................. 124
6.5.1.1  2D Measurement setups (Konfiguration der 2D-Messungen) ......................... 127
6.5.1.2 Laser measurement setups (Konfigurationen der Lasermessungen)............... 128
6.5.1.3 Reference data (Referenzdaten) ....................................................................... 129
6.5.2  Einen Test durchführen ........................................................................................ 129
6.5.3 Sollposition einstellen .......................................................................................... 130
6.5.4 Übersteuerbare Parameter .................................................................................... 131
6.6  3DL MULTI-VIEW VISION PROCESS
(3DL-Bilderkennungsprozess mit Mehrfachansicht) .................................. 131
6.6.1  Einen Bilderkennungsprozess einstellen .............................................................. 132
6.6.2 Erfassungsbereich einer Kamera einstellen .......................................................... 134
6.6.2.1  2D Measurement setups (Konfiguration der 2D-Messungen) ......................... 136
6.6.2.2 Laser measurement setups (Konfigurationen der Lasermessungen)............... 137
6.6.2.3 Reference data (Referenzdaten) ....................................................................... 138
6.6.3  Einen Test durchführen ........................................................................................ 138
6.6.4 Sollposition einstellen .......................................................................................... 140
6.6.5 Übersteuerbare Parameter .................................................................................... 140
6.7  3DL CROSS-SECTION VISION PROCESS
(3DL-Querschnitt-Bildererkennungsprozess) ............................................. 141
6.7.1  Einen Bilderkennungsprozess einstellen .............................................................. 141
6.7.1.1  Laser measurement setups (Konfigurationen der Lasermessungen)................ 144
6.7.1.2 2D Measurement setups (Konfiguration der 2D-Messungen) ......................... 147
6.7.2  Einen Test durchführen ........................................................................................ 147
6.7.3 Übersteuerbare Parameter .................................................................................... 148
6.8  3DL CURVED SURFACE SINGLE VIEW VISION PROCESS
(3DL-Bilderkennungsprozess mit Einzelansicht
für gerundete Oberflächen) ........................................................................ 149
6.8.1  Einen Bilderkennungsprozess einstellen .............................................................. 149
6.8.1.1  2D Measurement setups (Konfiguration der 2D-Messungen) ......................... 152
6.8.1.2 Laser measurement setups (Konfigurationen der Lasermessungen)............... 153
6.8.1.3 Reference data (Referenzdaten) ....................................................................... 154
6.8.2  Einen Test durchführen ........................................................................................ 155
6.8.3 Sollposition einstellen .......................................................................................... 156
6.8.4 Übersteuerbare Parameter .................................................................................... 156

c-3

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

INHALTSVERZEICHNIS B-83304GE/02

6.9  SINGLE VIEW VISUAL TRACKING


(Visual Tracking mit Einzelansicht) ............................................................ 157
6.9.1  Einen Bilderkennungsprozess einstellen .............................................................. 157
6.9.2 Einen Test durchführen ........................................................................................ 161
6.9.3 Sollposition einstellen .......................................................................................... 162
6.9.4 Übersteuerbare Parameter .................................................................................... 163
6.10  BIN-PICK SEARCH VISION PROCESS
(Bilderkennungsprozess für die Suche der Behälteraufnahme) ................. 164
6.10.1  Einen Bilderkennungsprozess einstellen .............................................................. 164
6.10.2 Einen Test durchführen ........................................................................................ 168
6.10.3 Sollposition einstellen .......................................................................................... 170
6.10.4 Übersteuerbare Parameter .................................................................................... 170
6.11  SINGLE VIEW INSPECTION VISION PROCESS
(Bilderkennungsprozess mit Einzelansicht zur Inspektion) ........................ 171
6.11.1  Einen Bilderkennungsprozess einstellen .............................................................. 171
6.11.2 Eine Messebene einstellen .................................................................................... 173
6.11.3 Einen Test durchführen ........................................................................................ 174
6.11.4 Übersteuerbare Parameter .................................................................................... 175
6.12  READER VISION PROCESS
(Bilderkennungsprozess mit einem Barcodeleser)..................................... 175
6.12.1  Einen Bilderkennungsprozess einstellen .............................................................. 175
6.12.2 Einen Test durchführen ........................................................................................ 177
6.12.3 Übersteuerbare Parameter .................................................................................... 177
6.13  IMAGE TO POINTS VISION PROCESS
(Bilderkennungsprozess mit Verwendung von Punkten) ........................... 178
6.13.1  Einen Bilderkennungsprozess einstellen .............................................................. 178
6.13.2 Einen Test durchführen ........................................................................................ 181
6.13.3 Übersteuerbare Parameter .................................................................................... 182
6.14  3D AREA SENSOR (3D-Bereichssensor) ................................................. 182
6.14.1  Anleitung für den 3D-Bereichssensor .................................................................. 182
6.14.2 Einen Bilderkennungsprozess einstellen .............................................................. 185
6.14.3 Erfassungsbereich einer Kamera einstellen .......................................................... 189
6.14.4 Setup Procedures (Einrichtungsvorgänge) ........................................................... 190
6.14.5 Zusätzliche Erläuterungen .................................................................................... 193
6.15  3D AREA SENSOR VISION PROCESS
(Bilderkennungsprozess mit 3D-Bereichssensor) ...................................... 195
6.15.1  Einen Bilderkennungsprozess einstellen .............................................................. 195
6.15.2 Einen Test durchführen ........................................................................................ 199
6.15.3 Sollposition einstellen .......................................................................................... 200
6.15.4 Übersteuerbare Parameter .................................................................................... 200
6.16  FLOATING FRAME VISION PROCESS
(Bilderkennungsprozess mit schwebendem Koordinatensystem) .............. 201
6.16.1  Einen Bilderkennungsprozess einstellen .............................................................. 202
6.16.2 Einen Test durchführen ........................................................................................ 206
6.16.3 Sollposition einstellen .......................................................................................... 207
6.16.4 Übersteuerbare Parameter .................................................................................... 207

c-4

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 INHALTSVERZEICHNIS

6.17  3-D MULTI-VIEW VISION PROCESS


(Bilderkennungsprozess der dreidimensionalen Mehrfachansicht) ............ 208
6.17.1  Einen Bilderkennungsprozess einstellen .............................................................. 209
6.17.1.1  3-D Plot (3D-Aufnahme) ................................................................................. 212
6.17.2  Erfassungsbereich einer Kamera einstellen .......................................................... 213
6.17.3 Einen Test durchführen ........................................................................................ 215
6.17.3.1  Camera View Found Results (Fundstellen Kameraansicht) ............................ 216
6.17.3.2 Vision Process Found Results
(Gefundenen Ergebnisse aus einem Bilderkennungsprozess) ......................... 217
6.17.3.3 Vision Process Target Results
(Zielergebnisse aus einem Bilderkennungsprozess) ........................................ 218
6.17.3.4 Vision Process Target Discard Analysis
(Analyse verworfener Ziele des Bilderkennungsprozess) ............................... 219
6.17.4  Sollposition einstellen .......................................................................................... 220
6.17.5 KAREL-Kommunikationsprogramme ................................................................. 220
6.17.5.1  Variablen des iRVision Offset-Server ............................................................. 221
6.17.5.2 Clear All .......................................................................................................... 222
6.17.5.3 Clear Offset...................................................................................................... 222
6.17.5.4 Get Offset ........................................................................................................ 222

7  BEFEHLSTOOLS ................................................................................ 223


7.1  GPM LOCATOR TOOL ............................................................................. 223
7.1.1  Ein Modell einrichten ........................................................................................... 224
7.1.2 Lokalisierungsparameter einstellen ...................................................................... 228
7.1.3 Einen Test durchführen ........................................................................................ 232
7.1.4 Übersteuerbare Parameter .................................................................................... 234
7.1.5 Richtlinien zum Einrichten ................................................................................... 235
7.1.5.1  Übersicht und Funktionen ............................................................................... 235
7.1.5.2 Modellmuster ................................................................................................... 240
7.1.5.3 Gefundenes Muster .......................................................................................... 243
7.1.5.4 Lokalisierungsparameter.................................................................................. 246
7.2  LOCATOR TOOL FÜR GERUNDETE OBERFLÄCHEN ........................... 253
7.2.1  Ein Modell einrichten ........................................................................................... 254
7.2.2 Lokalisierungsparameter einstellen ...................................................................... 256
7.2.3 Einen Test durchführen ........................................................................................ 259
7.2.4 Übersteuerbare Parameter .................................................................................... 260
7.2.5 Richtlinien zum Einrichten ................................................................................... 261
7.2.5.1  Übersicht und Funktionen ............................................................................... 261
7.2.5.2 Beleuchtungsumgebung ................................................................................... 265
7.2.5.3 Modellmuster ................................................................................................... 266
7.3  Blob Locator Tool....................................................................................... 268
7.3.1  Bildbinarisierung .................................................................................................. 269
7.3.2 Ein Modell einlernen ............................................................................................ 271
7.3.3 Lokalisierungsparameter einstellen ...................................................................... 272
7.3.4 Einen Test durchführen ........................................................................................ 275
7.3.5 Übersteuerbare Parameter .................................................................................... 276
7.4  LINE LOCATOR TOOL .............................................................................. 277
7.4.1  Ein Modell einrichten ........................................................................................... 278
7.4.2 Lokalisierungsparameter einstellen ...................................................................... 280
7.4.3 Einen Test durchführen ........................................................................................ 283
7.4.4 Übersteuerbare Parameter .................................................................................... 284
7.4.5 Richtlinien ............................................................................................................284

c-5

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

INHALTSVERZEICHNIS B-83304GE/02

7.5  COMBINATION LOCATOR TOOL ............................................................ 285


7.5.1  Einrichten ............................................................................................................. 285
7.5.2 Einen Test durchführen ........................................................................................ 286
7.5.3 Übersteuerbare Parameter .................................................................................... 286
7.6  EDGE PAIR LOCATOR TOOL .................................................................. 287
7.6.1  Suchfenster einstellen ........................................................................................... 288
7.6.2 Ein Modell einlernen ............................................................................................ 289
7.6.3 Lokalisierungsparameter einstellen ...................................................................... 290
7.6.4 Einen Test durchführen ........................................................................................ 291
7.6.5 Übersteuerbare Parameter .................................................................................... 293
7.7  HISTOGRAM TOOL .................................................................................. 293
7.7.1  Messbereich einstellen.......................................................................................... 294
7.7.2 Einen Test durchführen ........................................................................................ 295
7.7.3 Übersteuerbare Parameter .................................................................................... 296
7.8  EDGE HISTOGRAM TOOL ....................................................................... 297
7.8.1  Messbereich einstellen.......................................................................................... 298
7.8.2 Einen Test durchführen ........................................................................................ 303
7.8.3 Übersteuerbare Parameter .................................................................................... 304
7.9  CONDITIONAL EXECUTION TOOL.......................................................... 305
7.9.1  Parameter einstellen.............................................................................................. 305
7.9.2 Einen Test durchführen ........................................................................................ 307
7.9.3 Übersteuerbare Parameter .................................................................................... 307
7.10  MULTI-LOCATOR TOOL ........................................................................... 308
7.10.1  Untergeordnete Tools hinzufügen ........................................................................ 308
7.10.2 Das Register einstellen ......................................................................................... 309
7.10.3 Einen Test durchführen ........................................................................................ 309
7.10.4 Übersteuerbare Parameter .................................................................................... 309
7.11  MULTI-WINDOW TOOL ............................................................................ 310
7.11.1  Das Register einstellen ......................................................................................... 310
7.11.2 Fenster einrichten ................................................................................................. 311
7.11.3 Einen Test durchführen ........................................................................................ 312
7.11.4 Übersteuerbare Parameter .................................................................................... 312
7.12  POSITION ADJUSTMENT TOOL .............................................................. 313
7.12.1  Parameter einstellen.............................................................................................. 314
7.12.2 Einen Test durchführen ........................................................................................ 316
7.12.3 Übersteuerbare Parameter .................................................................................... 317
7.13  MEASUREMENT OUTPUT TOOL ............................................................ 318
7.13.1  Messwerte einstellen ............................................................................................ 318
7.13.2 Einen Test durchführen ........................................................................................ 319
7.13.3 Übersteuerbare Parameter .................................................................................... 319
7.14  3DL PLANE COMMAND TOOL ................................................................. 320
7.14.1  Messbereich einstellen.......................................................................................... 320
7.14.2 Lokalisierungsparameter einstellen ...................................................................... 322
7.14.3 Einen Test durchführen ........................................................................................ 324
7.14.4 Übersteuerbare Parameter .................................................................................... 325
7.15  3DL DISPL COMMAND TOOL .................................................................. 326
7.15.1  Messbereich einstellen.......................................................................................... 326
7.15.2 Lokalisierungsparameter einstellen ...................................................................... 327
7.15.3 Einen Test durchführen ........................................................................................ 329
7.15.4 Übersteuerbare Parameter .................................................................................... 329

c-6

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 INHALTSVERZEICHNIS

7.16  3DL CYLINDER TOOL .............................................................................. 330


7.16.1  Messbereich einstellen.......................................................................................... 330
7.16.2 Lokalisierungsparameter einstellen ...................................................................... 332
7.16.3 Einen Test durchführen ........................................................................................ 334
7.16.4 Übersteuerbare Parameter .................................................................................... 335
7.17  EVALUATION TOOL (Bewertungstool) ..................................................... 336
7.17.1  Parameter einstellen.............................................................................................. 336
7.17.2 Einen Test durchführen ........................................................................................ 340
7.17.3 Übersteuerbare Parameter .................................................................................... 340
7.18  SURFACE FLAW INSPECTION TOOL ..................................................... 341
7.18.1  Suchparameter einstellen ...................................................................................... 341
7.18.2 Bildvorbearbeitung ............................................................................................... 343
7.18.2.1  Background Removal (Hintergrund entfernen) ............................................... 343
7.18.2.2 Filter................................................................................................................. 345
7.18.3  Bereichsparameter einstellen ................................................................................ 346
7.18.4 Display Modes (Anzeigemodi)............................................................................. 347
7.18.5 Einen Test durchführen ........................................................................................ 348
7.18.6 Übersteuerbare Parameter .................................................................................... 349
7.19  BEAD INSPECTION TOOL ....................................................................... 351
7.19.1  Eine Inspektionslinie einrichten ........................................................................... 352
7.19.2 Parameter einstellen.............................................................................................. 353
7.19.3 Einen Test durchführen ........................................................................................ 355
7.19.4 Übersteuerbare Parameter .................................................................................... 356
7.19.5 Verfügbare untergeordnete Tools ......................................................................... 356
7.20  COUNT TOOL ........................................................................................... 357
7.20.1  Parameter einstellen.............................................................................................. 357
7.20.2 Einen Test durchführen ........................................................................................ 358
7.20.3 Übersteuerbare Parameter .................................................................................... 358
7.21  ARITHMETIC CALCULATION TOOL ........................................................ 359
7.21.1  Parameter einstellen.............................................................................................. 359
7.21.2 Einen Test durchführen ........................................................................................ 360
7.21.3 Übersteuerbare Parameter .................................................................................... 360
7.22  GEOMETRIC CALCULATION TOOL ........................................................ 361
7.22.1  Parameter einstellen.............................................................................................. 362
7.22.2 Einen Test durchführen ........................................................................................ 363
7.22.3 Übersteuerbare Parameter .................................................................................... 363
7.23  STATISTIC CALCULATION TOOL............................................................ 364
7.23.1  Parameter einstellen.............................................................................................. 364
7.23.2 Einen Test durchführen ........................................................................................ 365
7.23.3 Übersteuerbare Parameter .................................................................................... 365
7.24  POSITION CALCULATION TOOL ............................................................. 366
7.24.1  Parameter einstellen.............................................................................................. 366
7.24.2 Einen Test durchführen ........................................................................................ 371
7.24.3 Übersteuerbare Parameter .................................................................................... 372
7.25  WINDOW SHIFT TOOL ............................................................................. 373
7.25.1  Parameter einstellen.............................................................................................. 374
7.25.1.1  Fenster abhängig von den Ergebnissen eines Locator Tools verschieben ....... 375
7.25.1.2 Fenster abhängig von den Ergebnissen
eines anderen Bilderkennungsprozesses verschieben ...................................... 376
7.25.1.3 Fenster abhängig von den Ergebnissen
der Kollisionsvermeidung verschieben ............................................................ 378

c-7

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

INHALTSVERZEICHNIS B-83304GE/02

7.25.2  Einen Test durchführen ........................................................................................ 378


7.25.3 Übersteuerbare Parameter .................................................................................... 379
7.26  IMAGE PREPROCESS TOOL................................................................... 379
7.26.1  Einen Test durchführen ........................................................................................ 379
7.26.2 Übersteuerbare Parameter .................................................................................... 379
7.27  IMAGE FILTER TOOL ............................................................................... 380
7.27.1  Parameter einstellen.............................................................................................. 381
7.27.2 Einen Test durchführen ........................................................................................ 382
7.27.3 Übersteuerbare Parameter .................................................................................... 382
7.28  COLOR EXTRACTION TOOL ................................................................... 383
7.28.1  Parameter einstellen.............................................................................................. 384
7.28.2 Parameter der Farbextraktion programmieren ...................................................... 386
7.28.3 Einen Test durchführen ........................................................................................ 389
7.28.4 Übersteuerbare Parameter .................................................................................... 389
7.29  1D BARCODE TOOL ................................................................................. 390
7.29.1  Parameter einstellen.............................................................................................. 390
7.29.2 Einen Test durchführen ........................................................................................ 392
7.29.3 Übersteuerbare Parameter .................................................................................... 394
7.29.4 Terminologien ...................................................................................................... 395
7.30  2D BARCODE TOOL ................................................................................. 397
7.30.1  Parameter einstellen.............................................................................................. 397
7.30.2 Einen Test durchführen ........................................................................................ 400
7.30.3 Übersteuerbare Parameter .................................................................................... 401
7.30.4 Terminologien ...................................................................................................... 402
7.31  EDGE POINTS LOCATOR TOOL ............................................................. 406
7.31.1  Parameter einstellen.............................................................................................. 406
7.31.2 Einen Test durchführen ........................................................................................ 408
7.31.3 Übersteuerbare Parameter .................................................................................... 409
7.32  SELECTED EDGE POINTS LOCATOR TOOL ......................................... 410
7.32.1  Parameter einstellen.............................................................................................. 410
7.32.2 Einen Test durchführen ........................................................................................ 414
7.32.3 Übersteuerbare Parameter .................................................................................... 415
7.33  SEARCH AREA RESTRICTION TOOL ..................................................... 416
7.33.1  Parameter einstellen.............................................................................................. 417
7.33.2 Position festlegen, an der sich der Zustand eines
Werkstückstapels geändert hat ............................................................................. 418
7.33.3 Einen Test durchführen ........................................................................................ 418
7.33.4 Übersteuerbare Parameter .................................................................................... 418
7.34  AREA SENSOR PREPROCESS TOOL .................................................... 419
7.34.1  Parameter für Boden-Entfernung einstellen ......................................................... 420
7.34.2 Parameter für Behälter-Entfernung einstellen ...................................................... 420
7.34.3 Parameter für Ausreißer-Entfernung einstellen .................................................... 423
7.34.4 Parameter einstellen.............................................................................................. 424
7.34.5 Einen Test durchführen ........................................................................................ 425
7.34.6 Übersteuerbare Parameter .................................................................................... 425
7.35  AREA SENSOR PEAK LOCATOR TOOL ................................................. 426
7.35.1  Parameter einstellen.............................................................................................. 427
7.35.2 Einen Test durchführen ........................................................................................ 429
7.35.3 Übersteuerbare Parameter .................................................................................... 430

c-8

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 INHALTSVERZEICHNIS

7.36  AREA SENSOR BLOB LOCATOR TOOL ................................................. 430


7.36.1  Parameter einstellen.............................................................................................. 431
7.36.2 Einen Test durchführen ........................................................................................ 435
7.36.3 Übersteuerbare Parameter .................................................................................... 437
7.37  AREA SENSOR COG TOOL ..................................................................... 438
7.37.1  Messbereich einstellen.......................................................................................... 439
7.37.2 Parameter einstellen.............................................................................................. 440
7.37.3 Einen Test durchführen ........................................................................................ 441
7.37.4 Übersteuerbare Parameter .................................................................................... 441
7.38  AREA SENSOR PLANE TOOL ................................................................. 442
7.38.1  Messbereich einstellen.......................................................................................... 443
7.38.2 Parameter einstellen.............................................................................................. 443
7.38.3 Einen Test durchführen ........................................................................................ 445
7.38.4 Übersteuerbare Parameter .................................................................................... 446

8  ANWENDUNGSDATEN ...................................................................... 447


8.1  VISION OVERRIDE ................................................................................... 447
8.2 OFFSET-GRENZWERT ............................................................................ 448
9  START ÜBER EIN ROBOTERPROGRAMM ...................................... 450
9.1  BILDERKENNUNGSREGISTER ............................................................... 450
9.1.1  Bildschirm mit der Liste der Register................................................................... 450
9.1.2 Detailbildschirm eines Bilderkennungsregisters .................................................. 451
9.2  PROGRAMMBEFEHLE ............................................................................. 453
9.2.1  Vision Offset ........................................................................................................ 453
9.2.1.1  VOFFSET ........................................................................................................ 453
9.2.1.2 VOFFSET CONDITION ................................................................................. 454
9.2.1.3 LOCK VREG .................................................................................................. 454
9.2.1.4 UNLOCK VREG ............................................................................................. 454
9.2.2  Ausführung der Bilderkennung ............................................................................ 455
9.2.2.1  RUN_FIND ..................................................................................................... 455
9.2.2.2 GET_OFFSET ................................................................................................. 455
9.2.2.3 GET_PASSFAIL ............................................................................................. 456
9.2.2.4 GET_NFOUND ............................................................................................... 457
9.2.2.5 GET_READING ............................................................................................. 457
9.2.2.6 SET_REFERENCE ......................................................................................... 457
9.2.2.7 CAMERA_CALIB .......................................................................................... 458
9.2.2.8 OVERRIDE ..................................................................................................... 458
9.2.3  Bilderkennungsregister ......................................................................................... 459
9.2.3.1  MODELID ....................................................................................................... 459
9.2.3.2 MEAS (Messwert) ........................................................................................... 459
9.2.3.3 ENC (Encoder-Zählwert)................................................................................. 459
9.2.3.4 FOUND_POS (Gefundene Position) ............................................................... 460
9.2.3.5 OFFSET (Offset-Daten) .................................................................................. 460
9.3  ASYNCHRONE AUSFÜHRUNG ............................................................... 461
9.4 KAREL-TOOLS.......................................................................................... 462
9.4.1  IRVSNAP, IRVNFIND ........................................................................................ 462
9.4.2 IRVLEDON、IRVLEDOFF ................................................................................ 464
9.4.3 ACQVAMAP, CLRVAMAP ............................................................................... 465
9.4.4 IRVTRAIN ........................................................................................................... 467
9.4.4.1  Model Train-Datei ........................................................................................... 469
9.4.4.2 Verfahrensweisen ............................................................................................ 480
9.4.4.3 Vorsichtsmaßnahmen ...................................................................................... 485
9.4.5  IRVBKLSH .......................................................................................................... 486

c-9

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

INHALTSVERZEICHNIS B-83304GE/02

10  MENÜ UTILITY .................................................................................... 487


10.1  ROBOT-GENERATED GRID CALIBRATION
(VOM ROBOTER ERZEUGTE GITTERKALIBRIERUNG) ........................ 488
10.1.1  Übersicht .............................................................................................................. 488
10.1.2 Menüstruktur ........................................................................................................ 489
10.1.2.1  Hauptmenü....................................................................................................... 489
10.1.2.2 Kalibrierungsdaten-Menü ................................................................................ 490
10.1.2.3 Zielpositions-Menü .......................................................................................... 492
10.1.2.4 Startpositions-Menü ......................................................................................... 492
10.1.3  Kalibrierung durchführen ..................................................................................... 493
10.1.3.1  Das Ziel auswählen und montieren .................................................................. 493
10.1.3.2 Tool für die Kamerakalibrierung vorbereiten .................................................. 494
10.1.3.3 Kamerakalibrierungsdaten auswählen ............................................................. 496
10.1.3.4 Zielposition messen ......................................................................................... 497
10.1.3.5 Kalibrierungsprogramm erstellen .................................................................... 499
10.1.3.6 Kalibrierungsprogramm ausführen .................................................................. 502
10.2  GRID FRAME SETTING
(EINRICHTEN DES GITTER-KOORDINATENSYSTEMS)........................ 503
10.2.1  Übersicht .............................................................................................................. 503
10.2.2 Parameter einstellen.............................................................................................. 505
10.2.3 Messung durchführen ........................................................................................... 508
10.2.4 Fehlerbehebung .................................................................................................... 511
10.3  MENÜ VISION LOG .................................................................................. 512
10.3.1  Gerät einstellen ..................................................................................................... 513
10.3.2 Bilderkennungsprotokoll eines bestimmten Datums exportieren ......................... 514
10.3.3 Bilderkennungsprotokolle aller Daten exportieren .............................................. 515
10.3.4 Bilderkennungsprotokoll eines bestimmten Datums löschen ............................... 515
10.3.5 Bilderkennungsprotokolle aller Daten löschen .................................................... 515
10.3.6 Bilderkennungsprotokoll eines bestimmten Datums importieren ........................ 516
10.3.7 Display aktualisieren ............................................................................................ 517
10.3.8 Dateikonfiguration des exportierten Bilderfassungsprotokolls ............................ 517

11  KALIBRIERGITTER ............................................................................ 518


11.1  KALIBRIERGITTER ................................................................................... 518
11.2 Koordinatensystem des Kalibriergitters ..................................................... 519
11.2.1  Einstellung mittels Berühren ................................................................................ 520
11.2.2 Einstellung per Messung mit einer Kamera ......................................................... 521

12  WEITERE OPTIONEN ......................................................................... 522


12.1  TOOLS ZUR UNTERSTÜTZUNG
DES BILDERKENNUNGSPROZESSES ................................................... 522
12.1.1  OFS_RJ3 .............................................................................................................. 524
12.1.2 MATRIX .............................................................................................................. 527
12.1.3 INVERSE ............................................................................................................. 529
12.1.4 MERGE3D2 ......................................................................................................... 530
12.1.5 LOADNOM und SAVENOM .............................................................................. 533
12.1.6 ADJ_OFS ............................................................................................................. 535
12.1.7 SORT_RJ3............................................................................................................ 537
12.1.8 CHK_POS ............................................................................................................ 541
12.1.9 STVS1 .................................................................................................................. 543
12.1.10 VL_EXPORT ....................................................................................................... 545

c-10

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 INHALTSVERZEICHNIS

12.2  DATA TRANSFER BETWEEN ROBOTS .................................................. 546


12.2.1  RSETNREG, RSETPREG ................................................................................... 546
12.3  4D GRAPHICS .......................................................................................... 548
12.3.1  IRVDISPLAY4D ................................................................................................. 552
12.4  iRCONNECT.............................................................................................. 553
12.4.1  IRVICONN .......................................................................................................... 553

A  EINLERNEN ÜBER EINEN PC ........................................................... 557


A.1  KONFIGURATIONS-PC ANSCHLIESSEN ................................................ 557
A.1.1  Konfigurations-PC................................................................................................ 557
A.1.2 Kommunikationskabel.......................................................................................... 557
A.1.3 Kommunikationskabel anschließen ...................................................................... 557
A.1.4 IP-Adressen bestimmen ........................................................................................ 558
A.1.5 IP-Adresse für Robotersteuerung festlegen .......................................................... 558
A.1.6 IP-Adresse für PC festlegen ................................................................................. 560
A.1.7 Einstellungen von Internet Explorer ändern ......................................................... 562
A.1.8 Einstellungen der Windows Firewall ändern ....................................................... 565
A.2  BILDERKENNUNGSSEITEN ÖFFNEN ..................................................... 567
A.3 PASSWORTSCHUTZ FÜR BILDERKENNUNGSDATEN ......................... 571
A.3.1  Passwortschutz einrichten .................................................................................... 571
A.3.2 Passwort deaktivieren ........................................................................................... 573
A.4  HÄUFIG GESTELLTE FRAGEN................................................................ 574
A.4.1  Probleme mit der PC-Benutzeroberfläche ............................................................ 574
A.4.2 Die Option „Vision UIF Control“ (UIF-Steuerelemente)
lässt sich nicht installieren .................................................................................... 577

c-11

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 1.VORWORT

1 VORWORT
Dieses Kapitel enthält eine Übersicht über dieses Handbuch.
Lesen Sie dieses Handbuch, bevor Sie die iRVision-Funktion in Betrieb nehmen.

1.1 ÜBERSICHT ÜBER DIESES HANDBUCH


Übersicht
Dieses Handbuch ist das Referenzhandbuch für iRVision an der R-30iB/R-30iB Mate-Steuerung. In
diesem Handbuch werden alle Funktionen beschrieben, die mit iRVision möglich sind. Wenn Sie
beispielsweise die Bedeutung der Elemente im Einrichtungsbildschirm von iRVision, die Argumente der
Anweisungen usw. kennenlernen möchten, schlagen Sie in diesem Handbuch nach.
Wenn Sie das mit iRVision ausgestattete Robotersystem starten, lesen Sie die Handbücher,
die unter „1.2 ZUGEHÖRIGE HANDBÜCHER“ aufgeführt sind.

ACHTUNG
Dieses Handbuch basiert auf R-30iB Systemsoftware der Version V8.10P/02.
Beachten Sie, dass es Funktionen und Einstellungen geben kann, die nicht in
diesem Handbuch beschrieben sind, und es je nach Softwareversion
Unterschiede in der Notation geben kann.

Inhalt dieses Handbuchs


Kapitel 1 Vorwort
Kapitel 2 Beschreibt die per Bilderkennung gesteuerte Roboterbewegung
Kapitel 3 Beschreibt den Basisbetrieb
Kapitel 4 Beschreibt den Einrichtungsvorgang der Tools zur Einrichtung der Kamera
Kapitel 5 Beschreibt den Einrichtungsvorgang der Tools zur Kalibrierung der Kamera
Kapitel 6 Beschreibt den Einrichtungsvorgang für Bilderkennungsprozesse
Kapitel 7 Beschreibt den Einrichtungsvorgang der Befehlstools
Kapitel 8 Beschreibt den Einrichtungsvorgang für Anwendungsdaten
Kapitel 9 Beschreibt den Startvorgang von iRVision aus einem Roboterprogramm
Kapitel 10 Beschreibt die Verwendung der iRVision Utility-Menüs
Kapitel 11 Beschreibt das Calibration Grid (Kalibrierungsgitter) und den Einrichtungsvorgang für den
Calibration Grid Frame (Koordinatensystem).
Kapitel 12 Beschreibt die Verwendung der Support-Tools für die Bilderkennung
Anhang A Beschreibt den Einrichtungsvorgang eines PCs für iRVision und wie man die iRVision-Seiten
auf dem PC öffnet.

-1-

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

1.VORWORT B-83304GE/02

1.2 ZUGEHÖRIGE HANDBÜCHER


In diesem Abschnitt werden die zugehörigen Handbücher vorgestellt.

BEDIENUNGSHANDBUCH FÜR DIE STEUERUNG R-30iB/R-30iB Mate


(Basisbetrieb) B-83284
Dieses Handbuch ist das Haupthandbuch für die Steuerung R-30iB/R-30iB Mate.
Dieses Handbuch beschreibt die folgenden Punkte zum Bearbeiten eines Werkstücks mit dem Roboter.
• Systemeinstellungen zum Bearbeiten von Werkstücken
• Bedienen des Roboters
• Erstellen und Ändern eines Programms
• Ausführen eines Programms
• Statusanzeigen
• Backup und Wiederherstellung von Roboterprogrammen.
Dieses Handbuch wird für die Installation und das Einlernen eines Roboters entsprechender Ausführung
verwendet.

Wartungshandbuch für die Steuerung R-30i (B-83195)


In diesem Handbuch werden Wartung und Anschluss der Steuerung R-30iB beschrieben.

R-30iB Mate-Steuerung – Wartungshandbuch (B-83525)


In diesem Handbuch werden Wartung und Anschluss der Steuerung R-30iB Mate beschrieben.

Bedienungshandbuch für die Steuerung


R-30iB/R-30iB Mate – Liste der Alarmcodes (B-83284-1)
Dieses Handbuch enthält Listen und Beschreibungen der Fehlercodes sowie Abhilfemaßnahmen für die
Steuerung R-30iB/R-30iB Mate.

Bedienungshandbuch für die Steuerung


R-30iB/R-30iB Mate – Optionale Funktionen (B-83284-2)
Dieses Handbuch ist das Haupthandbuch für die Steuerung R-30iB/R-30iB Mate.

Bedienungshandbuch für die Steuerung


R-30iB/R-30iB Mate – Sensormechanik/Steuereinheit (B-83434)
Dieses Handbuch beschreibt die Verbindung zwischen den Sensoren bei einer Kamera oder einem
3D-Lasersensor und der Steuerung R-30iB/R-30iB Mate sowie die Wartung der Sensoren.

Bedienungshandbuch für die Steuerung


R-30iB/R-30iB Mate – iRVision – 2D-Bilderkennungsanwendung (B-83304-1)
Dieses Handbuch sollten Sie lesen, bevor Sie Systeme mit iRVision 2D-Abgleich und 2.5D-Abgleich in
Betrieb nehmen. Es beschreibt Inbetriebnahmeverfahren des iRVision 2D-Abgleichs- und des
2.5D-Abgleichssystems, das Erstellen von Programmen, Vorsichtsmaßnahmen, bietet technisches
Know-How, Hilfe in zahlreichen Situationen uvm.

-2-

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 1.VORWORT

Bedienungshandbuch für die Steuerung


R-30iB/R-30iB Mate – iRVision – 3D-Lasersensor-Bilderkennungsanwendung
(B-83304-2)
Dieses Handbuch sollten Sie lesen, bevor Sie Systeme mit der iRVision 3D Lasersensor-Kompensation in
Betrieb nehmen. Es beschreibt Inbetriebnahmeverfahren der iRVision 3D Lasersensor-Kompensation, das
Erstellen von Programmen, Vorsichtsmaßnahmen, bietet technisches Know-How, Hilfe in zahlreichen
Situationen uvm.

Bedienungshandbuch für die Steuerung


R-30iB/R-30iB Mate – iRVision-Prüfanwendung (B-83304-3)
Dieses Handbuch sollten Sie lesen, bevor Sie Prüfsysteme mit iRVision in Betrieb nehmen.
Es beschreibt Inbetriebnahmeverfahren der Prüfsysteme mit iRVision, das Erstellen von Programmen,
Vorsichtsmaßnahmen, bietet technisches Know-How, Hilfe in zahlreichen Situationen uvm.

Bedienungshandbuch für die Steuerung


R-30iB iRVision – Visual Tracking (B-83304-4)
Dieses Handbuch sollten Sie lesen, bevor Sie Systeme mit iRVision Visual Tracking in Betrieb nehmen.
Es beschreibt Inbetriebnahmeverfahren des iRVision Visual Tracking-Systems, das Erstellen von
Programmen, Vorsichtsmaßnahmen, bietet technisches Know-How, Hilfe in zahlreichen Situationen uvm.

Bedienungshandbuch für die Steuerung


R-30iB/R-30iB Mate – iRVision Bin Picking-Anwendungen (B-83304-5)
Dieses Handbuch sollten Sie lesen, bevor Sie Systeme mit iRVision Bin Picking in Betrieb nehmen.
Es beschreibt Inbetriebnahmeverfahren des iRVision Bin Picking-Systems, das Erstellen von
Programmen, Vorsichtsmaßnahmen, bietet technisches Know-How, Hilfe in zahlreichen Situationen uvm.

Bedienungshandbuch für die Steuerung


R-30iA/R-30iA Mate/R30 iB/R-30i B Mate – Ethernet-Funktion (B-82974)
Dieses Handbuch beschreibt die Netzwerkoptionen des Roboters wie FTP, RIPE, PC Share usw..

-3-

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

2.INFORMATIONEN ZUM BILDERKENNUNGSSYSTEM B-83304GE/02

2 INFORMATIONEN ZUM
BILDERKENNUNGSSYSTEM
In diesem Kapitel wird die bildverarbeitungsgesteuerte Roboterbewegung mittels iRVision
(integral Robot Vision) beschrieben.

2.1 BASISKONFIGURATION
In diesem Kapitel wird die Basiskonfiguration des iRVision-Systems beschrieben.

Dieses Handbuch beschreibt die Standardkonfiguration von iRVision. Für manche Anwendungen sind
möglicherweise spezielle Komponenten erforderlich. Weitere Informationen hierzu finden Sie im
jeweiligen anwendungsspezifischen BEDIENUNGSHANDBUCH für iRVision.

iRVision besteht aus den folgenden Komponenten:


• Kamera und Objektiv oder dreidimensionaler Lasersensor
• Kamerakabel
• Beleuchtungsanlage
• Kamera-Multiplexer (wird bei Bedarf eingesetzt)

Robotersteuerung Kamerakabel
Camera Cable
Robot Controller

Kamera
Camera und
and Objektiv
Lens

Beleuchtungsanlage
Lighting Equipment

Werkstück
Workpiece

Ausführliche Informationen über die Anschlussmethode zwischen Robotersteuerung und Kamera finden
Sie im „BEDIENUNGSHANDBUCH der Steuerung R-30iB/R-30iB Mate –
Sensormechanik/Steuereinheit“.

-4-

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 2.INFORMATIONEN ZUM BILDERKENNUNGSSYSTEM

2.2 BILDVERARBEITUNGSGEFÜHRTE
ROBOTERBEWEGUNG
FANUC-Roboter sind Einlern-Wiedergabe-Roboter. In einem Einlern-Wiedergabesystem
(teaching-playback system) werden einem Roboter im Vorfeld bestimmte Aufgaben beigebracht, die dann
anschließend exakt so funktionieren wie sie dem Roboter „eingelernt“ wurden. Eine Folge von
Anweisungen, die dem Roboter mitteilen, was er tun soll, wird als Roboterprogramm bezeichnet. Das
Verfahren zum Erzeugen von Roboterprogrammen wird als Teaching (Einlernen) bezeichnet, und der Akt
der Ausführung der gelernten Roboterprogramme wird als Playback (Wiedergabe) bezeichnet.
Einlern-Wiedergabe-Roboter geben die Bewegung genau so wieder wie sie ihnen beigebracht wurde.
Anders ausgedrückt können Roboter dieser Art nur die Aufgaben oder Bewegungen ausführen, die ihnen
im Vorfeld beigebracht wurden. Das bedeutet Folgendes: Wenn Sie möchten, dass der Roboter jedes
Werkstück auf dieselbe Art und Weise bearbeitet, müssen Sie jedes Werkstück exakt an derselben
Position platzieren. iRVision ist ein bildverarbeitendes Sensorsystem, das konzipiert wurde, um solche
Beschränkungen auszuschalten. iRVision misst die Position jedes Werkstücks mit Kameras und passt die
Roboterbewegung so an, dass der Roboter das Werkstück exakt so bearbeiten kann wie er programmiert
wurde, auch wenn die Position des Werkstücks von der bei der Programmierung festgelegten
Werkstückposition abweicht.

Offset der Relativposition


Es gibt zwei Methoden für die bildverarbeitungsgesteuerte Roboterbewegung – die Absolutpositionierung
(absolute positioning) und den Relativpositions-Offset (relative position offset). Bei der
Absolutpositionierung misst der Sensor die absolute Position des Werkstücks und der Roboter fährt direkt
zu dieser Position. Beim Relativpositions-Offset misst der Sensor, wie sich das Werkstück in Relation zu
der während der Programmierung des Roboters festgelegten Position bewegt hat. Anschließend korrigiert
der Roboter die eingelernte Position anhand dieser relativen Position, bevor er dorthin fährt. iRVision
verwendet letztere Vorgehensweise, also den Relativpositions-Offset.

Sollposition und Istposition


Die relative Position des Werkstücks, die für den Offset der Roboterposition verwendet wird, bezeichnet
man als Offset-Daten. Offset-Daten werden aus der Position des Werkstücks berechnet, die beim
Einlernen des Roboterprogramms festgelegt wurde, sowie aus der aktuellen Werkstückposition. Die zum
Zeitpunkt des Einlernens des Roboterprogramms festgelegte Werkstückposition wird als Sollposition und
die aktuelle Werkstückposition wird als Istposition bezeichnet. Die Offset-Daten sind die Differenz
zwischen der Sollposition und der Istposition. iRVision misst die Sollposition, wenn ein
Roboterprogramm eingelernt wird, und speichert sie intern. Das Einlernen der Referenzposition in
iRVision wird als Sollpositionsvorgabe bezeichnet.

-5-

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

2.INFORMATIONEN ZUM BILDERKENNUNGSSYSTEM B-83304GE/02

2.3 OFFSET DES FESTSTEHENDEN


KOORDINATENSYSTEMS UND WERKZEUG-OFFSET
Es gibt zwei Arten von Verschiebungen der Roboterposition: den Offset des feststehenden
Koordinatensystems und den Werkzeug-Offset. iRVision unterstützt beide Arten von Verschiebungen der
Roboterposition.

Offset des feststehenden Koordinatensystems


Beim Offset des feststehenden Koordinatensystems wird die Verschiebung des Werkstücks in einem
Koordinatensystem gemessen, das in Relation zur Roboterbasis fest steht. Ein auf einer festen Fläche oder
einem Behälter platziertes Werkstück wird von einer Kamera betrachtet, und das Bilderkennungssystem
misst seine Position. Dann korrigiert der Roboter seine eingelernten Positionen, sodass er das Werkstück
ordnungsgemäß handhaben (beispielsweise aufheben) kann.

Werkzeug-Offset
Beim Werkzeug-Offset wird die Verschiebung des Werkstücks in einem Koordinatensystem gemessen,
das sich mit dem Roboterwerkzeug bewegt. Diese Methode eignet sich für Greifer, bei denen die Position
des Teils im Greifer unterschiedlich sein kann, wie bei Vakuumgreifern. Ein vom Roboter gehaltenes
Werkstück wird von einer Kamera betrachtet, und das Bilderkennungssystem misst seine Position in
Relation zum Greifer. Dann verschiebt der Roboter seine eingelernten Positionen, sodass er das
Werkstück ordnungsgemäß handhaben (beispielsweise platzieren) kann.

Offset des feststehenden


Fixed frameKoordinatensystems
offset Werkzeug-Offset
Tool offset

-6-

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 2.INFORMATIONEN ZUM BILDERKENNUNGSSYSTEM

2.4 FESTSTEHENDE KAMERA UND AM ROBOTER


MONTIERTE KAMERA
Eine Kamera kann als feststehende Kamera oder als am Roboter montierte Kamera installiert werden.
iRVision unterstützt beide Positioniermethoden.

Feststehende Kamera
Eine feststehende Kamera wird oben auf dem Sockel oder einer anderen feststehenden Konstruktion
befestigt. Bei dieser Methode erfasst die Kamera stets dasselbe Bild aus derselben Entfernung. Ein
Vorteil der feststehenden Kamera besteht darin, dass die Roboterzykluszeit reduziert werden kann, weil
iRVision ein Bild aufnehmen und verarbeiten kann, während der Roboter eine weitere Aufgabe ausführt.

Am Roboter montierte Kamera


Die am Roboter montierte Kamera wird an der Handgelenkeinheit des Roboters installiert. Durch die
Bewegung des Roboters können Messungen an unterschiedlichen Punkten oder mit unterschiedlichen
Abständen zwischen Werkstück und Kamera erfolgen. Bei Verwendung einer am Roboter montierten
Kamera berechnet iRVision die Position des Werkstücks, während es die Kamerabewegung
berücksichtigt, die sich aus der Roboterbewegung ergibt.

Feststehende Kamera
Fixed camera Am Roboter
Robot montierte
mounted cameraKamera

2.5 KAMERA-KALIBRIERUNG
iRVision findet Teile in einem Bild, das von einer Kamera aufgenommen wurde. Um den Roboter
basierend auf den von iRVision vorgefundenen Positionsinformationen abzugleichen, müssen die
Positionsinformationen aus dem Kamera-Koordinatensystem in ein Roboter-Koordinatensystem
(Benutzer-Koordinatensystem oder Werkzeug-Koordinatensystem) konvertiert werden. Um eine solche
Datenkonvertierung durchführen zu können, werden Daten von der Kamera benötigt, die Aufschluss über
Lage und Sichtfeld der Kamera geben. Diese Daten werden als „Kamera-Kalibrierung“ bezeichnet. Eine
genaue Kalibrierung der Kamera ist äußerst wichtig, damit der Roboter präzise abgeglichen werden kann.

-7-

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

2.INFORMATIONEN ZUM BILDERKENNUNGSSYSTEM B-83304GE/02

2.6 BILDERKENNUNGSDATEN
Die Daten, die vom Benutzer während der Einrichtung von iRVision eingegeben werden, nennt man
Bilderkennungsdaten. Wie Roboterprogramme und E/A-Einstellungen werden Bilderkennungsdaten im
Speicher der Robotersteuerung gespeichert.

ACHTUNG
Schalten Sie die Robotersteuerung niemals während der Speicherung von
Bilderkennungsdaten aus. Dadurch kann der Speicher des FROM-Moduls
beschädigt werden und den normalen Roboterbetrieb stören.

2.6.1 Arten von Bilderkennungsdaten


Es gibt vier Arten von Bilderkennungsdaten:

Kamera-Einstellungsdaten
Kamera-Einstellungsdaten bestimmen die Kamera-Portnummer, die Art der Kamera, die
Montagemethode usw.

Kamera-Kalibrierungsdaten
Kamera-Kalibrierungsdaten bilden die mathematische Entsprechung zwischen dem
Koordinatensystem der Kamerabilder und dem Koordinatensystem, in dem sich der Roboter bewegt.

Daten des Bilderkennungsprozesses


Daten des Bilderkennungsprozesses definieren die Bildverarbeitung, den Ort und die Messung, die
von iRVision während des Produktionsbetriebs durchzuführen ist.

Anwendungsdaten
Anwendungsdaten sind Einstellungen, die sich auf eine bestimmte Anwendung beziehen.

-8-

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 2.INFORMATIONEN ZUM BILDERKENNUNGSSYSTEM

2.6.2 Maximaler Umfang an erstellbaren Bilderkennungsdaten


Das maximale Volumen an Bilderkennungsdaten, die auf der Robotersteuerung erzeugt werden können,
kann generell nicht beziffert werden, denn es variiert in Abhängigkeit der Bedingungen. Eine Richtlinie
für eine grobe Schätzung des maximalen Volumens von Bilderkennungsdaten, die Sie auf der
Robotersteuerung erzeugen können, folgt hier.

Bilderkennungsdaten werden im FROM-Modul der Robotersteuerung gespeichert. Dementsprechend ist


die Speicherkapazität für Bilderkennungsdaten abhängig vom freien Speicherplatz im FROM-Modul
Ihrer Robotersteuerung. Je mehr Optionen installiert sind, umso kleiner ist der freie Speicherplatz im
FROM-Modul. Der freie Speicherplatz des FROM-Moduls Ihrer Robotersteuerung lässt sich prüfen,
indem Sie STATUS/Memory (STATUS/Speicher) auf dem Programmiergerät auswählen.

Die Steuerung R-30iB besitzt eine automatische Sicherungsfunktion, die den Backup aller Nutzerdaten,
wie Roboterprogramme, regelmäßig automatisch speichert. Der standardmäßige Zielspeicherort für den
automatischen Backup ist FROM (FRA:) und die beiden letzten Backups werden standardmäßig
gespeichert. Dementsprechend beträgt die Kapazität, die zur Speicherung von Bilderkennungsdaten
verwendet werden kann, ungefähr ein Viertel von (freier Speicher – 1 MB) auf dem FROM-Modul.

Die maximale Menge an Bilderkennungsdaten, die erzeugt werden können, ist außerdem abhängig von
der Menge der zu erzeugenden Bilderkennungsdaten. Im Allgemeinen hat ein Bilderkennungsprozess den
größten Umfang, und seine Größe hängt ab von dem Modellmuster, das in die Locator-Tools eingelernt
wurde. Die Größe eines Bilderkennungsprozesses reicht von einigen KB bis hin zu hunderten von KB.

Nehmen wir beispielsweise an, dass der freie Speicher im FROM-Modul 10 MB beträgt und der
durchschnittliche Umfang der Bilderkennungsdaten beträgt 100 KB. Die Kapazität, die in diesem Fall zur
Speicherung von Bilderkennungsdaten verwendet werden könnte, würde etwa 2,2 MB betragen, was
einem Viertel von 9 MB entspricht. Somit beträgt das geschätzte Volumen von Bilderkennungsdaten, die
erzeugt werden können, etwa 22 (2,2 MB/10 KB).

-9-

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

2.INFORMATIONEN ZUM BILDERKENNUNGSSYSTEM B-83304GE/02

2.6.3 Mehr Bilderkennungsdaten erzeugen


Bilderkennungsdaten werden im FROM-Modul der Robotersteuerung gespeichert. Wenn der verfügbare
Speicherplatz auf dem FROM-Modul aufgebraucht ist, können keine weiteren Bilderkennungsdaten mehr
erzeugt werden. Um weitere Bilderkennungsdaten zu erzeugen, können Sie mehr freien Speicherplatz
schaffen, wie unten beschrieben.

Automatische Backup-Funktion deaktivieren


Standardmäßig ist die Steuerung R-30iB/R-30iB Mate so konfiguriert, dass sie automatische Backups
fährt. Laut Vorgabe werden die automatischen Backups auf dem FROM-Modul gespeichert, und die
beiden letzten Backups bleiben erhalten. Durch die Deaktivierung der automatischen Backups können Sie
ein dreimal so großes Volumen an Bilderkennungsdaten erzeugen. Informationen über die
Vorgehensweise zum Ändern der Einstellung für die automatische Backup-Funktion finden Sie im
„BEDIENUNGSHANDBUCH der Steuerung R-30iB/R-30i – Basisbetrieb“.

Ziel für automatischen Backup zu MC: ändern


Standardmäßig werden die automatischen Backups auf dem FROM-Modul gespeichert, und die beiden
letzten Backups bleiben erhalten. Durch eine Änderung des Zielgeräts von FRA: (FROM) zu MC: kann
ein etwa dreimal so großes Volumen an Bilderkennungsdaten auf FROM erzeugt werden. Informationen
über die Vorgehensweise zum Ändern der Einstellung für die automatische Backup-Funktion finden Sie
im „BEDIENUNGSHANDBUCH der Steuerung R-30iB/R-30i – Basisbetrieb“.

Austausch des FROM-Moduls


Für die Nutzung in Verbindung mit der Steuerung R-30iB/R-30iB Mate sind FROM-Module in drei
verschiedenen Größen lieferbar: 32 MB, 64 MB und 128 MB. Wenn die Größe des FROM-Moduls an
Ihrer Steuerung nicht groß genug ist, ersetzen Sie Ihr FROM-Modul durch ein größeres. Dadurch können
Sie mehr Bilderkennungsdaten erzeugen. Wenn Sie Fragen zum Austausch des FROM-Moduls haben,
wenden Sie sich an Ihren technischen Vertreter von FANUC.

2.7 BENUTZER-KOORDINATENSYSTEM UND


WERKZEUG-KOORDINATENSYSTEM (User Tool)
Position und Bewegungsstellung des Roboters werden auf der Grundlage von Frames
(Koordinatensystemen) dargestellt. Das Benutzer-Koordinatensystem (User Frame) definiert den
Arbeitsbereich für den Roboter. Das Werkzeug-Koordinatensystem (User Tool) definiert die Position und
Ausrichtung des Werkzeugs (Endeffektors). Der Ursprungspunkt des Werkzeug-Koordinatensystems
wird auch als TCP (Tool Center Point, Werkzeugmittelpunkt) bezeichnet.

FANUC-Roboter sind Einlern-Wiedergabe-Roboter. Roboter dieses Typs geben ausschließlich


eingelernte Bewegungen wieder. Aus diesem Grund brauchen in Robotersystemen ohne Bildverarbeitung
keine Koordinatensystem verwendet zu werden, weil die Roboter nur die eingelernten Bewegungen
wiederholen, ganz gleich, wie genau die Koordinatensysteme eingerichtet wurden.

Andererseits sind Koordinatensysteme in Robotersystemen mit Bildverarbeitungssystem von großer


Bedeutung. Wenn beispielsweise das Bildverarbeitungssystem die Anweisung ausgibt, eine Bewegung
von 10 mm in Richtung X auszuführen oder 30 Grad um die Z-Achse zu drehen, stützt sich die
Roboterbewegung vollständig auf die genaue Definition der Koordinatensysteme.

- 10 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 2.INFORMATIONEN ZUM BILDERKENNUNGSSYSTEM

Benutzer-Koordinatensystem (User Frame)


Das Benutzer-Koordinatensystem (User Frame) definiert den Arbeitsbereich für den Roboter. Die
Offset-Daten aus dem Bildverarbeitungssystem (z. B. für eine Bewegung von 10 mm in Richtung X oder
eine Drehung von 30 Grad um die Z-Achse) beziehen sich alle auf das Benutzer-Koordinatensystem.
Daher ist es sehr wichtig, das Benutzer-Koordinatensystem so exakt wie möglich einzulernen. Wenn das
Benutzer-Koordinatensystem ungenau eingerichtet wird, könnte sich der Roboter in eine falsche Richtung
bewegen oder um eine falsche Achse drehen.
Bei einer zweidimensionalen Bilderkennungsanwendung mit Festbild-Offset spiel das
Benutzer-Koordinatensystem noch eine weitere wichtige Rolle. Es definiert die zweidimensionale
Arbeitsebene im realen dreidimensionalen Raum. Die 2D-Arbeitsebene für iRVision muss parallel zur
X-Y-Ebene des Benutzer-Koordinatensystems verlaufen.

Weitere Informationen über detaillierte Einrichtungsvorgänge für das Benutzer-Koordinatensystem


finden Sie im „BEDIENUNGSHANDBUCH der Steuerung R-30iB/R-30iB Mate – Basisbetrieb“.

ANMERKUNG
Während des Einlernens eines Benutzer-Koordinatensystems darf die
Bewegungsstellung des Roboters nicht geändert werden. Wird sie verändert,
führt dies zu Ungenauigkeiten des Benutzer-Koordinatensystems.

User Tool (Werkzeug-Koordinatensystem)


Das Werkzeug-Koordinatensystem (User Tool) definiert die Position und Ausrichtung des
Roboterwerkzeugs (Endeffektors). In einem Robotersystem, das mit Bilderkennung arbeitet, ist es von
großer Bedeutung, einen genauen TCP (Tool Center Point, Werkzeugmittelpunkt) des Auswahlwerkzeugs
(Zeigers) einzulernen, der während des Einlernens des Benutzer-Koordinatensystems verwendet wird.
Fehlt es dem TCP an Genauigkeit, ist auch das Benutzer-Koordinatensystems ungenau.
Bei einer zweidimensionalen Bilderkennungsanwendung mit Werkzeug-Offset spielt das
Benutzer-Koordinatensystem noch eine weitere wichtige Rolle, und zwar definiert es die
zweidimensionale Arbeitsebene.

Weitere Informationen über detaillierte Einrichtungsvorgänge für das Werkzeug-Koordinatensystem


finden Sie im „BEDIENUNGSHANDBUCH der Steuerung R-30iB/R-30iB Mate – Basisbetrieb“.

Mehrfachbenutzung (Sharing) des Benutzer-Koordinatensystems


Wenn zwei oder mehr Roboter zusammenarbeiten, ist es notwendig das System so zu konfigurieren, dass
diese Roboter physisch dasselbe Benutzer-Koordinatensystem verwenden. Dies wird als
Mehrfachbenutzung (Sharing) des Benutzer-Koordinatensystems bezeichnet. Die Mehrfachbenutzung des
Benutzer-Koordinatensystems ist insbesondere in den folgenden Fällen notwendig:

• Mehrere Roboter haben gemeinsam denselben Satz von Offset-Daten.


• Der Roboter, der die Offset-Daten erhält, ist ein anderer als der mit der Kamera.

Die Mehrfachbenutzung des Benutzer-Koordinatensystems erfordert, dass alle Roboter dieselbe


„Nummer des Benutzer-Koordinatensystems“ benutzen. Zum Beispiel muss das
Benutzer-Koordinatensystem 5 von Roboter 1 physisch dem Benutzer-Koordinatensystem 5 von Roboter
2 entsprechen.

ACHTUNG
Wenn Roboter gemeinsam auf Benutzer-Koordinatensysteme unterschiedlicher
Nummern verwenden, kann iRVision keine korrekten Offset für die Roboter
erzeugen. Stellen Sie bitte sicher, dass die Roboter bei der Mehrfachbenutzung
dieselbe Nummer des Benutzer-Koordinatensystems verwenden.

- 11 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

3 BASISBETRIEB
In diesem Kapitel wird der Basisbetrieb des iRVision-Systems beschrieben.

Wenn Sie unter MENUS die Option „8 iRVision“ auswählen, werden die folgenden Untermenüs
angezeigt.

Vision Setup (Bilderkennungseinrichtung)


Zeigt den Bildschirm „Vision Setup“ (Bilderkennungseinrichtung) an. Einzelheiten finden Sie in
Abschnitt 3.1 „VISION SETUP (BILDERKENNUNGSEINRICHTUNG)“.

Vision Runtime (Bilderkennungs-Laufzeit)


Zeigt den Bildschirm „Vision Runtime“ (Bilderkennungs-Laufzeit) an. Einzelheiten finden Sie in
Abschnitt 3.2 „VISION RUN-TIME (BILDERKENNUNGS-LAUFZEIT)“.

Vision Log (Bilderkennungsprotokoll)


Zeigt den Bildschirm „Vision Log“ (Bilderkennungsprotokoll) an. Einzelheiten finden Sie in
Abschnitt 3.3 „VISION LOG (BILDERKENNUNGSPROTOKOLL)“.

Vision Config (Bilderkennungskonfiguration)


Zeigt den Bildschirm „Vision Config“ (Bilderkennungskonfiguration) an. Einzelheiten finden Sie in
Abschnitt 3.4 „VISION CONFIG (BILDERKENNUNGSKONFIGURATION)“.

Vision Utilities (Bilderkennungs-Dienstprogramme)


Zeigt den Bildschirm „Vision Utilities“ (Bilderkennungs-Dienstprogramme) an. Einzelheiten finden
Sie in Abschnitt 10 „VISION UTILITIES (BILDERKENNUNGS-DIENSTPROGRAMME)“.

ACHTUNG
Wenn Sie Bilderkennungsdaten auf dem iPendant einlernen, müssen Sie das
iPendant (Programmiergerät) mit Bedienfeld verwenden.

- 12 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

3.1 VISION SETUP (Bilderkennungseinrichtung)


Im Bildschirm „Vision Setup“ können Sie Bilderkennungsdaten erstellen, einlernen und testen.
Das Fenster „Vision Setup“ können Sie mit den folgenden Schritten aufrufen.

1 Drücken Sie MENUS am iPendant (Programmiergerät).


2 Wählen Sie [8 iRVision] und anschließend [1 Vision Setup].
3 Auf dem iPendant erscheint der Bildschirm „Vision Setup“.

Das Fenster „Vision Setup“ zeigt die Liste der Bilderkennungsdaten.


Die folgenden Elemente können in der Liste angezeigt werden:

Name
Die Bezeichnung der Bilderkennungsdaten wird angezeigt.
Hierfür kann ein Name aus bis zu 34 alphanumerischen Zeichen festgelegt werden.

Comment (Kommentar)
Eine beliebige Zeichenfolge wird angegeben, um zusätzliche Informationen über die
Bilderkennungsdaten zu liefern.
Hierfür kann ein Kommentar aus bis zu 50 Ein-Byte- oder 25 Zwei-Byte-Zeichen festgelegt werden.

Type (Typ)
Die Art der Bilderkennungsdaten wird angezeigt.

Created (Erstellt)
Hier werden Zeit und Datum der erstmaligen Erstellung der entsprechenden Bilderkennungsdaten
angezeigt.

Modified (Geändert)
Hier werden Zeit und Datum der letzten Änderung der entsprechenden Bilderkennungsdaten angezeigt.

- 13 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

Size (Größe)
Zeigt die Größe der Bilderkennungsdaten in Bytes an.
Die Größe einer Datei mit Bilderkennungsdaten ist standardmäßig auf 2 MB begrenzt.

F1 [TYPE]
Durch Betätigen dieser Taste gelangen Sie zu einem anderen iRVision-Menübildschirm.

F2 CREATE
Hiermit erstellen Sie neue Bilderkennungsdaten.
Einzelheiten finden Sie in Abschnitt 3.1.1 „Neue Bilderkennungsdaten erstellen“.

F3 EDIT
Hiermit rufen Sie den Bildschirm für die Bearbeitung von Bilderkennungsdaten auf.
Einzelheiten finden Sie in Abschnitt 3.1.5 „Bilderkennungsdaten bearbeiten“.

F4 [VTYPE]
Auswahl eines Typs von Bildbearbeitungsdaten zur Anzeige in der Liste der Bildbearbeitungsdaten.
• Camera Setup Tools (Kamera-Einstellungstools)
• Camera Calibration Tools (Kamera-Kalibrierungstools)
• Vision Process Tools (Tools für den Bilderkennungsprozess)
• Application Setup Tools (Tools für die Einrichtung von Anwendungen)

F5 [ATTR]
Auswahl eines Elements zur Anzeige in der zweiten Spalte der Liste mit Bilderkennungsdaten.
• Comment (Kommentar)
• Type (Type)
• Created (Erstellt)
• Modified (Geändert)
• Size (Größe)

F6 COPY
Erstellt eine Kopie der Bilderkennungsdaten.
Einzelheiten finden Sie in Abschnitt 3.1.3 „Bilderkennungsdaten kopieren“.

F7 DETAIL
Hiermit rufen Sie den Bildschirm mit den Details der Bilderkennungsdaten auf. Im Bildschirm mit den
Details der Bilderkennungsdaten können Sie Typ, Erstellungsdatum und -uhrzeit sowie Datum und
Uhrzeit der letzten Änderung der Bilderkennungsdaten überprüfen. Außerdem können Sie den Namen
und den Kommentar zu den Bilderkennungsdaten ändern. Einzelheiten finden Sie in Abschnitt 3.1.4
„Detailinformationen zu Bilderkennungsdaten überprüfen“.

F8 DELETE
Löscht die Bilderkennungsdaten.
Einzelheiten finden Sie in Abschnitt 3.1.2 „Bilderkennungsdaten löschen“.

- 14 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

3.1.1 Neue Bilderkennungsdaten erstellen


Zur Erstellung neuer Bilderkennungsdaten führen Sie die folgenden Schritte aus:

1 Drücken Sie F2 CREATE.

2 Wählen Sie unter [Type] den Typ der Bilderkennungsdaten für die Erstellung aus.
3 Wählen Sie unter [Name] den Namen der Bilderkennungsdaten für die Erstellung aus. Hier kann ein
Name aus bis zu 34 alphanumerischen Zeichen festgelegt werden. Der Name darf keine Leerschritte
und keine Sonderzeichen außer dem Unterstrich enthalten und muss mit einem Buchstaben
beginnen.
4 Geben Sie unter [Comment] bei Bedarf eine Zeichenfolge mit zusätzlichen Informationen über die
Bilderkennungsdaten ein. Der Kommentar darf aus bis zu 50 Ein-Byte- oder 25 Zwei-Byte-Zeichen
bestehen.
5 Drücken Sie F4 OK.

ACHTUNG
Die folgenden Namen dürfen nicht als Bezeichnungen für Bilderkennungsdaten
verwendet werden:
CON, PRN, AUX, NUL, COM1, COM2, COM3, COM4, COM5, COM6, COM7,
COM8, COM9, LPT1, LPT2, LPT3, LPT4, LPT5, LPT6, LPT7, LPT8, LPT9.

- 15 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

3.1.2 Bilderkennungsdaten löschen


Zum Löschen von Bilderkennungsdaten führen Sie die folgenden Schritte aus:
1 Wählen Sie die Bilderkennungsdaten zum Löschen aus der Liste aus.
2 Drücken Sie F8 DELETE.

3 Drücken Sie F4 OK.

3.1.3 Bilderkennungsdaten kopieren


Zum Kopieren neuer Bilderkennungsdaten führen Sie die folgenden Schritte aus:
1 Tippen Sie in der Liste auf die Bilderkennungsdaten, die Sie kopieren möchten.
2 Drücken Sie F6 COPY.

3 Geben Sie unter [Name] den Namen der Bilderkennungsdaten für das Kopierziel ein.
4 Drücken Sie F4 OK.

- 16 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

3.1.4 Detailinformationen zu Bilderkennungsdaten überprüfen


Zum Anzeigen von Detailinformationen zu Bilderkennungsdaten führen Sie die folgenden Schritte aus:

1 Tippen Sie in der Liste auf die Bilderkennungsdaten, die Sie überprüfen möchten.
2 Drücken Sie F7 DETAIL.

3 Geben Sie unter [Name] einen neuen Namen für die Bilderkennungsdaten ein, wenn Sie die Daten
umbenennen möchten.
4 Geben Sie unter [Comment] einen neuen Kommentartext ein, wenn Sie den Kommentar ändern
möchten.
5 Drücken Sie F4 OK.

- 17 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

3.1.5 Bilderkennungsdaten bearbeiten


Zum Bearbeiten von Bilderkennungsdaten führen Sie die folgenden Schritte aus:
1 Tippen Sie in der Liste auf die Bilderkennungsdaten, die Sie bearbeiten möchten.
2 Drücken Sie F3 EDIT.
Der Bildschirm zum Bearbeiten von Bilderkennungsdaten ist wie folgt aufgebaut:

A In diesem Bereich erscheint entweder die Bildanzeigesteuerung, die ein Bild der Kamera zeigt, oder
die Verzeichnisstruktur, aus der die Struktur der Bilderkennungsdaten hervorgeht. Bei Auswahl
eines Tools in der Verzeichnisstruktur werden die Einstellungselemente für das Tool in Bereich B
angezeigt. Informationen über die Verwendung der Bildanzeigesteuerung finden Sie in Abschnitt
3.7.4, „Bildanzeigesteuerung“. Einzelheiten über die Verzeichnisstruktur finden Sie in Abschnitt
3.7.5, „Verzeichnisstruktur“.
B In diesem Bereich werden die Einstellungselemente für ein Bilderkennungstool angezeigt, das in der
Verzeichnisstruktur ausgewählt wurde. Ganz oben in diesem Bereich wird der Name des
ausgewählten Bilderkennungstools angezeigt. Der Hintergrund hinter dem Namen des
Bilderkennungstools ist grün, wenn das Bilderkennungstool programmiert ist; er ist rot, wenn es
nicht programmiert ist. Einzelheiten über die Einstellungen der einzelnen Bilderkennungstools
finden Sie in Kapitel 6, „BILDERKENNUNGSPROZESS“ und Kapitel 7, „BEFEHLSTOOL”.
C In diesem Bereich wird das Testergebnis eines Bilderkennungstools angezeigt, das in der
Verzeichnisstruktur ausgewählt wurde. Dieser Bereich ist standardmäßig geschlossen, kann aber
durch Drücken des Tabs „Result“ (Ergebnis) geöffnet werden. Einzelheiten finden Sie in Kapitel 6,
„BILDERKENNUNGSPROZESS“ und Kapitel 7, „BEFEHLSTOOL”.

F1 [TYPE]
Durch Betätigen dieser Taste gelangen Sie zu einem anderen iRVision-Menübildschirm.

F2 LIVE (F2 Live-Bildanzeige)


Startet das Display des Live-Kamerabilds. Siehe hierzu auch den Abschnitt 3.7.4 „Bildanzeigesteuerung“.

F3 SNAP (F3 Bild erfassen)


Nimmt ein neues Bild mit der Kamera auf.
Siehe hierzu auch den Abschnitt 3.7.4 „Bildanzeigesteuerung“.
- 18 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

F4 FIND
Führt einen Testlauf für die Erkennung des ausgewählten Bilderkennungstools aus. Einzelheiten finden
Sie in Kapitel 6, „BILDERKENNUNGSPROZESS“ und Kapitel 7, „BEFEHLSTOOL”.

F5 END_EDIT
Beendet die Bearbeitung der Bilderkennungsdaten. Sie gelangen wieder zum Bildschirm mit der Liste der
Bilderkennungsdaten zurück. Nach dem Ändern der Bilderkennungsdaten werden Sie von einer Popup-
Meldung aufgefordert, die Speicherung der Änderungen zu bestätigen.

F6 LASER ON/OFF
Schaltet die Schlitzlaser des 3D-Vision-Sensors ein oder aus. Dieser Vorgang ist nur verfügbar, wenn es
sich bei der ausgewählten Kamera um den 3D-Laser-Vision-Sensor handelt. Siehe hierzu auch den
Abschnitt 3.7.4 „Bildanzeigesteuerung“.

F7 PLAYBACK
Schaltet in den Bildwiedergabemodus. Informationen über den Bildwiedergabemodus finden Sie in
Abschnitt 3.7.13 „Bildwiedergabe“.

F8 CONT_S+F
Führt eine fortlaufende Folge von Auslösungen und Testerkennungen durch.

F10 SAVE
Speichert die Bilderkennungsdaten.

ACHTUNG
1 Die neuen Einstellungen, die Sie durch Ändern der Inhalte auf dem Bildschirm für
die Bearbeitung von Bilderkennungsdaten vorgenommen haben, werden erst
dann gespeichert, wenn Sie die Taste F5 END_EDIT oder F10 SAVE drücken.
Sie müssen die Bilderkennungsdaten speichern, damit die neuen Einstellungen
auf den Produktionsbetrieb angewendet werden können.
2 Durch den Besuch eines anderen Menüs wie etwa DATA/REGISTER werden die
Bilderkennungsdaten nicht gespeichert. Die Bilderkennungsdaten befinden sich
noch immer in der Bearbeitungsphase, und Sie können die Daten weiter bearbeiten,
nachdem Sie den Bildschirm für die iRVision-Einstellung besucht haben.
3 Sie können jeweils nur einen Bildschirm für die Bearbeitung von
Bilderkennungsdaten gleichzeitig öffnen.
4 Der Bildschirm für die Bearbeitung von Bilderfassungsdaten kann auch während
des Produktionsbetriebs zum Abstimmen oder Ändern von Parametern geöffnet
werden. Dies gilt jedoch nicht für Operationen, die in den Produktionsbetrieb
eingreifen, wie etwa das Aufnehmen eines Bildes und das Durchführen einer
Testerkennung. Diese sind untersagt. Wenn Sie einen solchen Vorgang
durchführen möchten, aktivieren Sie das Programmiergerät oder schalten Sie in
den Modus T1/T2. Währen des Produktionsbetriebs sollte der Bildschirm für die
Bearbeitung von Bilderkennungsdaten nicht geöffnet oder offen gelassen werden.

ANMERKUNG
Wenn Sie nach der Durchführung von Änderungen die ursprünglichen Daten im
Bearbeitungsbildschirm anzeigen möchten, schließen Sie den
Bearbeitungsbildschirm durch Drücken von F5 END_EDIT, ohne F10 SAVE zu
betätigen. Sie werden aufgefordert, die Speicherung der Änderungen zu
bestätigen. Dann drücken Sie F5 CANCEL.
- 19 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

3.2 VISION RUNTIME (BILDERKENNUNGS-LAUFZEIT)


Auf dem Bildschirm „Vision Runtime“ können Sie die Ausführung von Bilderkennungsprozessen
während des Produktionsbetriebs überwachen. Das Fenster „Vision Runtime“ (Bilderkennungs-Laufzeit)
können Sie mit den folgenden Schritten aufrufen:

1 Drücken Sie MENUS am iPendant (Programmiergerät).


2 Wählen Sie [8 iRVision] und anschließend [2 Vision Runtime].
3 Auf dem iPendant erscheint der Überwachungsbildschirm „Vision Runtime“.

Drücken Sie F5 ZOOM+, um das Bild zu vergrößern.

Drücken Sie F5 ZOOM−, um wieder zu verkleinern.

- 20 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

3.3 VISION LOG (Bilderkennungsprotokoll)


iRVision kann Informationen über die Ausführung von Bilderkennungsprozessen im
Bilderkennungsprotokoll erfassen.

Bilderkennungsprotokoll aufzeichnen
Standardmäßig ist iRVision so konfiguriert, dass KEIN Bilderkennungsprotokoll aufgezeichnet wird. Um
das Bilderkennungsprotokoll zu aktivieren, lesen Sie den Abschnitt 3.4 „VISION CONFIG“.

Das Bilderkennungsprotokoll wird in der externen Speichereinheit (MC: für die Steuerung R-30iB oder
UD1: für die Steuerung R-30iB Mate aufgezeichnet. Wurde keine Speichereinheit eingeschoben, wird
kein Protokoll aufgezeichnet, auch wenn iRVision für die Aufzeichnung des Bilderkennungsprotokoll
konfiguriert wurde. Wenn der freie Speicher der Speichereinheit weniger als der angegebene Wert
(standardmäßig 2 MB) beträgt, werden ältere Bilderkennungsprotokolle gelöscht, um Platz für die
Aufzeichnung eines neuen Protokolls zu schaffen. iRVision kann nur dann Bilderkennungsprotokolle
löschen, wenn der freie Speicher der Speichereinheit weniger als der angegebene Wert beträgt. Sind
keine Bilderkennungsprotokolle zum Löschen vorhanden, wird der Alarm CVIS-130 „No free disk space
to log“ (Nicht genügend freier Speicher für Protokoll) ausgegeben und es wird kein
Bilderkennungsprotokoll aufgezeichnet.

ACHTUNG
1 Das Löschen alter Bilderkennungsprotokolle kann eine gewisse Zeit dauern.
Um dies zu vermeiden, empfiehlt es sich, Bilderkennungsprotokolle regelmäßig
zu löschen oder auf ein externes Speichermedium zu exportieren, um
sicherzustellen, dass die Speichereinheit über ausreichend freien Speicher
verfügt. Informationen über die Vorgehensweise zum Exportieren von
Bilderkennungsprotokollen auf externe Geräte oder zum Löschen von
Protokollen finden Sie in Abschnitt 10.3, „MENÜ VISION LOG“.
2 Wenn der freie Speicher einer Speichereinheit unter dem angegebenen Wert
liegt, weil andere Dateien auf die Speichereinheit geschrieben werden, versucht
die Protokollfunktion andere Bilderkennungsprotokolle zu löschen, bis der freie
Speicher größer als der erforderliche Wert für die nächste
Bilderkennungsausführung ist. In diesem Fall kann es einige Zeit dauern, bevor
die nächste Bilderkennung starten kann, falls eine große Datenmenge gelöscht
werden muss. Wenn alles auf der Speicherkarte gespeichert wird, kann ein
solcher Fall eintreten. Dies wird allerdings nicht zu Problemen führen, wenn ein
Backup bereits auf die Speicherkarte geschrieben wurde und die Größe der
Speicherkarte dem Volumen des neuen Backups entspricht.
3 Wenn Sie auf einer Speicherkarte an einer Steuerung Bilderkennungsprotokolle
gespeichert haben und dann eine Bilderkennung ausführen und diese
Speicherkarte in eine andere Steuerung einstecken, werden die
Bilderkennungsprotokolle der ursprünglichen Steuerung möglicherweise
überschrieben.
4 Beachten Sie, dass Speicherkarten oder USB-Speicher mit FAT16 formatiert
werden müssen.

Bilder protokollieren
Bilder, die von Bilderkennungsprozessen aufgenommen wurden, können zusammen mit dem
Bilderkennungsprotokoll aufgezeichnet werden. Die aufgezeichneten und gespeicherten Bilder lassen sich
für die spätere Fehlersuche verwenden sowie für Testläufe während eines Bilderfassungsprozesses.
Informationen über die Verfahrensweise zum Ausführen eines Testlaufs mit protokollierten Bildern
- 21 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

finden Sie in Abschnitt 3.7.13 „Bildwiedergabe“. Die Bilder werden als Teil des
Bilderkennungsprotokolls auf einer Speichereinheit protokolliert. Ob die Bilder im
Bilderkennungsprotokoll gespeichert werden sollen, wird für jeden Bilderkennungsprozess separat
angegeben. Wählen Sie im Bearbeitungsbildschirm für einen Bilderkennungsprozess eine der folgenden
Optionen aus:

Don’t Log (Nicht protokollieren)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Wenn Sie sich entschließen protokollierte Bilder zu speichern, können Sie die
nächste Testerkennung erst dann starten, wenn Sie die vorherige Aufzeichnung
des Bilderkennungsprotokolls beendet haben. Wählen Sie [Log All Images] nur
dann aus, wenn es für die Fehlersuche erforderlich ist. Wählen Sie
normalerweise [Don't Log] oder [Log Failed Images] aus. Die für die
Protokollierung von Bilderfassungsdaten erforderliche Zeit ist abhängig von der
Art des Bilderfassungsprozesses. Lesen Sie hierzu den Abschnitt über den
entsprechenden Bilderfassungsprozess. Die Geschwindigkeit der
Speichereinheit spielt ebenfalls eine Rolle.

ANMERKUNG
Wenn Sie auf dem Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das
Bilderkennungsprotokoll deaktiviert haben, werden protokollierte Bilder nicht
gespeichert, auch wenn Sie den Bilderkennungsprozess so konfigurieren, dass
er protokollierte Bilder speichern soll.

- 22 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

Bilderkennungsprotokoll anzeigen
Im Bildschirm „Vision Log“ (Bilderkennungsprotokoll) können Sie aufgezeichnete
Bilderkennungsprotokolle sichtbar machen. Das Fenster „Vision Runtime“ (Bilderkennungs-Laufzeit)
können Sie mit den folgenden Schritten aufrufen:

1 Drücken Sie MENUS am iPendant (Programmiergerät).


2 Wählen Sie [8 iRVision] und anschließend [Vision Log].
3 Auf dem iPendant erscheint der Bildschirm „Vision Log“.

Wählen Sie in den Dropdown-Feldern oben rechts im Bildschirm das Datum und den Namen der
Bilderkennungsdaten aus, die Sie betrachten möchten. Wenn Sie die Bilderkennungsprotokolle aller
bestehenden Daten anzeigen möchten, wählen Sie [All Data].
Die Bilderkennungsprotokolle der zum ausgewählten Datum aufgezeichneten Bilderkennungsdaten
werden rechts im Bildschirm angezeigt. Tippen Sie rechts im Bildschirm auf eine Zeile in der Liste. Die
Liste im unteren Teil des Bildschirms zeigt die detaillierten Ergebnisse der ausgewählten Ausführung an.
Falls ein Bild während dieser Ausführung gespeichert wurde, wird das gespeicherte Bild im Teil oben
links angezeigt.

Dateikonfiguration des Bilderfassungsprotokolls


Standardmäßig wird das Bilderkennungsprotokoll im Ordner MC:/VISION/LOG/ abgelegt. Für jeden Tag
wird unter diesem Ordner ein entsprechender Unterordner erstellt. Dort werden das
Bilderkennungsprotokoll und die Bilder des jeweiligen Tages gespeichert. Beispiel:
MC:/VISION/LOG/Y12APR10/
ist der Unterordner für den 10. April 2012.

Im Unterordnern des Unterordners für den jeweiligen Tag werden drei Arten von Dateien gespeichert.

.VL Protokollierte Datendatei


.PNG Protokollierte Bilddatei (Grafik)

ACHTUNG
Wurde der Dateiname, der Ordnername oder die Ordnerstruktur geändert, wird
die Korrespondenz zwischen den protokollierten Daten und dem protokollierten
Bild inkorrekt und die Datei kann möglicherweise nicht verwendet werden. Daher
darf die Ordnerstruktur und der Dateiname nicht geändert werden, wenn Sie
diese auf ein anderes Gerät kopieren.
- 23 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

3.4 VISION CONFIG (Bilderkennungskonfiguration)


Im Bildschirm „Vision Config“ können Sie die Systemvariablen einrichten, die sich auf iRVision
beziehen. Das Fenster „Vision Config“ (Bilderkennungskonfiguration) können Sie mit den folgenden
Schritten aufrufen:

1 Drücken Sie MENUS am iPendant (Programmiergerät).


2 Wählen Sie [8 iRVision] und anschließend [4 Vision Config].
3 Auf dem iPendant erscheint der Bildschirm „Vision Config“.

Disable Runtime Display (Laufzeitanzeige deaktivieren)


Wenn diese Option aktiviert ist, führt das System keine Verarbeitung durch, die sich auf die Anzeige der
Bilderkennungslaufzeit bezieht, und der Bildschirm mit der Bilderkennungslaufzeit zeigt keinerlei
Informationen an. Der Netzwerkverkehr sowie die für die Bilderkennungsverarbeitung erforderliche Zeit
werden reduziert. Standardmäßig ist diese Option deaktiviert.

- 24 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

Runtime Display Buffer Size (Puffergröße für Laufzeitanzeige)


Die Puffergröße für Bilder, die im Bildschirm „Vision Runtime “ angezeigt werden sollen, wird aus den
folgenden beiden Elementen ausgewählt.

640 x 512
Diese Größe wird als Standardeinstellung gewählt. Wenn ein Kamerabild diese Größe überschreitet,
wird das Bild verkleinert, damit es in den Puffer passt, und im Bildschirm „Vision Runtime“
angezeigt.

1280 x 1024
Die Puffergröße wird mit der vierfachen Standardgröße konfiguriert. Wenn Sie eine Digitalkamera
verwenden und einen Kameramodus auswählen, der größer als 640 x 480 Pixel ist, können die unter
„Vision Runtime“ angezeigten Bilder eine hohe Auflösung haben. Die Auflösung der auf dem
iPendant angezeigten Bilder darf allerdings nicht höher sein als das Display des iPendant selbst.

ACHTUNG
Bei Auswahl von „1280 x1024“ als Puffergröße erhöht sich die
Speicherauslastung um etwa 2 MB. Bitte überprüfen Sie den verfügbaren
Speicherplatz des temporären Pools, bevor Sie den Modus „1280 x 1024“
auswählen.

Disable Images for iRConnect (Bilder für iRConnect deaktivieren)


Wenn diese Option aktiviert ist, führt das System keine Verarbeitung durch, die sich auf die Speicherung
von Bildern mit der iRConnect-Funktion bezieht. Die Bilder werden nicht an Ihr Mobilgerät gesendet.
Der Netzwerkverkehr sowie die für die Bilderkennungsverarbeitung erforderliche Zeit werden reduziert.
Standardmäßig ist diese Option deaktiviert.

iRConnect Image Buffer Size (Bilder-Puffergröße für iRConnect)


Die maximale Größe für Bilder, die über die iRConnect-Funktion an Ihr Mobilgerät gesendet werden
sollen, wird aus den folgenden Optionen ausgewählt.

640 x 512
Diese Größe wird als Standardeinstellung gewählt. Wenn ein Kamerabild diese Größe überschreitet,
wird das Bild verkleinert, damit es diese Größe unterschreitet. Anschließend wird es an Ihr
Mobilgerät gesendet.

1280 x 1024
Wenn Sie eine Digitalkamera verwenden und einen Kameramodus auswählen, der größer als
640 x 480 Pixel ist, können die an Ihr Mobilgerät gesendeten Bilder eine hohe Auflösung haben.
Diese Option ist nur verfügbar, wenn die Puffergröße der Laufzeitanzeige (Runtime Display Buffer
Size) auf „1280 x 1024“ gesetzt wurde.

ACHTUNG
Bei Auswahl von „1280 x1024“ als Puffergröße erhöht sich die
Speicherauslastung um etwa 2 MB. Bitte überprüfen Sie den verfügbaren
Speicherplatz des temporären Pools, bevor Sie den Modus „1280 x 1024“
auswählen.

- 25 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

Decimal Comma (Komma als Dezimaltrenner)


Wenn diese Option aktiviert ist, wird ein Komma (,) anstelle des Dezimalpunkts (.) verwendet.
Diese Option wird für Nutzer in Europa bereitgestellt. Standardmäßig ist diese Option deaktiviert.

Enable Logging (Protokollierung aktivieren)


Wenn diese Option nicht aktiviert ist, führt das System keine Verarbeitung durch, die sich auf die
Speicherung des Bilderkennungsprotokolls oder protokollierter Bilder bezieht. Standardmäßig ist diese
Option deaktiviert. Um das Bilderkennungsprotokoll zu aktivieren, setzen Sie hier ein Häkchen.

Log Path (Protokollpfad)


Diese Option wird zur Angabe des Zielordners für das Bilderkennungsprotokoll oder die protokollierten
Bilder verwendet. Die verfügbaren Speichereinheiten für das Bilderkennungsprotokoll sind die
Speicherkarte (Memory Card, MC:) und der USB-Speicher (UD1:) sowie PC Share (C1:).
Der Standardpfad für R-30iB lautet „MC:/VISION/LOG“ und für R-30iB Mate „UD1:/VISION/LOG“.

Data Path (Datenpfad)


Diese Option wird zur Angabe des Zielordners für Bilderkennungsdaten verwendet.
Diese Option wird nur angezeigt und kann nicht geändert werden.

Model Train File Path (Dateipfad für Modellprogrammierung)


Diese Option wird zur Angabe des Zielordners für die Speicherung von Modellprogrammierungsdateien
und Bilddateien in Verbindung mit der External Model Train-Funktion (Externe Modellprogrammierung)
verwendet. Diese Option wird nur angezeigt und kann nicht geändert werden. Weitere Informationen über
die External Model Train-Funktion finden Sie in Abschnitt 9.4.4 „IRVTRAIN“.

Allow test run in production (Testlauf in Produktion zulassen)


Der Bildschirm für die Bearbeitung von Bilderkennungsdaten kann auch während des
Produktionsbetriebs aufgerufen werden, nämlich dann, wenn das Programmiergerät deaktiviert ist und
sich die Steuerung im AUTO-Modus befindet. Vorgänge, die jedoch den Produktionsbetrieb
beeinträchtigen (z. B. ein Bild aufnehmen, eine Testerkennung durchführen usw.) sind auf dem
Bearbeitungsbildschirm während des Produktionsbetriebs untersagt. Wenn diese Option aktiviert ist,
dürfen Sie solche Operationen während des Produktionsbetriebs durchführen.

ACHTUNG
Durch das Aufnehmen eines Bildes oder das Durchführen eines Tests während
des Produktionsbetriebs kann sich die Zykluszeit verlängern, das System kann
aufgrund von Speicherproblemen angehalten werden oder Ähnliches.

Plot 4D Graphics during RUN_FIND (4D-Grafik bei RUN_FIND plotten)


Ist diese Option aktiviert, werden die Kalibrierungsdaten und gefundenen Ergebnisse auf dem Bildschirm
„4D Display“ angezeigt, wenn RUN_FIND aus einem Anwendungsprogramm aufgerufen wird.
Diese Option ist standardmäßig deaktiviert, da sie sich auf die Zykluszeit auswirken kann.

- 26 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

3.5 BILDERKENNUNGSDATEN SICHERN


Die Bilderkennungsdaten werden als Teil der Roboterdaten (wie Programme) angesehen. Daher werden
Sicherung und Wiederherstellung von Bilderkennungsdaten als Roboterdaten betrachtet.

3.5.1 Bilderkennungsdaten sichern


Bilderkennungsdaten werden gespeichert, wenn im Menü FILE auf dem Programmiergerät des Roboters
die Option „All of the Above“ (Alle Möglichkeiten) ausgewählt wird. Einzelheiten hierzu finden Sie im
„BEDIENUNGSHANDBUCH der Steuerung R-30iB/R-30iB Mate – Basisbetrieb“.

3.5.2 Bilderkennungsdaten wiederherstellen


Bilderkennungsdaten lassen sich auf zweierlei Weise wiederherstellen. Eine Möglichkeit besteht darin,
alle Bilderkennungsdaten gemeinsam mit anderen Roboterdaten beim kontrollierten Start (Controlled
Start) wiederherzustellen. Die andere besteht darin, einen bestimmten Teil der Bilderkennungsdaten über
das Menü FILE wiederherzustellen. Um bestimmte Bilderkennungsdaten wiederherzustellen, rufen Sie
eine Liste von Dateien mit der Erweiterung VD auf und geben die Datei für die Wiederherstellung an.
Einzelheiten zur Vorgehensweise finden Sie im „BEDIENUNGSHANDBUCH der Steuerung
R-30iB/R-30iB Mate – Basisbetrieb“.

3.6 KOMMUNIKATION ZWISCHEN DEN STEUERUNGEN


iRVision kommuniziert in den folgenden Fällen mit einer anderen Robotersteuerung:
• Visual-Tracking-System, in das mehrere Roboter eingebunden sind
• Kfz-Karosserie-Kompensationssystem, in dem mehrere Roboter denselben Bilderkennungs-Offset
verwenden
• Robotersystem, in dem eine Kamera auf einem Roboter montiert ist, der wiederum an eine weitere
Steuerung angeschlossen ist
• Robotersystem, in dem eine Kamera-Kalibrierungsplatte von einem Roboter gehalten wird, der
wiederum an eine weitere Steuerung angeschlossen ist

Bei dieser Kommunikation zwischen mehreren Steuerungen wird die Funktion


„ROS Interface Packet over Ethernet (RIPE)“ verwendet.
Einzelheiten über die RIPE-Funktion finden Sie im „Bedienungshandbuch für die Steuerung
R-30iA/R-30iA Mate/R-30iB/R-30iB Mate – Ethernet-Funktion“.

- 27 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

3.7 HÄUFIG VERWENDETE OPERATIONEN


In diesem Abschnitt werden während der Konfiguration von iRVision häufig verwendete Operationen
beschrieben.
3.7.1 Textfeld
In ein Textfeld wird entweder ein Wert oder eine Zeichenfolge eingetragen.

1 Tippen Sie auf ein Textfeld.


2 Numerische Werte werden über die Festfunktionstasten für Werte auf dem iPendant eingegeben.
3 Texte werden über die Softwaretastatur eingegeben.

Wenn Sie auf ein Textfeld für eine Textfolge tippen, so erscheint automatisch die Softwaretastatur auf
dem Bildschirm des iPendant. Dies sieht folgendermaßen aus:

C A

B
A Eingabetasten.
B Cursortasten und Leertaste.
C Wechseltasten für Eingabetasten.
Wenn Sie auf [abc] tippen, können Sie Ein-Byte-Zeichen eingeben. Wenn Sie auf [123] tippen,
können Sie numerische Zeichen oder Sonderzeichen (z. B. @, #, $, %) eingeben.

Zur Beendigung der Eingabe tippen Sie auf [Exit].


Weitere Informationen über die Softwaretastatur finden Sie im
„BEDIENUNGSHANDBUCH der Steuerung R-30iB/R-30iB Mate – Basisbetrieb“.

- 28 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

3.7.2 Dropdown-Feld
Ein Element wird aus mehreren Optionen ausgewählt.

1 Tippen Sie auf ein Dropdown-Feld.


2 Wählen Sie das gewünschte Element aus den angezeigten Optionen aus.

3.7.3 Listenansicht
Eine Listenansicht ist eine Tabelle, in der gefundene Ergebnisse und andere Daten aufgeführt sind.

1 Wenn Sie auf eine Spaltenüberschrift tippen, wird der Inhalt der betreffenden Spalte nach den
Werten der Spalte sortiert.
2 Wenn Sie auf eine Tabellenzeile tippen, wird die ausgewählte Zeile hervorgehoben.

3.7.4 Bildanzeigesteuerung
Hier wird ein Bild angezeigt.

- 29 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

Live-Kamerabild anzeigen
Hier wird ein Live-Kamerabild angezeigt.
Diese Ansicht wird beim Durchführen von Kamera- und Objektiveinstellungen verwendet.

1 Drücken Sie zum Starten der Anzeige des Live-Bildes F2 LIVE.


2 Um die Anzeige des Live-Bildes zu stoppen, drücken Sie F2 STOP.

ACHTUNG
Während der Anzeige des Live-Kamerabilds kann keine weitere Operation
durchgeführt werden. Die Anzeige des Live-Kamerabilds muss gestoppt werden,
bevor eine weitere Operation gestartet werden kann.

Bild aufnehmen
Ein Bild wird mit der Kamera aufgenommen.

1 Drücken Sie F3 SNAP.

Laser des 3D-Lasersensors ein-/ausschalten


Der Laser des dreidimensionalen Lasersensors wird ein- oder ausgeschaltet.
1 Drücken Sie F6 Laser ON.
2 Durch Drücken der Taste F6 Laser OFF wird der Laser ausgeschaltet.

ANMERKUNG
Die Taste F6 LASER ON/OFF ist nur verfügbar, wenn sich die
Bilderkennungsdaten auf den dreidimensionalen Lasersensor beziehen.

Bild in einer Datei speichern


Das aktuell in der Bildanzeigesteuerung dargestellte Bild wird auf eine Speicherkarte oder einen
USB-Speicher in der Robotersteuerung gespeichert.

Alle Bilder werden im PNG-Format gespeichert.


Ein Bild im Format PNG kann mit dem Windows Photo Viewer dargestellt werden.

1 Tippen Sie auf die Taste . Das folgende Dialogfeld wird angezeigt.

- 30 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB
2 Wählen Sie das Ziellaufwerk und den Ordner in der Verzeichnisstruktur aus.
3 Geben Sie den Dateinamen des Ziels in das Textfeld [File] ein.
4 Drücken Sie F4 OK.

ACHTUNG
Das aktuell in der Bildanzeigesteuerung dargestellte Bild wird gespeichert. Das
Bild wird ohne Grafik gespeichert.

Bilddatei laden
Eine Bilddatei wird von einer Speicherkarte oder einem USB-Speicher der Robotersteuerung geladen.
Nach dem Laden kann das Bild für das Einrichten des Bilderkennungsvorgangs und zum Testen
verwendet werden Bilddateien der Formate BMP oder PNG können geladen werden.

1 Tippen Sie auf die Taste . Das folgende Dialogfeld wird angezeigt.

2 Wählen Sie in der Verzeichnisstruktur das Laufwerk und den Ordner aus, der die zu ladende
Bilddatei enthält.
4 Wählen Sie in der Liste [File] eine Datei zum Laden aus.
5 Drücken Sie F4 OK. Die geladene Bilddatei erscheint in der Bildanzeigesteuerung.

ANMERKUNG
Abhängig von den Einstellungen in Ihrem Bilderkennungsprozess steht die
Testerkennung eines Bildes, das aus einer Bilddatei geladen wurde,
möglicherweise nicht zur Verfügung, wenn weitere Informationen wie
beispielsweise die Position des Roboters, an dem die Kamera montiert ist, oder
Laserbilder für den 3DL-Sensor usw. benötigt werden. In diesen Fällen weist ein
Alarm darauf hin, dass die Testerkennung nicht zur Verfügung steht. Um einen
solchen Bilderkennungsprozess zu testen, verwenden Sie protokollierte Bilder.
Einzelheiten finden Sie in Abschnitt 3.7.13 „Bildwiedergabe“.

- 31 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

Zoom-Stufe
Das Dropdown-Feld „Zoom Level“ (Zoom-Stufe) wird verwendet, um das Bild in der Anzeige zu
vergrößern.

Folgende Zoom-Stufen sind verfügbar:


• 12,5 %
• 25 %
• 33,3 %
• 50 %
• 100 %
• 200 %
• 400 %
• 800 %

Bild scrollen
Wenn ein Bild nicht in den Anzeigebereich hineinpasst, werden Bildlaufleisten in der
Bildanzeigesteuerung angezeigt.

1 Tippen Sie auf die Bildlaufleiste rechts oder unterhalb des Bildes, und verschieben Sie die Leiste
vertikal oder horizontal. Sie können auch eine Wischbewegung auf dem Bedienfeld des iPendant
ausführen.

Bildanzeigesteuerung maximieren
Die Größe der Bildanzeigesteuerung lässt sich maximieren.

1 Tippen Sie auf die Taste , um das Bild zu maximieren.


2 Tippen Sie auf die Taste , um das Bild wieder zu verkleinern.

Mittellinie anzeigen
In der Bildanzeigesteuerung kann die Mittellinie des Bildes angezeigt werden.

1 Tippen Sie auf die Taste , um die Mittellinie anzuzeigen.


2 Tippen Sie auf die Taste , um den Vorgang rückgängig zu machen.

- 32 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

3.7.5 Verzeichnisstruktur
Die Verzeichnisstruktur zeigt den Aufbau der Bilderkennungsdaten.

In der oben dargestellten Abbildung enthält der zweidimensionale Bilderkennungsprozess mit


Einzelansicht beispielsweise zwei GPM Locator Tools. Unter „GPM Locator Tool 1“ existiert ein
Histogram Tool und ein Conditional Execution Tool (Tool für bedingte Ausführung). Die Elemente, aus
denen ein Bilderkennungsprozess besteht, wie etwa die GPM Locator Tools, das Histogram Tool und das
Conditional Execution Tool werden als Befehlstools bezeichnet.

Bei der Ausführung eines Bilderkennungsprozesses werden seine Befehlstools sequenziell von oben nach
unten ausgeführt, und zum Schluss berechnet der Bilderkennungsprozess die Offset-Daten.

Das Messfenster eines Befehlstools wie etwa das „Histogram 1“, das sich unter dem „GPM Locator Tool
1“ befindet, wird dynamisch entsprechend der Position des vorgefundenen Werkstücks von GPM Locator
Tool 1 versetzt und gedreht.

Eines der in der Verzeichnisstruktur angezeigten Tools ist immer hervorgehoben. Dies ist das Tool, das
aktuell im Einrichtungsfenster ausgewählt ist, und das Einrichten und Testen kann für dieses Tool
erfolgen.

Die Farbe jedes Tools in der Verzeichnisstruktur zeigt den Einrichtungsstatus des Tools an. Wenn ein
Tool in Grün angezeigt wird, wurde der Einrichtungsvorgang für dieses Tool abgeschlossen. Wird ein
Tool in Rot angezeigt, benötigt mindestens ein Element noch eine Einrichtung. Wenn alle Tools eines
Bilderkennungsprozesses in Grün angezeigt werden, ist der Bilderkennungsprozess vollständig
eingerichtet.

Tool auswählen
Wählt das Tool zum Einrichten aus.

1 Tippen Sie auf das Symbol oder den Namen eines Tools in der Verzeichnisstruktur.
2 Das angetippte Tool wird hervorgehoben, und die entsprechende Seite mit den Einstellungen sowie
die Testseite werden angezeigt.

- 33 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

Tool hinzufügen
Ein neues Befehlstool wird zu den Bilderkennungsdaten hinzugefügt.

1 Wählen Sie ein übergeordnetes Tool (eine Ebene höher) aus, unter dem ein neues Tool eingefügt
werden soll.
2 Tippen Sie auf die Taste .

3 Unter [Type] wählen Sie den Typ des einzufügenden Befehlstools aus.
4 Unter [Name] geben Sie den Namen des einzufügenden Befehlstools ein.
5 Drücken Sie F4 OK.

Tool löschen
Ein Befehlstool wird aus einem Bilderkennungsprozess gelöscht.
1 Wählen Sie das zu löschende Befehlstool aus.
2 Tippen Sie auf die Taste .

3 Drücken Sie F4 OK.

- 34 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

ACHTUNG
Nach dem Löschen eines Befehlstools kann das Tool nicht wiederhergestellt
werden. Wird ein Befehlstool versehentlich gelöscht, beenden Sie den
Bearbeitungsvorgang ohne zu speichern. Dann öffnen Sie den
Bearbeitungsbildschirm für die Bilderkennungsdaten erneut und beginnen von
vorn unter Verwendung der ursprünglichen Bilderkennungsdaten.

Tool kopieren
Eine Kopie eines Befehlstools wird in den aktuellen Bilderkennungsdaten erstellt.

1 Wählen Sie das zu kopierende Befehlstool aus.


2 Tippen Sie auf die Taste .

3 Geben Sie unter [Name] den Namen des Ziels für die Kopie ein.
4 Drücken Sie F4 OK.

- 35 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

Tool umbenennen
Der Name eines Befehlstools wird in den aktuellen Bilderkennungsdaten geändert.

1 Wählen Sie das Tool zum Umbenennen aus.


2 Tippen Sie auf die Taste .

3 Geben Sie einen neuen Namen für das Tool ein.


4 Drücken Sie F4 OK.

ANMERKUNG
Der Name des Tools der obersten Ebene (Bilderkennungsprozess) wird
ebenfalls im Kommentarfeld dieses Bilderkennungsprozesses auf der Listenseite
des Haupt-Bilderkennungsprozesses angezeigt.

Reihenfolge von Tools ändern


Die Reihenfolge eines Befehlstools wird geändert, wodurch sich die Ausführungsreihenfolge ändert.

1 Wählen Sie ein Befehlstool aus, dessen Reihenfolge geändert werden soll.
2 Um das Befehlstool nach oben zu schieben, tippen Sie auf die Taste .
3 Um das Befehlstool nach unten zu schieben, tippen Sie auf die Taste .

ANMERKUNG
Es ist nicht möglich, die Ebene eines Befehlstools innerhalb der
Verzeichnishierarchie zu ändern.

- 36 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

3.7.6 Ergebnisansicht
Die Ergebnisansicht (Results) zeigt die Ergebnisse des Bilderkennungsprozesses oder des Befehlstools
an.

Standardmäßig ist die Ergebnisansicht ausgeblendet. Sie können die Ergebnisansicht einblenden, indem
Sie auf die Taste des Tabs „Results“ tippen. Nach erneutem Antippen der Taste wird der
Anzeigebereich der Ergebnisansicht eingeblendet. Tippen Sie auf die Taste , um die Ergebnisansicht zu
schließen.

3.7.7 Tabs
Wenn Einstellungselemente nicht in ein Fenster hineinpassen, ändert sich die Bildschirmanzeige und
zeigt Registerkarten, auch Tabs genannt.

Im obigen Beispiel sehen Sie die drei Tabs [Setup], [Data] und [Points]. Der weiße Tab mit der schwarzer
Schrift, also [Setup] ist aktuell ausgewählt. Wenn Sie zu einem anderen Tab wechseln möchten, tippen
Sie auf einen Tab in einer helleren Farbe.

- 37 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

3.7.8 Punkte festlegen


Positionen wie etwa der Modellursprung werden grafisch auf einem Bild festgelegt.

1 Wenn die Taste für das Festlegen eines Punkts im Einrichtungsfenster für ein Tool angetippt wird,
ändert sich die Anzeige der Bildanzeigesteuerung wie folgt:

2 Tippen Sie auf die Position des Punktes, den Sie auf dem Bild konfigurieren möchten.
3 Justieren Sie die Position des Symbols mithilfe der Cursortasten auf dem iPendant.
Oder tippen auf die Position, zu der Sie das Symbol auf dem Bild positionieren möchten.
4 Wenn Sie die Position des Symbols wieder auf die Standardposition zurücksetzen möchten,
drücken Sie F1 RESET.
5 Um den vorherigen Vorgang rückgängig zu machen, drücken Sie F2 UNDO.
6 Zum Abschließen der Einstellung drücken Sie F4 OK.
7 Zum Abbrechen der Einstellung drücken Sie F5 CANCEL.

ANMERKUNG
Beim Festlegen von Punkten haben Sie auch die Möglichkeit, das Bild
größer/kleiner zu zoomen und zu scrollen, um den Vorgang zu vereinfachen.

- 38 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

3.7.9 Fenster einrichten


Ein Fenster wie etwa der Suchbereich wird grafisch auf dem Bild festgelegt.

1 Wenn die Taste für das Festlegen eines Bereichs im Einrichtungsfenster für ein Tool angetippt wird,
ändert sich die Anzeige der Bildanzeigesteuerung wie folgt:

2 Position und Größe des Fensters werden durch Verschieben der Steuerungspunkte gesteuert. Wie
unten dargestellt, besitzt ein Fenster 9 Steuerungspunkte. Die Position des Fensters lässt sich durch
Verschieben von Steuerungspunkt 5 ändern. Die Fenstergröße lässt sich durch Verschieben der
Steuerungspunkte 1 bis 4 und 6 bis 9 ändern. Ein Steuerungspunkt wird als kleines ausgefülltes
Quadrat dargestellt. Das doppelte Quadrat wird auf dem ausgewählten Steuerungspunkt
eingeblendet. In der Abbildung unten ist Steuerungspunkt 5 ausgewählt. Beim Antippen einer
beliebigen Position auf dem Bild bewegt sich der ausgewählte Steuerungspunkt auf die angetippte
Position. Wird ein Steuerungspunkt außer dem ausgewählten Punkt angetippt, wird der neu
angetippte Punkt ausgewählt.

3 Um die Position des Fensters zu verschieben, wählen Sie Steuerungspunkt 5 an und tippen Sie auf
die Position, zu der Sie den Steuerungspunkt auf dem Bild verschieben möchten.
4 Um die Größe des Fensters zu ändern, wählen Sie einen der Steuerungspunkte 1 bis 4 bzw. 6 bis 9
aus und tippen Sie auf die Position, zu der Sie den Steuerungspunkt auf dem Bild verschieben
möchten.
5 Wenn Sie Größe und Position auf die ursprünglichen Werte zurücksetzen möchten, drücken Sie F1
RESET.
6 Um den vorherigen Vorgang rückgängig zu machen, drücken Sie F2 UNDO.
7 Zum Abschließen der Fenstereinstellung drücken Sie F4 OK.
8 Zum Abbrechen der Fenstereinstellung drücken Sie F5 CANCEL.

- 39 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

ANMERKUNG
1 Beim Einrichten von Fenstern haben Sie auch die Möglichkeit, das Bild
größer/kleiner zu zoomen und zu scrollen, um den Vorgang zu vereinfachen.
2 Sie können den Steuerungspunkt auch mit den Hardware-Tasten auf dem
iPendant auswählen oder verschieben.

Bei manchen Tools wie dem „Histogram Tool“ und dem „Edge Pair Locator Tool“ lässt sich das
rechteckige Fenster drehen. In diesem Fall sehen Sie eine zusätzliche horizontale Linie, die aus dem
rechteckigen Fenster hervorragt, wie unten dargestellt. An der Spitze der zusätzlichen Linie befindet sich
der Steuerungspunkt für die Drehung. Sie können das rechteckige Fenster drehen, indem Sie den
Steuerungspunkt auswählen und bewegen.

- 40 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

3.7.10 Maskenbearbeitung
Masken werden grafisch auf dem Bild bearbeitet.

1 Wenn die Taste für das Bearbeiten von Masken im Einrichtungsfenster für ein Tool angetippt wird,
ändert sich die Anzeige der Bildanzeigesteuerung wie folgt:

ANMERKUNG
1 Maskierte Teile werden rot ausgefüllt. Wenn die Maskenbearbeitung zum ersten
Mal durchgeführt wird, beginnen Sie mit der Anzeige, in der kein roter Teil
vorhanden ist.
2 Im Fenster für die Maskenbearbeitung haben Sie auch die Möglichkeit, das Bild
größer/kleiner zu zoomen und zu scrollen, um den Vorgang zu vereinfachen.

- 41 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

Polygonale Linien zeichnen


Eine Maske mit Polylinien wird gezeichnet.

1 Tippen Sie auf die Taste .


2 Wählen Sie mithilfe des Dropdown-Feldes für den Stift die Stiftstärke aus drei möglichen
Einstellungen „Thin“ (Dünn), „Medium“ (Mittel) und „Thick“ (Dick) aus.
3 Tippen Sie nacheinander auf die Scheitelpunkte auf dem Bild.
4 Wenn der erste Scheitelpunkt der polygonalen Linien angetippt wird, schließen sich die Polylinien
und es entsteht ein Polygon. Die Scheitelpunkte des Polygons werden zu Steuerungspunkten.
Die Steuerungspunkte können ausgewählt und in ähnlicher Weise bewegt werden wie in Abschnitt
3.7.9 „Fenster einrichten“ beschrieben.

5 Wenn Sie F3 DRAW drücken, wird die Maske in der Form der konfigurierten Polylinien gezeichnet.
6 Wenn Sie F4 ERASE drücken, wird die Maske entlang der konfigurierten Polylinien gelöscht.

- 42 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

Rechteck zeichnen
Ein ausgefülltes Rechteck wird gezeichnet.

1 Tippen Sie auf die Taste .


2 Tippen Sie auf eine beliebige Position auf dem Bild, daraufhin erscheint ein Rechteck.

3 Ein Rechteck besitzt 9 Steuerungspunkte und kann in ähnlicher Weise bewegt werden wie in
Abschnitt 3.7.9 „Fenster einrichten“ beschrieben.
4 Wenn Sie F3 DRAW drücken, wird die Maske in Rechteckform gezeichnet.
5 Wenn Sie F4 ERASE drücken, wird die Maske in Rechteckform gelöscht.

- 43 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

Kreis oder Ellipse zeichnen


Ein ausgefüllter Kreis oder eine Ellipse wird gezeichnet.

1 Tippen Sie auf die Taste .


2 Tippen Sie auf eine beliebige Position auf dem Bild, daraufhin erscheint eine Ellipse.

3 Eine Ellipse besitzt 5 Steuerungspunkte und kann in ähnlicher Weise bewegt werden wie in
Abschnitt 3.7.9 „Fenster einrichten“ beschrieben.
4 Wenn Sie F3 DRAW drücken, wird die Maske in der Form der Ellipse gezeichnet.
5 Wenn Sie F4 ERASE drücken, wird die Maske in Ellipsenform gelöscht.

- 44 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

Geschlossene Fläche füllen


Eine geschlossene Fläche wird gefüllt.

1 Tippen Sie auf die Taste .


2 Tippen Sie auf die Position im Bild, an der eine Fläche gefüllt werden soll.

ANMERKUNG
Wenn die angetippte Fläche nicht vollständig von einer roten Linie umgeben ist,
wird das gesamte Bild gefüllt. Wenn Sie also Freihandzeichnungen anfertigen
oder mit Polylinien arbeiten, achten Sie darauf, dass die Umrisslinie geschlossen
ist.

Geschlossene Fläche aufdecken


Eine geschlossene Fläche wird aufgedeckt.

1 Tippen Sie auf die Taste .


2 Tippen auf die Position im Bild, an der eine Fläche aufgedeckt werden soll.

Gesamtes Bild füllen


Das gesamte Bild wird gefüllt.

1 Tippen Sie auf die Taste [Mask All].

Gesamtes Bild aufdecken


Das gesamte Bild wird aufgedeckt.

1 Tippen Sie auf die Taste [Unmask All].

Rückgängig machen
Die zuletzt durchgeführte Operation wird rückgängig gemacht, und der vorherige Zustand wird
wiederhergestellt.

1 Drücken Sie F2 UNDO.

Bearbeitung beenden
Die Maskenbearbeitung wird beendet.

1 Zum Abschließen der Maskenbearbeitung drücken Sie F4 OK.


2 Zum Abbrechen der Maskenbearbeitung drücken Sie F5 CANCEL.

- 45 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

3.7.11 Belichtungsmodus einstellen


Die meisten Bilderkennungsprozesse, außer einigen Prozessen wie Visual Tracking, unterstützen
Bildaufnahmefunktionen, die als Belichtungsautomatik und Mehrfachbelichtung bezeichnet werden,
sowie herkömmliche Bildaufnahmen, bei denen eine bestimmte Belichtungszeit verwendet wird. Die
Bilderkennungsprozesse verwenden dieselbe Benutzeroberfläche, um einen Belichtungsmodus
festzulegen.

Belichtungsmodus
Ein Belichtungsmodus wird ausgewählt.

Fixed (Fest)
Es wird stets eine bestimmte Belichtungszeit für die Bildaufnahme verwendet.

Auto (Automatisch)
Hier wird eine Belichtungszeit automatisch für die Bildaufnahme ausgewählt, die abhängig ist von
der Helligkeit der Umgebung, die sich ab und zu ändert. Durch vorheriges Speichern eines
Referenzbildes wird eine passende Belichtungszeit gewählt, sodass das aufgenommene Bild dieselbe
Helligkeit aufweist wie das Referenzbild.

Exposure Time (Belichtungszeit)


Diese Option wird auch als elektronische Verschlusszeit bezeichnet. Wird unter [Exposure Mode] die
Option [Fixed] angegeben, müssen Sie eine Belichtungszeit angeben. Wird unter [Exposure Mode] die
Option [Auto] angegeben, kann dieses Element nicht geändert werden und die Belichtungszeit wird von
der Software bestimmt, wenn das zuletzt aufgenommene Bild angezeigt wird.

Auto Exposure Area (Bereich für automatische Belichtung)


Geben Sie den fotometrischen Bereich für die Belichtungsautomatik an. Das Bild, das während der
Festlegung des fotometrischen Bereichs angezeigt wird, wird als Referenzbild für die
Belichtungsautomatik verwendet.

Führen Sie die folgenden Schritte durch, um den fotometrischen Bereich festzulegen:

1 Wählen Sie unter [Exposure Mode] die Option [Fixed] aus.


2 Passen Sie die Belichtungszeit an, um die geeignete Helligkeit für das Bild zu erhalten.
3 Wählen Sie unter [Exposure Mode] die Option [Auto] aus.
4 Wird unter [Auto Exposure Area] [Not trained] angegeben, öffnet sich das Fenster zur Festlegung
des fotometrischen Bereichs. Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9
„Fenster einrichten“. Wird [Trained] angegeben, tippen Sie auf die Taste [Train], um den
fotometrischen Bereich festzulegen.
5 Wenn eine Fläche innerhalb des fotometrischen Bereichs ignoriert werden soll, tippen Sie auf die
Taste [Mask], um die zu ignorierende Fläche zu maskieren (verbergen). Informationen zum
Festlegen einer Maske finden Sie in Abschnitt 3.7.10, „Maskenbearbeitung“.

- 46 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

ANMERKUNG
1 Im [Auto Exposure Mode] (Belichtungsmodus Auto) kann eine vollständig weiße
oder schwarze Fläche des Bildes nicht spezifiziert werden.
Legen Sie eine Fläche in Graustufen als fotometrischen Bereich fest.
2 Bereiche, die große Helligkeitsänderungen aufweisen, eignen sich nicht für
[Auto Exposure Area]. Beispiel: In einem Bereich, in dem sich ein Werkstück
befindet, ist es nicht möglich, stabile Messungen vorzunehmen, weil die
sichtbare Helligkeit sich stark verändert, je nachdem, ob das Werkstück
vorhanden ist oder nicht. Wählen Sie stattdessen einen Hintergrundbereich.

Auto Exposure Adjust (Automatische Belichtung anpassen)


Hier lassen sich Feineinstellungen für die Belichtungsautomatik vornehmen, um geringfügig hellere oder
dunklere Bilder als das eingestellte Referenzbild zu erhalten. Ein Wert zwischen -5 und +5 kann
ausgewählt werden. Steigt der Wert in positiver Richtung, werden aufgenommene Bilder heller. Fällt der
Wert in negativer Richtung, werden die aufgenommenen Bilder dunkler.

Number of Exposure (Anzahl von Belichtungen)


Die Mehrfachbelichtungsfunktion nimmt mehrere Bilder auf, indem sie die Belichtungszeit ändert und
diese Bilder miteinander kombiniert, um ein Bild mit einem breiten dynamischen Bereich zu erzeugen.
Geben Sie die Anzahl der Bilder an, die aufgenommen werden sollen.
Ein Wert von 1 bis 6 kann hier angegeben werden. Je mehr Bilder aufgenommen werden, desto größer
wird der Dynamikbereich, aber für die Aufnahme der Bilder wird mehr Zeit benötigt.

Multi Exposure Area (Bereich für Mehrfachbelichtung)


Geben Sie den fotometrischen Bereich für die Mehrfachbelichtung an. Abhängig von der Helligkeit im
fotometrischen Bereich findet eine Bildsynthese statt.

Zum Festlegen des fotometrischen Bereichs tippen Sie auf die Taste [Train], um ein Fenster einzurichten.
Informationen zum Einrichten eines Fensters finden Sie in Abschnitt 3.7.9, „Fenster einrichten“.

Wenn der fotometrische Bereich eine Fläche enthält, deren Helligkeit ignoriert werden soll, tippen Sie auf
die Taste [Mask], um die zu ignorierende Fläche zu maskieren (verbergen). Informationen zum Festlegen
einer Maske finden Sie in Abschnitt 3.7.10, „Maskenbearbeitung“.

Multi Exposure Mode (Mehrfach-Belichtungsmodus)


Wählen Sie eine Methode für die Bildsynthese im Mehrfach-Belichtungsmodus aus.

Deviation (Abweichung)
Die Standardabweichung von der Bildhelligkeit im fotometrischen Bereich wird berechnet, und die
Synthese wird durchgeführt, sodass im Bild eine leichte Lichthofbildung stattfindet.
Dies ist die Standardeinstellung.

Maximum
Die Synthese wird durchgeführt, sodass keine Lichthofbildung im fotometrischen Bereich des Bildes
stattfindet. Wenn die Lichthofbildung an einem Punkt im fotometrischen Bereich auftritt, wird der
andere Teil relativ dunkel.

Average (Durchschnitt)
Die Synthese wird durchgeführt und bildet dabei den Mittelwert der Pixel-Graustufen.
Diese Methode liefert den breitesten Dynamikbereich, macht das gesamte Bild aber möglicherweise
dunkler.

- 47 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

3.7.12 Sortierung
Manche Bilderkennungsprozesse unterstützen eine Funktion zum Sortieren erkannter Ziele auf der
Grundlage des angegebenen Werts.
Die Bedienung der Sortierfunktion ist für alle Bilderkennungsprozesse dieselbe.

1 Wählen Sie eine Sortierebene als Sortierschlüssel im Dropdown-Feld [Sort By] aus.
2 Wählen Sie im Dropdown-Feld [Sort Key] einen Messwert aus, der als Sortierschlüssel verwendet
werden soll.
3 Wählen Sie im Dropdown-Feld [Sort-Order] eine Sortierreihenfolge aus.

Die folgenden Elemente stehen im Dropdown-Feld [Sort By] zur Auswahl.

Vision Process Level (Ebene für den Bilderkennungsprozess)


Die Ziele werden auf der Grundlagen eines Werts wie X, Y oder Z sortiert, die vom
Bilderkennungsprozess berechnet werden.

Parent Command Tool Level (Ebene des übergeordneten Befehlstools)


Die Ziele werden auf der Grundlage eines Messwerts wie Vt, Hz, der Größe, oder der Wertigkeit des
übergeordneten Locator-Tools sortiert.

- 48 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB

Child Command Tool Level (Ebene des untergeordneten Befehlstools)


Die Ziele werden auf der Grundlage eines Messwerts des untergeordneten Tools, wie Histogramm
oder Längenmessung sortiert, der in der Hierarchie dem Locator-Tools untergeordnet ist.

Wenn gefundene Ergebnisse nach Messergebnissen eines untergeordneten Tools, das zu einem Locator-
Tool hinzugefügt wurde (z. B. einem Histogramm), sortiert werden sollen, muss das untergeordnete Tool
als erstes untergeordnetes Tool platziert werden. Beispiel: In der unten dargestellten Konfiguration muss
die Reihenfolge von „Histogram 1“ und „Histogram 2“ geändert werden, wenn nach den Ergebnissen von
„Histogram 1“ sortiert werden soll.

Wenn mehrere Locator-Tools vorhanden sind und die Sortierung nach den Ergebnissen der
untergeordneten Tools der Locator-Tools erfolgen soll, können die Ergebnisse der untergeordneten Tools
nur dann als Sortierschlüssel verwendet werden, wenn die ersten untergeordneten Tools aller Locator-
Tools denselben Typ aufweisen. Im Falle von (a) im Beispiel unten ist das Sortieren nach Histogramm-
Ergebnissen möglich. Im Falle von (b) jedoch ist das Sortieren nach Histogramm-Ergebnissen und
Ergebnissen der Längenmessung nicht zulässig.

(a)

(b)

Bei manchen Arten von Bilderkennungsprozessen können Sie die gefundenen Ergebnisse mit den
folgenden Methoden sortieren. Zur Verwendung der folgenden Methoden wählen Sie [Vision Process
Level] für das Dropdown-Feld [Sort By] aus.

Shortest Path (Kürzeste Bahn)


Die Sortiermethode „Shortest Path“ sortiert die gefundenen Ergebnisse, um den gesamten (X, Y)
zurückgelegten Weg zu minimieren, um den Roboter der Reihe nach auf einer fortlaufenden Bahn zu
jedem Ergebnis zu senden. Wenn der Roboter mit einem Multigreifer ausgestattet ist, der alle Teile
greifen kann, und wenn die Teile nur mit (X, Y) Offsets aufgegriffen werden sollen, minimiert diese
Sortieroption die Länge der Roboterbahn.

Shortest Path Theta (Kürzeste Bahn Theta)


Die Sortiermethode „Shortest Path Theta“ sortiert die gefundenen Ergebnisse, um den gesamten
(X, Y, Theta) zurückgelegten Weg zu minimieren und den Roboter der Reihe nach auf einer
fortlaufenden Bahn zu jedem Ergebnis zu senden. Der Winkel Theta wird so skaliert, dass eine
Drehung von 180 Grad einer (X, Y)-Verschiebung aus der linken oberen Ecke des Bildes zur
unteren rechten Ecke des Bildes entspricht. Wenn der Roboter mit einem Multigreifer ausgestattet
ist, der alle Teile greifen kann, und wenn die Teile nur mit (X, Y) und Rotations-Offsets

- 49 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

3.BASISBETRIEB B-83304GE/02

aufgegriffen werden sollen, minimiert diese Sortieroption die Länge und die Handgelenkdrehung der
Roboterbahn.
3.7.13 Bildwiedergabe
Bilder, die während des Produktionsbetriebs protokolliert wurden, können zum Testen und Justieren von
Lokalisierungsparametern verwendet werden. Wurden beispielsweise Lokalisierungsparameter geändert,
ist diese Funktion hilfreich, um vergangene Bilder zum Auffinden von Problemen einzusetzen.
Wenn eine Kamera an einem Roboter montiert ist, werden sowohl das Bild als auch die Position des
Roboters protokolliert. Somit kann man die Situation reproduzieren, in der der Produktionsbetrieb
durchgeführt wurde, einschließlich der Positionsdaten des Roboters.
Einzelheiten zum Speichern protokollierter Bilder finden Sie in
Abschnitt 3.3 „VISION LOG“ (BILDERKENNUNGSPROTOKOLL).

Es folgen die Schritte zur Bildwiedergabe.

1 Drücken Sie F7 PLAYBACK.

2 Der untere Teil des Einrichtungsbildschirms und die Bezeichnungen der Funktionstasten ändern sich
wie folgt.

A Auswahl des Zeitraums, in dem das protokollierte Bild gespeichert wurde. Wenn Sie den
Bildwiedergabemodus zum ersten Mal starten, werden alle protokollierten Bilder, die im
Bilderkennungsprozess verwendet werden können, ausgewählt. Wenn Sie das Bild verwenden
möchten, das in dem angegebenen Zeitraum gespeichert wurde, wählen Sie den angegebenen
Zeitraum aus. Im obigen Beispiel ist dies das Bild, das zwischen 0:00 und 24:00 Uhr am 27. April
2012 gespeichert wurde.

B Anzeige der Gesamtanzahl protokollierter Bilder, die im unter „A“ angegebenen Zeitraum
gespeichert wurden und Nummer des protokollierten Bildes, die auf dem Bildschirm angezeigt wird.
- 50 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 3.BASISBETRIEB
Das obige Beispiel zeigt, dass 8 Bilder existieren, die zwischen 0:00 und 24:00 Uhr am 27. April
2012 gespeichert wurden, und das erste dieser Bilder wird angezeigt.
F1 [TYPE]
Durch Betätigen dieser Taste gelangen Sie zu einem anderen iRVision-Menübildschirm.

F2 PREV (F2 VORH)


Das vorherige Bild wird geladen.

F3 NEXT (F3 NÄCHS)


Das nächste Bild wird geladen.

F4 FIND
Durchführen einer Testerkennung mithilfe des Bildes, das in der Bildanzeige erscheint.

F5 END_EDIT
Beendet die Bearbeitung der Bilderkennungsdaten. Sie gelangen wieder zum Bildschirm mit der Liste der
Bilderkennungsdaten zurück. Nach dem Ändern der Bilderkennungsdaten werden Sie von einer Popup-
Meldung aufgefordert, die Speicherung der Änderungen zu bestätigen.

F7 CAMERA
Der Bildwiedergabemodus wird beendet.

F8 [FUNC]
Führt die folgende Operation durch.
• Erstes Bild: Das erste protokollierte Bild wird geladen.
• Letztes Bild: Das letzte protokollierte Bild wird geladen.
• Wiedergabe vorwärts: Führt die Operation aus, mit der das nächste Bild geladen wird, und führt eine
Testerkennung durch, indem das Bild wiederholt verwendet wird.
• Wiedergabe rückwärts: Führt die Operation aus, mit der das vorherige Bild geladen wird, und führt
eine Testerkennung durch, indem das Bild wiederholt verwendet wird.

F10 SAVE
Speichert die Bilderkennungsdaten.

ANMERKUNG
Auch im Bildwiedergabemodus können Sie Parameter ändern oder eine
Testerkennung einzelner Bilderkennungstools durchführen.

ACHTUNG
Im Bildwiedergabemodus sind die Tasten F2 LIVE, F3 SNAP, F6 LASER
ON/OFF nicht verfügbar.

- 51 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

4.KAMERA-EINSTELLUNG B-83304GE/02

4 KAMERA-EINSTELLUNG
Dieses Kapitel beschreibt den Einrichtungsvorgang der Tools zur Einstellung der Kamera.

4.1 KOWA DIGITALKAMERA


Wenn das Fenster für die Einrichtung der KOWA Digitalkamera geöffnet wird, erscheint folgender
Bildschirm:

Channel (Kanal)
Wählen Sie den Kanal aus, an den die Kamera angeschlossen ist. Werden keine Multiplexer verwendet,
kann nur eine Kamera angeschlossen werden. Beim Einsatz von Multiplexern können bis zu 16 Kameras
angeschlossen werden.

Camera Type (Kameratyp)


Hier wird angezeigt, welcher Kameratyp angeschlossen ist.

Def. Exposure Time (Standard-Belichtungszeit)


In diesem Fenster spezifizieren Sie die Belichtungszeit für die Erfassung von Bildern.

Robot Mounted Cam. (Am Roboter montierte Kamera)


Aktivieren Sie dieses Kontrollkästchen, wenn die Kamera am Roboterwerkzeug montiert ist.

- 52 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 4.KAMERA-EINSTELLUNG

Robot Holding Cam. (Kamera an Roboter)


Wenn eine am Roboter montierte Kamera verwendet wird, legen Sie hier den Roboter fest, an dem sich
die Kamera befindet.

Use Strobe (Stroboskop verwenden)


Aktivieren Sie dieses Kontrollkästchen, wenn eine Stroboskopleuchte verwendet wird.

ACHTUNG
Deaktivieren Sie dieses Kontrollkästchen, wenn Sie die Kamera als
3D-Laser-Vision-Sensor verwenden möchten. Standardmäßig ist dieses
Kontrollkästchen deaktiviert.

Gain (Verstärkung)
Ändern Sie diesen Wert, um die Helligkeit eines Bildes zu ändern. Ein höherer Wert steigert die
Helligkeit des Bildes, ein niedrigerer Wert macht es dunkler. Wenn dieser Wert zu hoch eingestellt ist,
verrauscht das Bild. Der Standardwert ist 1.

Camera Parameters (Kameraparameter)


Hier wird die interne Spezifikation der ausgewählten Kamera angezeigt.

4.1.1 Graustufenkamera
Wenn eine Graustufenkamera an den ausgewählten Kanal angeschlossen ist, wird der folgende
Bildschirm angezeigt.

- 53 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

4.KAMERA-EINSTELLUNG B-83304GE/02

Mode (Modus)
Wählen Sie einen Kamera-Modus (Bildgröße) aus den folgenden Optionen aus:

1/6” QVGA (320x240)


Die erfasste Bildgröße beträgt 320 x 240 Pixel.

1/3” QVGA (320x240)


Die erfasste Bildgröße beträgt 320 x 240 Pixel. Verglichen mit der Option „1/6'' QVGA
(320x240)“ besitzt die Kamera die doppelte Größe des Sichtfelds (FOV).

1/3” VGA (640x480)


Die erfasste Bildgröße beträgt 640 x 480 Pixel. Dieser Modus wird als Standardeinstellung gewählt.

2/3” VGA (640x480)


Die erfasste Bildgröße beträgt 640 x 480 Pixel. Verglichen mit der Option „1/3'' QVGA
(640x480)“ besitzt die Kamera die doppelte Größe des Sichtfelds (FOV).

1/2” XGA (1024x768)


Die erfasste Bildgröße beträgt 1024 x 768 Pixel.

2/3” SXGA (1280x1024)


Die erfasste Bildgröße beträgt 1280 x 1024 Pixel.

VGA-WIDE (1280x480)
Die erfasste Bildgröße beträgt 1280 x 480 Pixel.

VGA-TALL (640x960)
Die erfasste Bildgröße beträgt 640 x 960 Pixel.

ACHTUNG
Wenn Sie diesen Modus geändert haben, müssen Sie die Kameras neu
kalibrieren und die Locator-Tools neu einlernen usw.

- 54 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 4.KAMERA-EINSTELLUNG

4.1.2 Farbkamera
Wenn eine Farbkamera an den ausgewählten Kanal angeschlossen ist, wird der folgende Bildschirm
angezeigt.

Mode (Modus)
Wählen Sie einen Kamera-Modus (Bildgröße) aus den folgenden Optionen aus:

1/6” QVGA (320x240)


Die erfasste Bildgröße beträgt 320 x 240 Pixel.

1/3” VGA (640x480)


Die erfasste Bildgröße beträgt 640 x 480 Pixel. Dieser Modus wird als Standardeinstellung gewählt.

1/2” XGA (1024x768)


Die erfasste Bildgröße beträgt 1024 x 768 Pixel.

Gamma (Gamma)
Wählen Sie aus dem Dropdown-Feld einen Gammawert zwischen 1.0, 1.4 und 2.0 aus. Wird dieser Wert
erhöht, wird der Dynamikbereich eines Bildes größer (dunkle Bereiche werden heller und helle Bereiche
werden dunkler). Durch Erhöhen dieses Wertes wird jedoch auch die Farbauflösung reduziert. Der
Standardwert ist 1.

- 55 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

4.KAMERA-EINSTELLUNG B-83304GE/02

Enable color extract on Camera (Farbextraktion auf Kamera aktivieren)


Aktivieren Sie dieses Kontrollkästchen, um die Farbextraktion auf der Kamera zuzulassen.

Normalerweise erfolgt die Farbextraktion durch das Color Extraction Tool, das bei einem
Bilderkennungsprozess eingesetzt wird. Wenn dieses Kontrollkästchen aber aktiviert ist und der
Bilderkennungsprozess nur über ein einziges Color Extraction Tool verfügt, erfolgt die Farbextraktion auf
der Kamera. Wird die Farbextraktion auf der Kamera durchgeführt, überträgt die Kamera ein
farbextrahiertes Graustufenbild anstelle eines Farbbildes an die Steuerung. Ein farbextrahiertes
Graustufenbild ist kleiner als ein Farbbild, wodurch sich die Ausführungszeit des
Bilderkennungsprozesses verkürzt. Weitere Informationen zum Color Extraction Tool finden Sie im
Abschnitt 7.27 „Color Extraction Tool (Farbextraktions-Tool)“.

White Balance (Weißabgleich)


Hier stellen Sie das Verhältnis der RGB-Verstärkungen ein, um ein weißes Objekt als weiße Pixel auf
einem Bild zu erfassen.

Platzieren Sie ein weißes Objekt in das Sichtfeld und tippen Sie auf die [Set]-Taste, um einen
Messbereich auf dem weißen Ziel festzulegen. Anschließend wird das Verhältnis der RGB-Verstärkungen
berechnet. Zu diesem Zeitpunkt darf der Messbereich keine Farben enthalten außer Weiß. Wenn Sie auf
die [Reset]-Taste tippen, wird das Verhältnis der RGB-Verstärkungen auf den Standardwert zurückgesetzt.
Das Bild wird rötlich, wenn die R-Verstärkung erhöht wird, es wird grünlich, wenn die G-Verstärkung
erhöht wird und bläulich, wenn die B-Verstärkung erhöht wird. Die Standardwerte sind (1.0:1.0:1.0).

- 56 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 4.KAMERA-EINSTELLUNG

4.2 SONY ANALOG-KAMERA


Wenn das Fenster für die Einrichtung der Sony Analog-Kamera geöffnet wird, erscheint folgender
Bildschirm:

Port Number (Port-Nr.)


Wählen Sie die Nummer des Ports aus, an den die Kamera angeschlossen ist. Ist kein Multiplexer
angeschlossen, kann nur Port 1 ausgewählt werden. Ist ein Multiplexer angeschlossen, kann Port 1 bis 4
ausgewählt werden. Insgesamt können bis zu 4 Kameras und 3D-Lasersensoren angeschlossen werden.

Camera Type (Kameratyp)


Wählen Sie den Kameratyp aus, der angeschlossen ist.

Def. Exposure Time (Standard-Belichtungszeit)


Legen Sie die Belichtungszeit fest, die anzuwenden ist, wenn Kamerabilder über dieses Fenster
aufgenommen werden.

Robot Mounted Cam. (Am Roboter montierte Kamera)


Aktivieren Sie dieses Kontrollkästchen, wenn die Kamera am Roboterwerkzeug montiert ist.

Robot Holding the Cam. (Kamera an Roboter)


Wenn eine am Roboter montierte Kamera verwendet wird, legen Sie hier den Roboter fest, an dem sich
die Kamera befindet.

Camera Parameters (Kameraparameter)


Hier wird die interne Spezifikation der ausgewählten Kamera angezeigt.

- 57 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

4.KAMERA-EINSTELLUNG B-83304GE/02

4.3 KOWA USB-KAMERA


Bei Verwendung der Funktion iRVision am ROBOGUIDE wird die Kowa USB-Kamera eingesetzt.

ACHTUNG
1 Für den Einsatz der USB-Kamera müssen Sie die entsprechende
Treibersoftware auf Ihrem PC installieren. Wenn Ihr PC das Betriebssystem
Windows XP verwendet, installieren Sie die Software über die CD, die im
Lieferumfang der KOWA USB-Kamera enthalten ist. Verwendet Ihr PC das
Betriebssystem Windows 7, wenden Sie sich bitte an den zuständigen
technischen Vertreter von FANUC. Windows Vista wird nicht unterstützt.
2 Schließen Sie die USB-Kamera an, bevor Sie den ROBOGUIDE starten.

Wenn das Fenster für die Einrichtung der KOWA USB-Kamera geöffnet wird, erscheint folgender
Bildschirm:

Serial Number (Seriennummer)


Wählen Sie eine Kamera aus einer Liste mit den aktuell an den PC angeschlossenen USB-Kameras aus.

Exposure Time (Belichtungszeit)


Legen Sie die Belichtungszeit für die Erfassung eines Kamerabildes in diesem Bildschirm fest.

Robot Mounted Cam. (Am Roboter montierte Kamera)


Bei Verwendung einer Handkamera aktivieren Sie dieses Kontrollkästchen.

Robot Holding the Cam. (Kamera an Roboter)


Wenn Sie eine Handkamera verwenden, geben Sie hier den Roboter an, an dem sich die Kamera befindet.

Camera Parameters (Kameraparameter)


Diese Elemente geben die interne Spezifikation der ausgewählten Kamera an.

- 58 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 4.KAMERA-EINSTELLUNG

4.4 KAMERA FÜR BILDDATEIEN EINRICHTEN


Bei der Einrichtung der Kamera für Bilddateien wird auf Bilder in einem benutzerdefinierten Ordner
verwiesen, anstatt auf eine Kamera. Diese Kamerakonfiguration zeigt bei jedem Auslösen der Kamera das
nächste Bild im Ordner an. Diese Kamerakonfiguration kann für Setup oder Runtime verwendet werden.
Die Bilder, die von der Kamerakonfiguration gelesen werden können, müssen nicht unbedingt von
iRVision erstellt worden sein. Die Kamerakonfiguration für Bilddateien kann Bilder allerdings nur in
zwei Formaten lesen. Dies sind 8-Bit-Graustufen-BMP und 8-Bit-Graustufen-PNG. JPEG und andere
Bildformate müssen zu 8-Bit-Graustufenbildern konvertiert werden. Für die Konvertierung in das
richtige Format kann Microsoft® Photo Editor oder ein anderes Bildbearbeitungsprogramm verwendet
werden. Die Dateinamenserweiterung BMP oder PNG muss in Großbuchstaben angegeben werden. Das
Dateisystem erkennt keine Dateinamenserweiterungen in Kleinbuchstaben.

Vorgehensweise unter Verwendung von Microsoft® Photo Editor


1 Öffnen Sie das Bild in Microsoft® Photo Editor.
2 Wählen Sie „Speichern unter“.
3 Speichern Sie die Datei als: Windows Bitmap (*.bmp)
4 Geben Sie die Dateinamenserweiterung BMP manuell in Großbuchstaben ein, denn mit der
standardmäßigen Erweiterung „bmp“ funktioniert es nicht.
5 Wählen Sie „Weitere“, um weitere Optionen zum Speichern aufzurufen.
6 Konvertieren Sie zu: Graufstufen, 8-Bit
7 Komprimierung: None (Keine)
8 Speichern

Standardversionen von Microsoft® Paint können keine 8-Bit-Graustufenbilder speichern.

Wenn das Fenster für Bilddateien geöffnet wird, erscheint folgender Bildschirm:

- 59 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

4.KAMERA-EINSTELLUNG B-83304GE/02

Image File Folder (Bilddatei-Ordner)


Dieses Element zeigt den aktuell ausgewählten Ordner für Bilddateien an.

Taste „Refresh“ (Aktualisieren)


Mit dieser Taste wird die Verzeichnisstruktur und die Liste mit den Bilddateien aktualisiert.
Verwenden Sie diese Taste, wenn Sie Speicherkarten wechseln oder den Inhalt eines Ordners ändern.

File Folder Tree (Verzeichnisstruktur)


Dieses Element zeigt die Struktur der Dateiordner auf dem Roboter an. Durch Tippen auf „+“ wird ein
Ordner eingeblendet, durch Tippen auf „-“ wird er ausgeblendet. Zum Auswählen eines Ordners tippen
Sie auf den Ordnernamen.

Image File List (Bilddatei-Liste)


Dieses Element zeigt die Liste der Bilddateien im ausgewählten Ordner an.
Tippen Sie auf eine Bilddatei, um diese zu öffnen und anzuzeigen.

4.5 GIGE-KAMERA
Wenn das Fenster für die Einrichtung der GigE-Kamera geöffnet wird, erscheint folgender Bildschirm:

- 60 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 4.KAMERA-EINSTELLUNG

Status
Dieses Feld zeigt den Kamerastatus entweder als „Not Responding“ (Reagiert nicht) in Rot oder als
„Responding“ (Reagiert) in Grün an.

Camera Serial # (Kamera-Seriennr.)


In diesem Feld wird die Hardware-Seriennummer der ausgewählten Kamera angezeigt.
Die Dropdown-Liste zeigt die Seriennummern der verfügbaren GigE-Kameras innerhalb des Netzwerks
an.

Taste „Refresh“ (Aktualisieren)


Durch Betätigen dieser Taste werden alle GigE-Kameras aufgespürt, die an den angegebenen
Ethernet-Port angeschlossen sind. Sie werden in der Dropdown-Liste mit den Seriennummern aufgeführt.

Controller Ethernet Setup (Ethernet-Konfiguration der Steuerung)


Die Elemente in diesem Abschnitt beziehen sich auf die Ethernet-Konfiguration der Steuerung R-30iB.
Diese Einstellungen werden zurzeit ausschließlich zu Informationszwecken angezeigt und können nicht
geändert werden.

Ethernet Port (Ethernet-Port)


Die standardmäßige Robotersteuerung R-30iB besitzt drei Ethernet-Ports. In diesem Feld wählen Sie die
Nummer des Ports aus, an den die Kamera angeschlossen ist. Zurzeit steht nur Port 3 für die Nutzung von
GigE-Kameras zur Verfügung.

IP Address (IP-Adresse)
In diesem Feld wird die IP-Adresse des ausgewählten Ethernet-Ports angezeigt.

Subnet Mask (Subnetzmaske)


In diesem Feld wird die Subnetzmaske des ausgewählten Ethernet-Ports angezeigt.

Camera Ethernet Setup (Ethernet-Konfiguration der Kamera)


Die Elemente in diesem Abschnitt beziehen sich auf die Ethernet-Konfiguration der GigE-Kamera. Die
IP-Adresse der Kamera muss auf dem lokalen Subnetz des Roboter-Ethernet-Ports festgelegt werden,
damit iRVision sie nutzen kann. (Also für jedes Bit, das in der Subnetzmaske auf „1“ gesetzt ist, muss
das entsprechende Bit in der IP-Adresse der Kamera diesem Bit in der IP-Adresse der Steuerung
entsprechen. Nur die Bits, die einer „0“ in der Subnetzmaske entsprechen, dürfen sich zwischen den
beiden IP-Adressen unterscheiden.)

Current IP Address (Aktuelle IP-Adresse)


In diesem Feld wird die aktuelle IP-Adresse der ausgewählten Kamera angezeigt. Der Text rechts neben
der IP-Adresse lautet entweder „Remote Subnet“ (Entferntes Subnetz) in Rot oder „Local
Subnet“ (Lokales Subnetz) in Grün. Befindet sich die Kamera in einem entfernten Subnetz, kann die
Software sie immer noch erkennen, aber sie kann kein Bild mit ihr erfassen.

New IP Address (Neue IP-Adresse)


Die neue IP-Adresse für die Kamera. Wenn sich die Kamera in einem entfernten Subnetz befindet, zeigt
diese Option eine Standardadresse im lokalen Subnetz an. Sie können die vier Felder der IP-Adresse
festlegen, aber die Software schränkt den Zahlenbereich anhand der IP-Adresse des Roboters und seiner
Subnetzmaske ein, sodass Sie nur eine Adresse auf dem lokalen Subnetz eingeben können.

- 61 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

4.KAMERA-EINSTELLUNG B-83304GE/02

Taste „Test“
Wenn die neue IP-Adresse einen anderen Wert anzeigt als die aktuelle IP-Adresse, wird die Taste
„Test“ aktiviert und die Meldung „Enter local address to test“ (Lokale Adresse zum Testen eingeben)
erscheint über der Taste. Durch Betätigen der Taste „Test“ erfolgt eine Verfügbarkeitsprüfung für die
neue IP-Adresse. Ist die neue IP-Adresse bereits an ein anderes Gerät im Netzwerk vergeben, erscheint
eine Fehlermeldung. Wenn die Adresse verfügbar ist, ändert sich die Tastenbeschriftung zu
„Set“ (Festlegen) und die Meldung „Address is available to set“ (Adresse ist verfügbar) erscheint über der
Taste.

Taste „Set“ (Festlegen)


Durch Betätigen der Taste „Set“ (Festlegen) wird die IP-Adresse der Kamera zur neuen IP-Adresse
geändert. War dieser Vorgang erfolgreich, ändert sich die angezeigte aktuelle IP-Adresse zur neuen
IP-Adresse. Die Software erfasst ein Bild über die Kamera und zeigt es an.

Def. Exposure Time (Standard-Belichtungszeit)


Legen Sie die Belichtungszeit fest, die anzuwenden ist, wenn Kamerabilder über dieses Fenster erfasst
werden.

Robot Mounted Camera (Am Roboter montierte Kamera)


Aktivieren Sie dieses Kontrollkästchen, wenn die Kamera am Roboterwerkzeug montiert ist.

Robot Holding the Camera (Kamera an Roboter)


Wenn eine am Roboter montierte Kamera verwendet wird, wählen Sie hier den Roboter aus, an dem sich
die Kamera befindet.

Camera Parameters (Kameraparameter)


Hier wird die interne Spezifikation der ausgewählten Kamera angezeigt.

4.5.1 Fehlerbehebung
Wenn das Netzwerk zwischen der Kamera und der Robotersteuerung nicht ordnungsgemäß eingerichtet
wurde, erkennt die Steuerung die Kamera nicht oder zeigt kein Bild von der erkannten Kamera an.
Kamera und Steuerung müssen über kompatible IP-Adressen und Subnetze verfügen.

- 62 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

5 KAMERA-KALIBRIERUNG
Dieses Kapitel beschreibt den Einrichtungsvorgang der Tools zur Kalibrierung der Kamera.

5.1 RASTER-KALIBRIERUNG
Die Rasterkalibrierung ist die standardmäßige Methode zur Kalibrierung der Kamera. Sie kann für
zahlreiche Bilderkennungsanwendungen verwendet werden. Zur Kalibrierung der Kamera wird eine
Vorrichtung verwendet, die als Kalibriergitter bezeichnet wird. Informationen zum Kalibriergitter finden
Sie in Kapitel 11, „KALIBRIERGITTER“.

Wenn das Fenster für die Einrichtung der Rasterkalibrierung geöffnet wird, erscheint folgender
Bildschirm:

- 63 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

5.1.1 Kamera kalibrieren


Kalibrierung der Kamera.

Robot to be offset (Roboter für Offset)


Geben Sie die Positionsverschiebung des Zielroboters an, indem Sie seine Steuerung und seine
Gruppennummer eintragen.

Application Frame (Anwendungs-Koordinatensystem)


Geben Sie das Benutzer-Koordinatensystem des Roboters an, das für die Kamerakalibrierung verwendet
werden soll. Die Messergebnisse werden vor der Ausgabe in Werte dieses Koordinatensystems
konvertiert.

In vielen Fällen wird das Basiskoordinatensystem des Roboters unter [Application Frame] eingerichtet.
In den folgenden Fällen wird das Benutzer-Koordinatensystem unter [Application Frame] eingerichtet.
• Die Kamera ist an einem anderen Roboter montiert, der nicht der für den Abgleich zuständige
Roboter ist.
• Das Kalibriergitter ist an einem anderen Roboter montiert, der nicht der für den Abgleich zuständige
Roboter ist.

ACHTUNG
Bevor die Kamerakalibrierung durchgeführt werden kann, muss das
Anwendungskoordinatensystem festgelegt werden. Wird das
Anwendungskoordinatensystem nach der Kalibrierung der Kamera geändert,
muss die Kamera erneut kalibriert werden.

Camera (Kamera)
Wählen Sie die Kamera aus, die Sie kalibrieren möchten.

Exposure Time (Belichtungszeit)


Legen Sie die Belichtungszeit fest, die anzuwenden ist, wenn Kamerabilder über dieses Fenster
aufgenommen werden.

ACHTUNG
Der hier festgelegte Wert wird nicht während der Laufzeit des
Bilderkennungsprozesses verwendet.

Grid Spacing (Gitterabstand)


Geben Sie den erforderlichen Gitterabstand [Grid Spacing] zwischen den Gitterpunkten am Kalibriergitter
ein.

Number of Planes (Anzahl von Ebenen)


Wählen Sie zwischen „1-plane calibration“ (Kalibrierung in einer Ebene) und „2-plane calibration“
(Kalibrierung in zwei Ebenen).

Bei einer robotermontierten Kamera oder wenn die Kalibriergitterplatte (Calibration Grid Plate) am
Roboterwerkzeug montiert ist, sollte „2-plane calibration“ ausgewählt werden. Bei Verwendung einer
feststehenden Kamera und einer stationären Vorrichtung sollte „1-plane calibration“ ausgewählt werden.

- 64 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

Robot-Held Cal. Grid (Kalibriergitter am Roboter)


Wählen Sie die Installationsmethode für das Kalibriergitter.

No (Nein)
Das Kalibriergitter ist an einem Tisch oder einem anderen Ort befestigt, um die Kalibrierung
durchzuführen.

Yes (Ja)
Das Kalibriergitter ist am Roboterwerkzeug montiert, um die Kalibrierung durchzuführen.

Robot Holding Grid (Gitter an Roboter)


Wenn Sie unter [Calib. Grid Held by Robot] die Option [Yes] wählen, müssen Sie den Roboter angeben,
an dem sich das Kalibriergitter befindet.

Cal. Grid Frame (Kalibriergitter-Koordinaten)


Die Kalibriergitter-Koordinaten geben Position und Ausrichtung des Kalibriergitters an, wenn die
Kamerakalibrierung erfolgt ist.

Wenn das Kalibriergitter an einem feststehenden Ort montiert ist, muss seine Position in Relation zum
Basiskoordinatensystem des Roboters in einem Bereich des Benutzerkoordinatensystems festgelegt
werden. Auf diesem Bildschirm wählen Sie die Nummer des Benutzer-Koordinatensystems aus, in dem
die Informationen für das Koordinatensystem des Kalibriergitters festgelegt wurden.

Wenn das Kalibriergitter am Roboterwerkzeug montiert ist, muss seine Position in Relation zum
Koordinatensystem der mechanischen Schnittstelle des Roboters (Roboter-Handgelenkflansch) in einem
Bereich des Benutzer-Koordinatensystems festgelegt werden. Auf diesem Bildschirm wählen Sie die
Nummer des Werkzeug-Koordinatensystems (User Tool) aus, in dem die Informationen für das
Kalibriergitter-Koordinatensystem festgelegt wurden.

Ausführliche Informationen zum Programmieren des Kalibriergitter-Koordinatensystems finden Sie in


Abschnitt 10.2, „EINRICHTEN DES GITTER-KOORDINATENSYSTEMS“.

Projection (Projektion)
Wählen Sie [Perspective] aus.

Override Focal Dist. (Brennweite überschreiben)


Lassen Sie diese Einstellung normalerweise auf [No]. Sobald das Raster gefunden ist, wird die
Brennweite automatisch berechnet. Bei der Kalibrierung in 2 Ebenen wird ein Wert berechnet, der nahe
an der Nennbrennweite des Objektivs liegt. (Wenn beispielsweise der nominale f-Wert des Objektivs
12 mm beträgt, könnte ein Wert von 12,1 errechnet werden.) Eine korrekte Kalibrierung ist erfolgt, wenn
der berechnete Wert nahe am Nennwert liegt. Wenn das Kalibriergitter senkrecht zur optischen Achse der
Kamera platziert wird und die Kalibrierung in einer Ebene durchgeführt wird, wählen Sie [Yes] und
geben die Nenn-Brennweite des Objektivs an, denn es ist theoretisch schwierig, eine korrekte Brennweite
zu berechnen.

- 65 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

Fixture Position Status (Position der Vorrichtung, Status)


Wenn das Kalibriergitter fest montiert ist, tippen Sie auf die Taste [Set]. Anhand der Daten der
angegebenen Koordinatensysteme berechnet iRVision, wie und wo sich das Kalibriergitter innerhalb des
Anwendungs-Benutzer-Koordinatensystems befindet und speichert das Ergebnis.

ACHTUNG
Wird die Position des Kalibriergitters verändert, z. B. beim erneuten Kalibrieren
der Kamera, muss die Position der Vorrichtung erneut berechnet werden, indem
das Benutzer-Koordinatensystem, in dem sich das Koordinatensystem des
Kalibriergitters befindet, erneut festgelegt wird. Tippen Sie anschließend auf die
Taste [Set], um die Position der Vorrichtung zu aktualisieren.

Wenn das Kalibriergitter am Roboterwerkzeug montiert ist, ist diese Taste deaktiviert.
Die Positionsinformationen des Rasters werden berechnet und gespeichert, wenn Sie den nächsten Schritt
zur Bestimmung des Rasters ausführen.

Raster finden
Das Raster wird gefunden, um die Kalibrierungsdaten zu berechnen.

1 Drücken Sie F3 SNAP, um das Bild des Kalibriergitters zu erfassen.

ACHTUNG
Das Kalibriergitter muss nicht unbedingt das Sichtfeld ausfüllen, aber die
Kalibrierung wird ungenauer, wenn die Kreise des Rasters nur zum Teil auf dem
Bild erscheinen. Achten Sie darauf, dass das Bild mit den Kreisen des Rasters
ausgefüllt ist. Machen Sie sich keine Gedanken, wenn einige Kreise außerhalb
des Bildes liegen.

2 Tippen Sie auf die Taste [Find] neben [1st Plane].


3 Bestimmen Sie den Gitterbereich mithilfe des angezeigten roten Rechtecks.

- 66 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG
4 Drücken Sie F4 OK.
5 Wenn das Raster gefunden wurde, erscheint in der Mitte jedes gefundenen Kreises ein Fadenkreuz
(+).

6 Achten Sie darauf, dass blaue Fadenkreuze (+) auf den vier großen Kreisen angezeigt werden.
Prüfen Sie außerdem, ob grüne Fadenkreuze (+) auf den kleinen Kreisen erscheinen.
Möglicherweise wurden ein oder zwei kleine Kreise nicht erkannt.

Bei der Kalibrierung in einer Ebene ist damit der Vorgang abgeschlossen.

Bei der Kalibrierung in zwei Ebenen bewegen Sie den Roboter, an dem die Kamera montiert ist, oder den
Roboter mit dem Kalibriergitter im Tippbetrieb, um den Abstand zwischen Kamera und Kalibriergitter zu
verändern. Im Allgemeinen sollten Sie den Roboter etwa 150 mm bewegen und die oben erwähnten
Schritte für die zweite Ebene wiederholen..

- 67 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

5.1.2 Kalibrierpunkte überprüfen


Hiermit überprüfen Sie die gefundenen Kalibrierpunkte.

Wenn Sie auf den Tab [Points] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Auf dem Bild sehen Sie ein grünes und ein rotes Fadenkreuz in der Mitte jedes gefundenen Kreises. Das
grüne Fadenkreuz gibt an, wo der Kalibrieungsrpunkt im Bild gefunden wurde. Das rote Fadenkreuz zeigt
die berechnete Position, an der sich der Kalibrierungspunkt befinden sollte. Da grüne Fadenkreuze nach
den roten Fadenkreuzen geplottet werden, ist nur ein grünes Fadenkreuz sichtbar, wenn sich ein grünes
und ein rotes Fadenkreuz an derselben Position befinden.

Plane (Ebene)
Anzeige der Kalibrierungspunkte der vorherigen oder nächsten Kalibrierebene. Verwenden Sie diese
Elemente, wenn Sie die Kalibrierung in zwei Ebenen durchführen.

Vt, Hz
Die Koordinatenwerte der auf dem Bild gefundenen Kalibrierungspunkte werden hier angezeigt.

X, Y, Z
Die Koordinatenwerte der Gitterpunkte auf dem Kalibriergitter-Koordinatensystem werden hier
angezeigt.

Error (Fehler)
Der Abstand zwischen den Mittelpunkten des grünen Fadenkreuzes und des roten Fadenkreuzes auf dem
Bild wird angezeigt. Ein kleinerer Wert weist auf eine genauere Kalibrierung hin.

Kalibrierungspunkt löschen
Wenn ein Fadenkreuz an einer Stelle erscheint, an der kein Gitterpunkt vorhanden ist, geben Sie die
Indexzahl dieses Punktes in das Textfeld links neben der Taste [Delete] ein und tippen Sie anschließend
auf die Taste [Delete]. Der angegebene Punkt wird aus der Liste gelöscht, und die Kalibrierungsdaten
werden automatisch neu berechnet.

- 68 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

5.1.3 Kalibrierungsdaten überprüfen


Hiermit können Sie die berechneten Kalibrierungsdaten überprüfen. Tippen Sie auf den Tab [Data].

Focal Distance (Brennweite)


Hier wird die berechnete Brennweite des Objektivs angezeigt. Prüfen Sie, ob dieser Wert für das
verwendete Objektiv geeignet ist. Die Brennweite wird auf einem Aufkleber auf dem Objektiv
angegeben. Wenn bei der Kalibrierung in einer Ebene die W- und P-Werte im Abschnitt [Position of
Camera Relative to Calibration Grid] (Position der Kamera in Relation zum Kalibriergitter) sich beide um
weniger als ein paar Grad ± unterscheiden, kann die Brennweite nicht genau gemessen werden. Daher
setzen Sie die Option [Override Focal Distance] auf dem Tab [Setup] auf [Yes] und geben die Nenn-
Brennweite des verwendeten Objektivs ein. Beim Eingeben der Brennweite werden die
Kalibrierungsdaten automatisch neu berechnet. Beachten Sie, dass der Benutzer den Z-Wert unter
[Camera relative to Cal Grid] mit dem gemessenen Abstand des Kamera-Objektivs zum Gitter (Z-Wert)
vergleichen kann. Ändern Sie die Brennweite bitte so weit, bis die beiden Z-Werte nah beieinander
liegen.

Lens Distortion (Objektivverzeichnung)


Hier wird der berechnete Objektivverzeichnungs-Koeffizient angezeigt. Ein größerer Absolutwert weist
auf eine größere Objektivverzeichnung hin. Allgemein gilt, dass Objektive mit kürzerer Brennweite eine
größere Verzeichnung aufweisen. Bei der Rasterkalibrierung werden durch die Verwendung der
berechneten Objektivverzeichnung genaue Koordinaten ausgegeben, wenn das Bild-Koordinatensystem
genau in das Roboter-Koordinatensystem konvertiert wird.

Magnification (Abbildungsmaßstab)
Die Größe eines Pixels in Millimeter auf der Rasterebene (1. Ebene bei der Kalibrierung auf zwei
Ebenen) wird angezeigt. Der Wert zeigt, wie viele Millimeter einem Pixel entsprechen. Wenn die
Rasterebene nicht vertikal zur optischen Achse der Kamera verläuft, wird der Abbildungsmaßstab in der
Nähe des Mittelpunkts des Bildes angezeigt.

Image Center (Bildmittelpunkt)


Die Koordinaten des Bildmittelpunkts werden angezeigt.

- 69 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

CCD Vertical Spacing (CCD-Zeilenvorschub)


Die physische Größe eines Pixels des Licht empfangenden Elements der verwendeten Kamera wird
angezeigt.

Aspect Ratio (Bildseitenverhältnis)


Hier wird das Seitenverhältnis eines Pixels des Bildes angezeigt.

Maximum / Mean Error (Maximaler/mittlerer Fehler)


Der Mittelfehler und der Maximalfehler aller auf dem Tab [Points] angezeigten Kalibrierungspunkte
werden angezeigt.

Position of Camera Relative to Cal. Grid


(Kameraposition in Relation zum Kalibriergitter)
Hier wird die Position der Kamera in Relation zum Kalibriergitter-Koordinatensystem angezeigt.
Informationen zum Einstellen des Kalibriergitters finden Sie in Kapitel 11, „KALIBRIERGITTER“.

Position of Cal. Grid Relative to App UFrame (Position des Kalibriergitters in


Relation zum Anwendungs-Benutzer-Koordinatensystem)
Hier wird die Position des Kalibriergitters in Relation zu dem unter [Application Frame:]des Tabs [Setup]
ausgewählten Benutzer-Koordinatensystem angezeigt. Dies ist die Position, an der sich das Kalibriergitter
zum Zeitpunkt der Kamerakalibrierung befand. Bei einer Kalibrierung in zwei Ebenen wird die Position
des Kalibriergitters auf der ersten Ebene angezeigt.

Position of Robot Holding Camera (Position des Roboters mit Kamera)


Hier wird die Position des Roboters angezeigt, an dem die Kamera zum Zeitpunkt der Kalibrierung
montiert war. Hier wird die Position des Koordinatensystems der mechanischen Roboterschnittstelle
(Roboter-Handgelenkflansch) in Relation zu dem unter [Application Frame:] des Tabs [Setup]
ausgewählten Benutzer-Koordinatensystems angezeigt. Der Wert wird nur für eine an einem Roboter
montierte Kamera angezeigt.

- 70 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

5.1.4 Automatische Neukalibrierung


Wenn die Position der Kamera verändert wird oder die Kamera aus irgendwelchen Gründen ausgetauscht
wird, nachdem das System in Betrieb genommen wurde, ist eine Neukalibrierung der Kamera
erforderlich. In einem solchen Fall ermöglicht die automatische Neukalibrierung Ihnen, die Kamera leicht
wieder in die richtige Position zu bringen. Da bei der Neukalibrierung der Kamera kein manueller
Eingriff erforderlich ist, verhindert die Neukalibrierung Bedienerfehler und anderes menschliches
Versagen.

Um die automatische Neukalibrierung durchzuführen muss vorab ein Roboterprogramm für die
automatische Neukalibrierung eingelernt werden. Es folgt ein Programmbeispiel für die Ausführung einer
Kalibrierung in zwei Ebenen mit einer am Roboter montierten Kamera. Unter P[1] wird die Position des
Roboters angegeben, um die Kalibrierebene 1 zu erkennen.
Kalibrierebene 2 liegt 100 mm höher in Z-Richtung als Kalibrierebene 1.
Bei einer Kalibrierung in einer Ebene entfallen Zeile 21 und die darauf folgenden Zeilen.

1: UFRAME_NUM=1
2: UTOOL_NUM=1
3:J P[1] 100% FINE
4:
5: PR[99]=LPOS
6: PR[99,1]=0
7: PR[99.2]=0
8: PR[99.4]=0
9: PR[99.5]=0
10: PR[99.6]=0
11:
12:! Find plane-1
13: PR[99.3]=0
14:J P[1] 100% FINE OFFSET,PR[99]
15: CALL IRVBKLSH(1)
16: VISION CAMERA_CALIB 'CALIB1' REQUEST=1
17:
18:! Find plane-2
19: PR[99.3]=100
20:J P[1] 100% FINE OFFSET,PR[99]
21: CALL IRVBKLSH(1)
22: VISION CAMERA_CALIB 'CALIB1' REQUEST=2
23: END

Führen Sie das erstellte Roboterprogramm aus, um die automatische Neukalibrierung durchzuführen.

ACHTUNG
1 Durch die automatische Neukalibrierung wird das Koordinatensystem des
Kalibriergitters nicht zurückgesetzt. Stellen Sie sicher, dass das Kalibriergitter
gut in der Position fixiert ist, in der es ursprünglich kalibriert wurde, und dass es
nicht bewegt wird.
2 Ist das Kalibriergitter am Roboter montiert, dürfen die Werte des Werkzeug-
Koordinatensystems, in dem sich das Kalibriergitter-Koordinatensystem befindet,
nicht geändert werden. Die Werte des Werkzeug-Koordinatensystems werden
referenziert, wenn die Position des Kalibriergitters von der Roboterposition aus
berechnet wird.

- 71 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

5.2 VOM ROBOTER ERZEUGTE GITTERKALIBRIERUNG


Die vom Roboter erzeugte Gitterkalibrierung (Robot-generated grid calibration) ist eine Universal-
Kalibrierfunktion für Weitwinkelkameras. Wenn Sie [Robot-Generated Grid Calibration] auswählen,
erscheint die folgende Seite:

ANMERKUNG
Bei der vom Roboter erzeugten Gitterkalibrierung wird die Vorkonfiguration auf
der Einrichtungs-Seite vorgenommen, und die Kalibrierung wird im Menü mit den
iRVision-Dienstprogrammen (iRVision Utility) ausgeführt.
Einzelheiten über den Kalibrierungsschritt im iRVision Utility-Menü finden Sie in
Abschnitt 10.1 „Vom Roboter erzeugte Gitterkalibrierung“.

5.2.1 Kamera-Kalibrierungstools
Wenn Sie in der Verzeichnisstruktur die Option [Robot-Generated Grid Calibration] auswählen und auf
den Tab [Setup] tippen, erscheint ein Einrichtbildschirm.

Application Frame (Anwendungs-Koordinatensystem)


Geben Sie das Benutzer-Koordinatensystem des Roboters an, das für die Kamerakalibrierung verwendet
werden soll. Die Messergebnisse werden vor der Ausgabe in Werte dieses Koordinatensystems
konvertiert.
In vielen Fällen wird das Basiskoordinatensystem des Roboters unter [Application Frame] eingerichtet.
Im folgenden Fall wird das Benutzer-Koordinatensystem unter [Application Frame] eingerichtet.
• Die Kamera ist an einem anderen Roboter montiert, der nicht der für die Kompensation zuständige
Roboter ist.
• Die Richtung des Benutzer-Koordinatensystems unterscheidet sich von der des Basis-
Koordinatensystems.

ACHTUNG
Bevor die Kamerakalibrierung stattfinden kann, muss das Anwendungs-
Koordinatensystem in der Robotersteuerung eingerichtet werden. Wird das
Anwendungs-Koordinatensystem nach der Kalibrierung der Kamera geändert,
muss die Kamera erneut kalibriert werden.
- 72 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

Camera (Kamera)
Wählen Sie im Dropdown-Feld die zu kalibrierende Kamera aus. Wenn Sie einen Kameranamen
auswählen, wird der Positionsstatus der entsprechenden Kamera links neben dem Dropdown-Feld
angezeigt.
Vor der Kalibrierung müssen Blende und Fokus des Objektivs optimal für die Erkennung des Werkstücks
eingestellt werden. Das Roboterziel sollte auf halben Weg zwischen den beiden Ebenen und in der Mitte
der Kameraansicht festgelegt werden.
Wurden Blende und Fokus des Objektivs noch nicht eingestellt, so sollten Sie dies jetzt nachholen.
Öffnen Sie die Blende des Objektivs vorübergehend voll, und stellen Sie die Belichtungszeit auf eine gute
Helligkeit ein. Fokussieren Sie das Objektiv. Stellen Sie die Belichtungszeit auf 33,0 Millisekunden ein
und schließen Sie die Blende des Objektivs bei einer guten Helligkeit. Während der Kalibrierung führen
Sie die Zielerkennung durch, indem Sie an der Konfiguration der Kamera nichts Anderes als die
Belichtungszeit ändern. Die erste Blendeneinstellung wird vorgenommen, um die Tiefenschärfe der
Kamera auf einen Mindestbereich zu reduzieren, wodurch das höchste Abstimmungsverhältnis für den
Fokussierring erreicht wird. Die zweite Blendeneinstellung wird vorgenommen, um den größten
Helligkeitsbereich auf der Ebene des Bilderkennungsprozesses für die Belichtungszeit zu erzielen.

Exposure Time (Belichtungszeit)


Hier legen Sie die Belichtungszeit fest, um sicherzugehen, dass das Ziel leicht erkannt wird. Diese
Belichtungszeiteinstellung wird nur für die Kalibrierung verwendet. Einzelheiten über die Einstellung der
einzelnen Elemente finden Sie im Abschnitt 3.7.11 „Belichtungsmodus einstellen“.

Image Logging Mode (Bildprotokollierungsmodus)


Wählen Sie aus dem Dropdown-Feld aus, ob Sie Bilder im Bilderkennungsprotokoll speichern möchten.
Wenn Sie jedoch das Bilderkennungsprotokoll in der Systemvariable deaktiviert haben, werden keine
protokollierten Bilder gespeichert.

Plane spacing (Abstand der Ebenen)


Geben Sie hier den Abstand zwischen den Kalibrierungsebenen 1 und 2 an. Ein optimaler Abstand beträgt
10 % des Abstands zwischen Kamera und Kalibrierungsebene 1. Wenn Sie einen positiven Wert eingeben
und die Z-Achse des Anwendungs-Benutzer-Koordinatensystems zur Kamera gerichtet ist, oder wenn Sie
einen negativen Wert eingeben und die Z-Achse weist in die entgegengesetzte Richtung, befindet sich
Kalibrierungsebene 2 näher an der Kamera im Vergleich zu Kalibrierungsebene 1. Dies reduziert das
Risiko, dass der Roboter während der Bewegung von Peripheriegeräten beeinträchtigt wird.

Initial position (Startposition)


Geben Sie hier die Startposition für die Messung an. Diese Startposition sollte so eingestellt werden, dass
das am Roboterwerkzeug montierte Ziel ungefähr in der Mitte des Kamera-Sichtfeldes liegt. Die Höhe
der Startposition ist gleich der Höhe von Kalibrierungsebene 1. Während der Kamerakalibrierung bewegt
sich der Roboter parallel zur XY-Ebene des Anwendungs-Koordinatensystems, während die
Bewegungsstellung der Startposition beibehalten wird. Bewegen Sie den Roboter im Tippbetrieb an eine
Stelle, die sich als Startposition eignet, und tippen Sie auf die Taste [Record].
Kalibrierziel
Calibration target Camera
Kamera

Second Kalibrierebene
Zweite calibration plane

Z Erste Kalibrierebene
First calibration plane

X Measurement
Startposition fürstart position
Messung

Anwendungs-Benutzerkoordinatensystem
Application user frame
- 73 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

5.2.2 Kalibrierpunkte überprüfen


Wenn Sie in der Verzeichnisstruktur die Option [Robot-Generated Grid Calibration] auswählen und auf
den Tab [Points] tippen, erscheint die folgende Seite.

Auf dem Bild wird in der Mitte jedes erkannten Kreises ein blaues Fadenkreuz auf jedem
Kalibrierungspunkt in Kalibrierungsebene 1 und ein grünes Fadenkreuz auf jedem Kalibrierungspunkt in
Kalibrierungsebene 2 angezeigt. Unten rechts auf jedem Fadenkreuz wird die Nummer des
Kalibrierungspunkts angezeigt. Ein rotes Fadenkreuz zeigt die 3D-Position eines einzelnen Kreises, die
durch Projektion des Kreises mittels der errechneten Kalibrierungsdaten auf das Bild erzielt wird. Da
blaue und grüne Fadenkreuze nach den roten Fadenkreuzen geplottet werden, ist kein rotes Fadenkreuz
sichtbar, wenn sich ein blaues oder grünes Fadenkreuz an derselben Position befinden.

Vt, Hz
Die Koordinatenwerte der auf dem Bild gefundenen Kalibrierpunkte werden hier angezeigt.

X, Y, Z
Die Koordinatenwerte der auf dem Benutzer-Koordinatensystem gefundenen Gitterpunkte werden hier
angezeigt.

Error (Fehler)
Der Abstand zwischen den Mittelpunkten der blauen und grünen Fadenkreuze und den Mittelpunkten des
roten Fadenkreuzes auf dem Bild wird angezeigt. Ein kleinerer Wert weist auf eine genauere Kalibrierung
hin.

Kalibrierungspunkt löschen
Wenn ein Fadenkreuz an einer Stelle erscheint, an der kein Kalibrierungspunkt vorhanden ist, wählen sie
diesen Punkt aus, indem Sie ihn in der Liste antippen, oder geben Sie die Indexzahl dieses Punktes in das
Textfeld links neben der Taste [Delete]. Dann tippen Sie auf die Taste [Delete]. Der angegebene Punkt
wird aus der Liste gelöscht, und die Kalibrierungsdaten werden automatisch neu berechnet.

- 74 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

5.2.3 Kalibrierungsdaten überprüfen


Wenn Sie in der Verzeichnisstruktur die Option [Robot-Generated Grid Calibration] auswählen und auf
den Tab [Data] tippen, erscheint die folgende Seite.

Focal Distance (Brennweite)


Hier wird die berechnete Brennweite des Objektivs angezeigt. Prüfen Sie, ob dieser Wert für das
verwendete Objektiv geeignet ist.

Lens Distortion (Objektivverzeichnung)


Hier wird der berechnete Objektivverzeichnungs-Koeffizient angezeigt. Ein größerer Absolutwert weist
auf eine größere Objektivverzeichnung hin. Allgemein gilt, dass Objektive mit kürzerer Brennweite eine
größere Verzeichnung aufweisen. Bei der vom Roboter erzeugten Rasterkalibrierung werden genaue
Koordinaten ausgegeben, da diese berechnete Objektivverzeichnung verwendet wird, wenn das Bild-
Koordinatensystem genau in das Roboter-Koordinatensystem konvertiert wird.

Magnification (Abbildungsmaßstab)
Hier wird die Größe eines Pixels in Millimeter auf Kalibrierungsebene 1 angezeigt.
Der Wert zeigt, wie viele Millimeter einem Pixel im Bild entsprechen.

Image Center (Bildmittelpunkt)


Hier wird die Position angezeigt, an der das Licht durch den Mittelpunkt des Objektivs projiziert wird.
Ein typisches Objektiv ist so konzipiert, dass das Licht, das durch den Mittelpunkt des Objektivs fällt, auf
den Mittelpunkt des Bildes projiziert wird. Überprüfen Sie, ob der Bildmittelpunkt nahe am Mittelpunkt
des Kamerabildes liegt.

CCD Vertical Spacing (CCD-Zeilenvorschub)


Die physische Größe eines Pixels des Licht empfangenden Elements der verwendeten Kamera wird
angezeigt.

Aspect Ratio (Bildseitenverhältnis)


Hier wird das Seitenverhältnis eines Pixels des Bildes angezeigt.

- 75 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

Maximum / Mean Error (Maximaler/mittlerer Fehler)


Der Mittelfehler und der Maximalfehler aller auf dem Tab [Points] angezeigten Kalibrierungspunkte
werden angezeigt.

Position of Fixed Camera Relative to App UFrame (Position der feststehenden


Kamera in Relation zum Anwendungs-Benutzerkoordinatensystem)
Hier wird die Position der feststehenden Kamera in Relation zu dem Benutzer-Koordinatensystem, das
verschoben werden soll, angezeigt.

5.2.4 Automatische Neukalibrierung


Wenn die Position der Kamera verändert wird oder die Kamera aus irgendwelchen Gründen ausgetauscht
wird, nachdem das System in Betrieb genommen wurde, ist eine Neukalibrierung der Kamera
erforderlich. In einem solchen Fall ermöglicht die automatische Neukalibrierung Ihnen, die Kamera
einfach wieder in die richtige Position zu bringen. Da bei der Neukalibrierung der Kamera kein manueller
Eingriff erforderlich ist, verhindert die Neukalibrierung Bedienerfehler und anderes menschliches
Versagen. Bei der vom Roboter erzeugten Gitterkalibrierung wird automatisch ein
Kalibrierungsprogramm erzeugt. Durch Ausführen dieses Programms von der ersten Zeile an können Sie
eine Neukalibrierung durchführen.

ACHTUNG
Durch die automatische Neukalibrierung werden die Zielpositionierungsdaten
nicht zurückgesetzt. Stellen Sie sicher, dass das Ziel gut in der Position fixiert
ist, in der es ursprünglich kalibriert wurde, und dass es nicht bewegt wird.

5.3 KALIBRIERUNG MITTELS 3D-LASER-VISION-SENSOR


Die 3DL-Kalibrierung ist die Methode zur Kalibrierung des 3D-Laser-Vision-Sensors.
Wenn das Fenster für die Einrichtung der der 3DL-Kalibrierung geöffnet wird, erscheint folgender
Bildschirm:

ANMERKUNG
Wenn Sie die Kamera eines 3D-Laser-Vision-Sensors für 2D-Anwendungen
nutzen, kann die 3DL-Kalibrierung für die 2D-Anwendung verwendet werden.

- 76 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

5.3.1 Kamera kalibrieren


Kalibrierung der Kamera.

Robot to be offset (Roboter für Offset)


Geben Sie die Positionsverschiebung des Zielroboters an, indem Sie seine Steuerung und seine
Gruppennummer eintragen.

Application Frame (Anwendungs-Koordinatensystem)


Geben Sie die Nummer des Benutzer-Koordinatensystems des Roboters an, das für die Verschiebung der
Roboterposition verwendet werden soll. Die Messergebnisse werden vor der Ausgabe in Werte dieses
Koordinatensystems konvertiert.

In vielen Fällen wird das Basiskoordinatensystem des Roboters unter [Application Frame] eingerichtet.
In den folgenden Fällen wird das Benutzer-Koordinatensystem unter [Application Frame] eingerichtet.
• Die Kamera ist an einem anderen Roboter montiert, der nicht der für die Kompensation zuständige
Roboter ist.
• Das Kalibriergitter ist an einem anderen Roboter montiert, der nicht der für die Kompensation
zuständige Roboter ist.

ACHTUNG
Bevor die Kamerakalibrierung stattfinden kann, muss das Anwendungs-
Koordinatensystem in der Robotersteuerung eingerichtet werden. Wird das
Anwendungs-Koordinatensystem nach der Kalibrierung der Kamera geändert,
muss die Kamera erneut kalibriert werden.

Camera (Kamera)
Wählen Sie die Kamera aus, die Sie kalibrieren möchten.

Exposure Time (Belichtungszeit)


Legen Sie die Belichtungszeit fest, die angewendet werden soll, wenn das Raster in diesem Fenster
gefunden wird. Verwenden Sie einen Wert zwischen 0,04 und 250. Die Einheit lautet ms.

Laser Exposure Time (Laser-Belichtungszeit)


Legen Sie die Belichtungszeit fest, die anzuwenden ist, wenn Laserschlitze in diesem Fenster gefunden
werden. Die Einheit lautet ms.

Grid Spacing (Gitterabstand)


Geben Sie den Gitterabstand zwischen den Gitterpunkten des Kalibriergitters ein.
Die Einheit lautet mm.

Number of Planes (Anzahl von Ebenen)


Zeigt die Anzahl der Ebenen für die Kalibrierung an. Zwei Ebenen sind ausgewählt.
Diese Einstellung kann nicht verändert werden.

- 77 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

Robot-Held Cal. Grid (Kalibriergitter am Roboter)


Wählen Sie den Installationsstatus für das Kalibriergitter aus. Wählen Sie [No], wenn das Kalibriergitter
in Relation zum Benutzer-Koordinatensystem nicht bewegt wird. Wählen Sie [Yes], wenn das
Kalibriergitter am Roboter montiert ist.

Robot Holding Grid (Gitter an Roboter)


Dieses Element wird nur festgelegt, wenn unter [Calib. Grid Held by Robot] die Option [Yes] ausgewählt
wurde. Wählen Sie den Roboter aus, auf dem die Kalibrierungsplatte montiert ist. Geben Sie unter
[Group] die Gruppennummer des Roboters an.

Cal. Grid Frame (Kalibriergitter-Koordinaten)


Die Kalibriergitter-Koordinaten geben Position und Ausrichtung des Kalibriergitters an, wenn die
Kamerakalibrierung erfolgt ist.

Wenn das Kalibriergitter fest montiert ist, muss seine Position in Relation zum Basiskoordinatensystem
des Roboters im Bereich des Benutzerkoordinatensystems festgelegt werden. Auf diesem Bildschirm
wählen Sie die Nummer des Benutzer-Koordinatensystems aus, in dem die Informationen für das
Kalibriergitter-Koordinatensystem festgelegt wurden.

Wenn das Kalibriergitter am Roboterwerkzeug montiert ist, muss seine Position in Relation zum
Koordinatensystem der mechanischen Schnittstelle des Roboters (Roboter-Handgelenkflansch) in einem
Benutzer-Koordinatensystem-Bereich festgelegt werden. Auf diesem Bildschirm wählen Sie die Nummer
des Werkzeug-Koordinatensystems aus, in dem die Informationen für das Kalibriergitter-
Koordinatensystem festgelegt wurden.

Ausführliche Informationen zum Einrichten des Kalibriergitter-Koordinatensystems finden Sie in


Abschnitt 10.2, „EINRICHTEN DES GITTER-KOORDINATENSYSTEMS“.

Projection (Projektion)
Die Option [Perspective] ist ausgewählt. Diese Einstellung kann nicht verändert werden.

Override Focal Dist. (Brennweite überschreiben)


Die Brennweite des Objektivs wird verwendet. Die Option [No] ist ausgewählt.
Diese Einstellung kann nicht verändert werden.

Min. Laser Contrast (Minimaler Laser-Kontrast)


Legen Sie den Schwellenwert für den Kontrast fest, wenn eine Folge von Laserpunkten gefunden werden
soll. Geben Sie einen Wert zwischen 1 und 254 ein. Der Standardwert ist 50.

- 78 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

Min. Num. Laser Points (Mindestanzahl Laserpunkte)


Legen Sie die Mindestanzahl der Laserpunkte fest, die für die Kalibrierung benötigt werden.
Geben Sie einen Wert zwischen 1 und 479 ein. Der Standardwert ist 50.

Max Line Fit Error (Max. Übereinstimmungsfehler für Linie)


Hier legen Sie die Fehlerspanne fest, die anzuwenden ist, wenn eine Folge von Laserpunkten als auf einer
berechneten geraden Linie liegend angesehen wird. Der Wert liegt zwischen 0 und 10. Die Einheit wird in
mm angegeben, und der Standardwert lautet 3 mm.

Fixture Position Status (Position der Vorrichtung, Status)


Die aktuelle Einstellung wird angezeigt.
Dieses Element wird nur festgelegt, wenn unter [Calib. Grid Held by Robot] die Option [No] ausgewählt
wurde. Wenn Sie auf die Taste [Set] tippen, werden die unter [Application Frame] angegebenen Werte im
Anwendungs-Benutzerkoordinatensystem als die Position des Kalibriergitters registriert.

ACHTUNG
Wird die Position des Kalibriergitters verändert, z. B. beim erneuten Kalibrieren
der Kamera, muss die Position des Kalibriergitters erneut berechnet werden,
indem das Anwendungs-Benutzerkoordinatensystem, in dem sich das
Koordinatensystem des Kalibriergitters befindet, erneut festgelegt wird. Tippen
Sie anschließend auf die Taste [Set], um die Position des Kalibriergitters zu
aktualisieren.

Diese Taste ist deaktiviert, wenn das Kalibriergitter am Roboter montiert ist. Sobald das Raster gefunden
wird, werden die Positionsdaten des Kalibriergitters automatisch berechnet und gespeichert.

- 79 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

1st Plane, 2nd Plane (1. Ebene, 2. Ebene)


Der Status der aktuellen Kalibrierungsebene wird angezeigt. Um das Raster zu finden, führen Sie mit
montiertem oder festem Kalibriergitter für das unter [Calib. Grid Held by Robot] angegebene
Koordinatensystem die folgenden Schritte aus.

1 Platzieren Sie das Kalibriergitter in einem Abstand von etwa 350 mm (550 mm, wenn der Abstand
von Ihrem 3D-Lasersensor 600 mm beträgt) vom 3D-Lasersensor, sodass sich beide gegenüber
stehen.

ACHTUNG
Das Kalibriergitter muss nicht unbedingt das Sichtfeld ausfüllen, aber die
Kalibrierung wird ungenauer, wenn die Kreise des Rasters nur zum Teil auf dem
Bild erscheinen. Achten Sie darauf, dass das Bild mit den Kreisen des Rasters
ausgefüllt ist. Machen Sie sich keine Gedanken, wenn einige Kreise außerhalb
des Bildes liegen.

2 Tippen Sie auf die Taste [Snap and Find] neben [1st Plane].
3 Programmieren Sie das Suchfenster für das Raster und die Folge der Laserpunkte so, dass nur das
Raster in das Suchfenster hineinpasst. Dann drücken Sie F4 OK.

4 Stellen Sie sicher, dass fast alle Kreise gefunden wurden und die Laserschlitze sich deutlich
abzeichnen. Wenn die Lokalisierung erfolgreich war, wird unter [1st Plane] der Vermerk [Found]
angezeigt.
5 Platzieren Sie das Kalibriergitter in einem Abstand von etwa 450 mm (650 mm, wenn der Abstand
von Ihrem 3D-Lasersensor 600 mm beträgt) vom 3D-Lasersensor, sodass sich beide gegenüber
stehen.
6 Tippen Sie auf die Taste [Snap and Find] neben [2nd Plane].
7 Programmieren Sie das Suchfenster für das Raster und die Folge der Laserpunkte so, dass nur das
Raster in das Suchfenster hineinpasst. Dann drücken Sie F4 OK.
8 Stellen Sie sicher, dass fast alle Kreise gefunden wurden und die Laserschlitze sich deutlich
abzeichnen. Wenn die Lokalisierung erfolgreich war, wird unter [2nd Plane] der Vermerk [Found]
angezeigt.

- 80 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

5.3.2 Kalibrierpunkte überprüfen


Hiermit überprüfen Sie die gefundenen Kalibrierpunkte.

Wenn Sie auf den Tab [Points] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

1 Achten Sie auf Fadenkreuze, die an anderen Stellen als auf den Gitterpunkten erscheinen.
2 Wenn ein falscher Punkt vorliegt, geben Sie die Nummer dieses Punkts in das Textfeld rechts neben
[Point Number] ein und tippen Sie auf die Taste [Delete].

Auf dem Bild sehen Sie ein grünes und ein gelbes Fadenkreuz in der Mitte jedes gefundenen Kreises. Das
grüne Fadenkreuz gibt an, wo der Kalibrierpunkt im Bild gefunden wurde. Das gelbe Fadenkreuz zeigt
die berechnete Position, an der sich der Kalibrierpunkt befinden sollte. Da grüne Fadenkreuze nach den
gelben Fadenkreuzen geplottet werden, ist nur ein grünes Fadenkreuz sichtbar, wenn sich ein grünes und
ein gelbes Fadenkreuz an derselben Position befinden.

Plane (Ebene)
Anzeige der Kalibrierpunkte der vorherigen oder nächsten Kalibrierebene.
Verwenden Sie diese Elemente, wenn Sie die Kalibrierung in zwei Ebenen durchführen.

Vt, Hz
Die Koordinatenwerte der auf dem Bild gefundenen Kalibrierpunkte werden hier angezeigt.

X, Y, Z
Die Koordinatenwerte der Gitterpunkte auf dem Kalibriergitter-Koordinatensystem werden hier
angezeigt.

Error (Fehler)
Der Abstand zwischen den Mittelpunkten des grünen Fadenkreuzes und des gelben Fadenkreuzes auf dem
Bild wird angezeigt. Ein kleinerer Wert weist auf eine genauere Kalibrierung hin.

Kalibrierungspunkt löschen
Wenn ein Fadenkreuz an einer Stelle erscheint, an der kein Gitterpunkt vorhanden ist, geben Sie die
Indexzahl dieses Punktes in das Textfeld links neben der Taste [Delete] ein und tippen Sie anschließend
auf die Taste [Delete]. Der angegebene Punkt wird aus der Liste gelöscht, und die Kalibrierungsdaten
werden automatisch neu berechnet.
- 81 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

5.3.3 Kalibrierungsdaten überprüfen


Tippen Sie auf den Tab [Data].

Focal Distance (Brennweite)


Hier wird die berechnete Brennweite des Objektivs angezeigt.
Prüfen Sie, ob dieser Wert für das verwendete Objektiv geeignet ist.

Lens Distortion (Objektivverzeichnung)


Hier wird der berechnete Objektivverzeichnungs-Koeffizient angezeigt. Ein größerer Absolutwert weist
auf eine größere Objektivverzeichnung hin. Allgemein gilt, dass Objektive mit kürzerer Brennweite eine
größere Verzeichnung aufweisen. Bei der Rasterkalibrierung werden genaue Koordinaten ausgegeben, da
diese berechnete Objektivverzeichnung verwendet wird, wenn das Bild-Koordinatensystem genau in das
Roboter-Koordinatensystem konvertiert wird.

Magnification (Abbildungsmaßstab)
Hier wird die Größe eines Pixels in Millimeter auf der Rasterebene angezeigt. Der Wert zeigt, wie viele
Millimeter einem Pixel entsprechen. Wenn die Rasterebene nicht vertikal zur optischen Achse der
Kamera verläuft, wird der Abbildungsmaßstab in der Nähe des Mittelpunkts des Bildes angezeigt.

Image Center (Bildmittelpunkt)


Die Koordinaten des Bildmittelpunkts werden angezeigt.

CCD Vertical Spacing (CCD-Zeilenvorschub)


Die physische Größe eines Pixels des Licht empfangenden Elements der verwendeten Kamera wird
angezeigt.

Aspect Ratio (Bildseitenverhältnis)


Hier wird das Seitenverhältnis eines Pixels des Bildes angezeigt.

Maximum / Mean Error (Maximaler/mittlerer Fehler)


Der Mittelfehler und der Maximalfehler jedes auf dem Tab [Points] angezeigten Kalibrierungspunkts
werden angezeigt.

- 82 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

Position of Camera Relative to Cal. Grid


(Kameraposition in Relation zum Kalibriergitter)
Hier wird die Position der Kamera in Relation zum Kalibriergitter-Koordinatensystem angezeigt.
Informationen zum Einstellen des Kalibriergitters finden Sie in Kapitel 11, „KALIBRIERGITTER“.

Laser1 Plane Relative to Calibration Grid


(Ebene von Laser1 in Relation zum Kalibriergitter)
Die Ebene von Laser 1 in Relation zum Kalibriergitter-Koordinatensystem.

Laser2 Plane Relative to Calibration Grid


(Ebene von Laser2 in Relation zum Kalibriergitter)
Die Ebene von Laser 2 in Relation zum Kalibriergitter-Koordinatensystem.

Position of Cal. Grid relative to App UFrame (Position des Kalibriergitters in


Relation zum Anwendungs-Benutzerkoordinatensystem)
Hier wird die Position des Kalibriergitters in Relation zu dem unter [Application Frame:] des Tabs
[Setup] ausgewählten Benutzer-Koordinatensystem angezeigt. Dies ist die Position, an der sich das
Kalibriergitter zum Zeitpunkt der Kamerakalibrierung befand.

Position of Robot Holding Camera


(Position des Roboters mit Kamera)
Hier wird die Position des Roboters angezeigt, an dem die Kamera zum Zeitpunkt der Kalibrierung
montiert war. Hier wird die Position des Koordinatensystems der mechanischen Roboterschnittstelle
(Roboter-Handgelenkflansch) in Relation zu dem unter [Application Frame:] des Tabs [Setup]
ausgewählten Benutzer-Koordinatensystems angezeigt. Der Wert wird nur für eine an einem Roboter
montierte Kamera angezeigt.

Camera Frame Relative to Robot


(Kamera-Koordinatensystem relativ zum Roboter)
Die Option [Camera frame relative to the robot] auf dem Tab [Data] gibt die Position des
Koordinatensystems an, das die Aufnahmerichtung der Kamera relativ zum Koordinatensystem der
mechanischen Schnittstelle des Roboters (Roboter-Handgelenkflansch) zeigt, wenn der 3D-Lasersensor
am Roboter montiert ist. Das Kamera-Koordinatensystem wird so definiert, dass sich der Ursprungspunkt
400 mm (oder 600 mm, je nach Abstand des 3D-Lasersensors) vom Kamerafenster entfernt auf der
optischen Achse der Kamera befindet und die Z-Achse parallel zur optischen Achse der Kamera verläuft.
Wenn dieser Wert für das Werkzeug-Koordinatensystem (User Tool) des Roboters festgelegt wird und
auf der Grundlage des Werkzeug-Koordinatensystems (User Tool) ein Tippbetrieb durchgeführt wird,
kann der Roboter im Tippbetrieb ohne Ändern des Kameraabstands oder ohne Drehung der Kamera um
die optische Achse bewegt werden.

Laser Frame Relative to Robot


(Laser-Koordinatensystem relativ zum Roboter)
Die Option [Laser frame relative to the robot] auf dem Tab [Data] gibt die Position des
Koordinatensystems an, das die Richtung des Laserstrahls relativ zum Koordinatensystem der
mechanischen Schnittstelle des Roboters (Roboter-Handgelenkflansch) zeigt, wenn der 3D-Lasersensor
am Roboter montiert ist. Das Laser-Koordinatensystem wird so definiert, dass sich der Ursprungspunkt
400 mm (oder 600 mm, je nach Abstand des 3D-Lasersensors) vom Kamerafenster entfernt auf der
Schnittlinie von zwei Schlitzlaserstrahlen befindet und die Z-Achse parallel zur Schnittlinie der beiden
Schlitzlaserstrahlen verläuft. Wenn dieser Wert für das Werkzeug-Koordinatensystem (User Tool) des
Roboters festgelegt wird und auf der Grundlage des Werkzeug-Koordinatensystems (User Tool) ein
Tippbetrieb durchgeführt wird, kann der Roboter im Tippbetrieb parallel mit den beiden
Schlitzlaserstrahlen bewegt oder die Kamera kann um die Laserstrahlen gedreht werden.

- 83 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

5.3.4 Automatische Neukalibrierung


Wenn die Position des 3D-Lasersensors verändert wird oder der Sensor aus irgendwelchen Gründen
ausgetauscht wird, nachdem das System in Betrieb genommen wurde, ist eine Neukalibrierung des 3D-
Lasersensors erforderlich. In einem solchen Fall ermöglicht die automatische Neukalibrierung Ihnen, den
Sensor leicht zurück in die richtige Position zu bringen. Da bei der Neukalibrierung des Sensors kein
manueller Eingriff erforderlich ist, verhindert die Neukalibrierung Bedienerfehler und anderes
menschliches Versagen. Um die automatische Neukalibrierung durchzuführen muss vorab ein
Roboterprogramm für die automatische Neukalibrierung eingelernt werden. Es folgt ein
Programmbeispiel. Unter P[1] wird die Position des Roboters angegeben, um die Kalibrierebene 1 zu
erkennen. Kalibrierebene 2 liegt 100 mm höher in Z-Richtung als Kalibrierebene 1.

1: UFRAME_NUM=1
2: UTOOL_NUM=1
3:J P[1] 100% FINE
4:
5: PR[99]=LPOS
6: PR[99,1]=0
7: PR[99.2]=0
8: PR[99.4]=0
9: PR[99.5]=0
10: PR[99.6]=0
11:
12:! Find plane-1
13: PR[99.3]=0
14:J P[1] 100% FINE OFFSET,PR[99]
15: CALL IRVBKLSH(1)
16: VISION CAMERA_CALIB 'CALIB1' REQUEST=1
17:
18:! Find plane-2
19: PR[99.3]=100
20:J P[1] 100% FINE OFFSET,PR[99]
21: CALL IRVBKLSH(1)
22: VISION CAMERA_CALIB 'CALIB1' REQUEST=2
23: END

Führen Sie das erstellte Roboterprogramm aus, um die automatische Neukalibrierung durchzuführen.

ACHTUNG
1 Durch die automatische Neukalibrierung wird das Kalibriergitter-
Koordinatensystem nicht zurückgesetzt. Stellen Sie sicher, dass das
Kalibriergitter gut in der Position fixiert ist, in der es ursprünglich kalibriert wurde,
und dass es nicht bewegt wird.
2 Ist das Kalibriergitter am Roboter montiert, dürfen die Werte des Werkzeug-
Koordinatensystems, in dem sich das Kalibriergitter-Koordinatensystem befindet,
nicht geändert werden. Die Werte des Werkzeug-Koordinatensystems werden
referenziert, wenn die Position des Kalibriergitters von der Roboterposition aus
berechnet wird.

- 84 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

5.4 KALIBRIERUNG MITTELS VISUAL TRACKING


Die Kalibrierung mittels Visual Tracking (zu deutsch: visuelle Verfolgung) ist die Kamera-
Kalibriermethode für Visual Tracking-Anwendungen. Wird die Kamerakalibrierung mittels Visual
Tracking ausgewählt, erscheint folgender Bildschirm:

5.4.1 Kamera kalibrieren


Kalibrierung der Kamera.

Camera (Kamera)
Wählen Sie eine Kamera aus.

Conveyor Name (Förderer-Name)


Wählen Sie einen Förderer für die zu verwendende Visual Tracking-Anwendung aus. Informationen über
die Förderer finden Sie im „Bedienungshandbuch für die Steuerung R-30iB/R-30iB Mate – iRPickTool“.
Wenn Sie im Einrichtungsbildschirm für das iRPickTool einen Förderer hinzufügen oder löschen,
nachdem Sie diesen Bildschirm geöffnet haben, klicken Sie auf die Taste [Refresh], um die Optionen im
Dropdown-Feld [Conveyor Name] zu aktualisieren.

Bei Version V8.10P oder V8.13P der Steuerungen wird dieses Element als „Line Name (Anlagenname)“
angezeigt. Informationen über die Anlagen finden Sie im „Bedienungshandbuch für die Steuerung R-30iB
– iRVision Visual Tracking“.

Exposure Time (Belichtungszeit)


Geben Sie hier die Verschlusszeit der Kamera ein.

Grid Spacing (Gitterabstand)


Geben Sie den Gitterabstand zwischen den Gitterpunkten des Kalibriergitters ein.

Projection (Projektion)
Wählen Sie [Perspective] aus.

Override Focal Dist. (Brennweite überschreiben)


Wählen Sie [Yes] aus und geben Sie die Brennweite des Objektivs in das Textfeld rechts ein.
- 85 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

Calibration Wizard (Kalibrierungs-Assistent)


Befolgen Sie die folgenden Schritte im Assistenten, um die Kamerakalibrierung durchzuführen:

ACHTUNG
Achten Sie darauf, dass vor Ausführen der Kamerakalibrierung das Tracking-
Koordinatensystem festgelegt wurde. Wird das Tracking-Koordinatensystem
nach der Kalibrierung der Kamera geändert, muss die Kamera erneut kalibriert
werden.

1 Tippen Sie auf die Taste [Calibration Wizard], wenn das Kalibriergitter innerhalb des Kamera-
Sichtfeldes platziert wurde.

2 Prüfen Sie, ob das Raster auf dem Kalibriergitter auf dem Bildschirm angezeigt wird, dann drücken
Sie F4 OK. Das Bild erweitert sich mit dem eingestellten Suchbereich, um eine große Fläche zu
erfassen. Passen Sie die Ankerpunkte an, falls nötig.

ACHTUNG
Das Kalibriergitter muss nicht unbedingt das Sichtfeld ausfüllen, aber die
Kalibrierung wird ungenauer, wenn die Kreise des Rasters nur zum Teil auf dem
Bild erscheinen. Achten Sie darauf, dass das Bild mit den Kreisen des Rasters
ausgefüllt ist. Machen Sie sich keine Gedanken, wenn einige Kreise außerhalb
des Bildes liegen.

- 86 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG
3 Setzen Sie ein rotes rechteckiges Fenster auf das Raster, dann drücken Sie F4 OK.
Es sollten so viele vollständige Kreise wie möglich von dem Rechteck umschlossen werden.

4 Nach Beendigung der Rasterlokalisierung wird der folgende Bildschirm angezeigt.

5 Bewegen Sie den Förderer so, dass das Kalibriergitter vor einen Roboter zu liegen kommt, der mit
der Steuerung verbunden ist, auf dem der Einrichtbildschirm für iRVision geöffnet ist.

ACHTUNG
Achten Sie darauf, dass die Kalibrierplatte nicht bewegt wird.

- 87 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

6 Bewegen Sie den Roboter im Tippbetrieb, sodass sich der TCP (Werkzeug-Mittelpunkt) auf dem
Ursprungspunkt des Kalibriergitters befindet, und drücken Sie F4 OK.

7 Bewegen Sie den Roboter im Tippbetrieb, sodass sich der TCP (Werkzeug-Mittelpunkt) auf der
positiven X-Achse des Kalibriergitters befindet, und drücken Sie F4 OK.

- 88 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG
8 Bewegen Sie den Roboter im Tippbetrieb, sodass sich der TCP (Werkzeug-Mittelpunkt) auf einem
Punkt auf der positiven Y-Achse des Kalibriergitters befindet, und drücken Sie F4 OK.

9 Drücken Sie F4 OK.

5.4.2 Kalibrierpunkte überprüfen


Hiermit überprüfen Sie die gefundenen Kalibrierpunkte.

Wenn Sie auf den Tab [Points] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Auf dem Bild sehen Sie ein grünes und ein rotes Fadenkreuz in der Mitte jedes gefundenen Kreises. Ein
grünes Fadenkreuz zeigt die Position eines Kalibrierungspunkts an, der auf dem Bild erkannt wurde. Ein
rotes Fadenkreuz zeigt die 2D-Position eines einzelnen Kreises. Diese repräsentieren die Positionen, die
durch Projektion der Punkte auf das Bild durch Berechnung der Kalibrierdaten ermittelt wurden. Da
grüne Fadenkreuze nach den roten Fadenkreuzen geplottet werden, ist nur ein grünes Fadenkreuz
sichtbar, wenn sich ein grünes und ein rotes Fadenkreuz an derselben Position befinden.

- 89 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

Vt, Hz
Die Koordinatenwerte der auf dem Bild gefundenen Kalibrierpunkte werden hier angezeigt.

X, Y, Z
Die Koordinatenwerte der Gitterpunkte auf dem Kalibriergitter-Koordinatensystem werden hier
angezeigt.

Error (Fehler)
Der Abstand zwischen den Mittelpunkten des grünen Fadenkreuzes und des roten Fadenkreuzes auf dem
Bild wird angezeigt. Ein kleinerer Wert weist auf eine genauere Kalibrierung hin.

Kalibrierungspunkt löschen
Wenn ein Fadenkreuz an einer Stelle erscheint, an der kein Gitterpunkt vorhanden ist, geben Sie die
Indexzahl dieses Punktes in das Textfeld links neben der Taste [Delete] ein und tippen Sie anschließend
auf die Taste [Delete]. Der angegebene Punkt wird aus der Liste gelöscht, und die Kalibrierungsdaten
werden automatisch neu berechnet. Durch doppeltes Antippen der Überschrift „Err“ lässt sich die Spalte
sortieren. Im folgenden Beispiel weist #73 einen großen Fehler auf. Tippen Sie auf die Zahl 73, und der
Punkt im Bild wird hervorgehoben. In diesem Fall ist 73 ein falscher Kreis. Geben Sie 73 als
Punktnummer an und tippen Sie auf [Delete]. Der Punkt wird entfernt, und es erfolgt eine neue
Berechnung.

- 90 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 5.KAMERA-KALIBRIERUNG

5.4.3 Kalibrierungsdaten überprüfen


Hiermit können Sie die berechneten Kalibrierungsdaten überprüfen. Tippen Sie auf den Tab [Data].

Focal Distance (Brennweite)


Hier wird die berechnete Brennweite des Objektivs angezeigt.
Prüfen Sie, ob dieser Wert für das verwendete Objektiv geeignet ist.

Wenn die W- und P-Werte im Abschnitt [Position of Camera Relative to Calibration Grid] (Position der
Kamera in Relation zum Kalibriergitter) sich beide um weniger als ein paar Grad ± unterscheiden, kann
die Brennweite nicht genau gemessen werden. Daher setzen Sie die Option [Override Focal Distance] auf
dem Tab [Setup] auf [Yes] und geben die Nenn-Brennweite des verwendeten Objektivs ein. Beim
Eingeben der Brennweite werden die Kalibrierungsdaten automatisch neu berechnet.

Lens Distortion (Objektivverzeichnung)


Hier wird der berechnete Objektivverzeichnungs-Koeffizient angezeigt. Ein größerer Absolutwert weist
auf eine größere Objektivverzeichnung hin. Allgemein gilt, dass Objektive mit kürzerer Brennweite eine
größere Verzeichnung aufweisen. Bei der Kalibrierung für Visual Tracking werden genaue Koordinaten
ausgegeben, da diese berechnete Objektivverzeichnung verwendet wird, wenn das Bild-
Koordinatensystem genau in das Roboter-Koordinatensystem konvertiert wird.

Magnification (Abbildungsmaßstab)
Hier wird die Größe eines Pixels in Millimeter auf Rasterebene angezeigt. Der Wert zeigt, wie viele
Millimeter einem Pixel entsprechen. Wenn die Rasterebene nicht vertikal zur optischen Achse der
Kamera verläuft, wird der Abbildungsmaßstab in der Nähe des Mittelpunkts des Bildes angezeigt.

Image Center (Bildmittelpunkt)


Die Koordinaten des Bildmittelpunkts werden angezeigt.

- 91 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

5.KAMERA-KALIBRIERUNG B-83304GE/02

CCD Vertical Spacing (CCD-Zeilenvorschub)


Die physische Größe eines Pixels des Licht empfangenden Elements der verwendeten Kamera wird
angezeigt.

Aspect Ratio (Bildseitenverhältnis)


Hier wird das Seitenverhältnis eines Pixels des Bildes angezeigt.

Maximum / Mean Error (Maximaler/mittlerer Fehler)


Der Mittelfehler und der Maximalfehler jedes auf dem Tab [Points] angezeigten Kalibrierungspunkts
werden angezeigt.

Position of Camera Relative to Calibration Grid


(Kameraposition in Relation zum Kalibriergitter)
Hier wird die Position der Kamera in Relation zum Kalibriergitter-Koordinatensystem angezeigt.
Informationen zum Einstellen des Kalibriergitters finden Sie in Kapitel 11, „KALIBRIERGITTER“.

Position of Cal. Grid Relative to Tracking Frame


(Position des Kalibriergitters in Relation zum Tracking-Koordinatensystem)
Hier wird bei Erkennung des Rasters die Position des Kalibriergitters in Relation zum Tracking-
Koordinatensystem erkannt. Informationen zum Tracking-Koordinatensystem finden Sie im
„Bedienungshandbuch für die Steuerung R-30iB/R-30iB Mate – iRPickTool“ für Steuerungen der
Versionen V8.20P und darüber, oder im „Bedienungshandbuch für die Steuerung R-30iB – iRVision
Visual Tracking“ für Steuerungen der Versionen V8.10P und V8.13P.

- 92 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6 BILDERKENNUNGSPROZESSE
Dieses Kapitel beschreibt den Einrichtungsvorgang für Bilderkennungsprozesse.

6.1 2D SINGLE-VIEW VISION PROCESS


(2D-Bilderkennungsprozess mit Einzelansicht)
Dieser Bilderkennungsprozess erkennt die zweidimensionale Position eines Werkstücks mit einer
einzelnen Kamera und verändert die Roboterposition.

6.1.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters [2D Single-view Vision Process] wird eine Bildschirmmaske wie
unten dargestellt angezeigt.

- 93 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Multiple Locator Find Mode (Modus zum Auffinden mehrerer Locator-Tools)


Wenn Sie mehr als ein Locator-Tool angelegt haben, können Sie auswählen, wie diese Tools ausgeführt
werden sollen.

Find Best (Bestes Tool suchen)


Es werden alle Locator-Tools ausgeführt und das beste Ergebnis wird ausgewählt. Diese Funktion ist
hilfreich, wenn Sie den Typ identifizieren wollen oder die Lokalisierungszuverlässigkeit stärker
gewichten wollen als die Verarbeitungszeit.

Find First (Erstes Tool suchen)


Alle Locator-Tools werden von Anfang an nacheinander ausgeführt, bis die angegebene Anzahl
Werkstücke gefunden wurde. Die folgenden Locator-Tools werden nicht ausgeführt, sobald die
Anzahl der Fundstellen die angegebene Anzahl übersteigt. Zur Information: Die Dublettenprüfung
wird jedes Mal ausgeführt, wenn ein Locator-Tool ausgeführt wird. Die Anzahl der Fundstellen, die
mit der angegebenen Anzahl verglichen wird, enthält keine doppelten Werkstücke.

Number to Find (Anzahl zu findender Werkstücke)


Geben Sie die maximale Anzahl Werkstücke an, die bei jeder Messung gefunden werden soll.
Es kann ein Wert von 1 bis 100 angegeben werden.

Offset Mode (Offset-Modus)


Wählen Sie den Modus für die Verschiebungen der Roboterposition aus.

- 94 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Fixed Frame Offset (Offset des feststehenden Koordinatensystems)


Die Daten für den Offset des feststehenden Koordinatensystems werden berechnet.

Tool Offset (Werkzeug-Offset)


Die Daten für den Werkzeug-Offset werden berechnet.

Found Position (Gefundene Position)


Die gefundene Position wird so anstelle der Offset-Daten ausgegeben. Diese Option kann für
eventuell erforderliche spezielle Offset-Modi verwendet werden. Sie sollte unter normalen
Umständen nicht gewählt werden.

Robot Holding the Part (Werkstück an Roboter)


Wenn Sie [Tool Offset] als [Offset Mode] gewählt haben, geben Sie den Roboter an, an dem sich das
Werkstück befindet.

Offset Frame (Offset-Koordinatensystem)


Ein zweidimensionaler Bilderkennungsprozess ermittelt die Verschiebung eines Werkstücks auf einer
Ebene. Die Ebene wird als Offset-Ebene bezeichnet. Die Offset-Ebene wird als eine parallele Ebene zur
XY-Ebene des Offset-Koordinatensystems definiert. Geben Sie hier das Offset-Koordinatensystem an.
Wenn Sie [Fixed Frame Offset] als [Offset Mode] gewählt haben, geben Sie ein
Benutzer-Koordinatensystem als Offset-Koordinatensystem an. Wenn Sie [Tool Offset] als [Offset Mode]
gewählt haben, geben Sie ein User Tool an. Unten finden Sie Beispiele für das Offset-Koordinatensystem
im Fall eines Fixed Frame Offset (Offset des feststehenden Koordinatensystems).

Z
Z
User
Benutzer
Benutzer
User
X
X
X

Bei waagerechter Bewegung des Werkstücks Bei Bewegung des Werkstücks auf einer geneigten Ebene

ANMERKUNG
Die Höhe Z der Offset-Ebene wird als [Part Z height] vorgegeben und im
Folgenden erläutert. Hier können Sie die Neigung der Offset-Ebene
bestimmen.

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird.
Wenn jedoch im Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das
Bilderkennungsprotokoll deaktiviert ist, werden die Bilder nicht gespeichert.

- 95 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die für die Protokollierung von Bilderfassungsdaten
erforderliche Zeit ist abhängig von der Art des verwendeten Speichers.
Verwenden Sie diese Funktion erst, nachdem Sie überprüft haben, ob die
Verzögerung beim Protokollieren von Bilddaten mit Ihrer Anwendung kompatibel
ist.

Parameter für die Sortierung einstellen


Einstellen der Parameter für die Sortierung, wenn mehr als ein Werkstück gefunden wurde.
Einzelheiten finden Sie im Abschnitt 3.7.12 „Sorting“ (Sortierung)

Delete Duplicates If < (Dubletten löschen, wenn <)


Position und Winkel eines jeden gefundenen Ergebnisses werden daraufhin überprüft, ob eine
Übereinstimmung mit einem anderen Ergebnis vorliegt. Werden mehrere Ergebnisse innerhalb der
angegebenen Pixel und Winkel gefunden, wird interpretiert, dass es sich um das gleiche Werkstück
handelt und nur das Suchergebnis mit der höchsten Wertigkeit wird ausgegeben.

Ref. Data To Use (Anzuwendende Ref.-Daten)


Die Referenzdaten werden für die Berechnung der Offset-Daten aus dem Suchergebnis verwendet.
Die Referenzdaten bestehen im Wesentlichen aus zwei Arten von Daten, die im Folgenden beschrieben
werden.

Part Z Height (Teil-Höhe Z)


Höhe des gefundenen Teils des Werkstücks aus dem Blickwinkel des Offset-Koordinatensystems.

Ref. Pos. Status (Status der Sollposition)


Beim Einlernen der Roboterposition ermittelte Werkstückposition. Die Offset-Daten sind die
Differenz zwischen der mit dem Bilderkennungsprozess ermittelten Werkstück-Istposition und der
Sollposition.

Ein Bilderkennungsprozess kann mehr als einen Referenzdatensatz haben. Unter normalen Umständen
wird nicht mehr als ein Referenzdatensatz verwendet. Gibt es jedoch zwei Arten von Werkstücken, die
eine unterschiedliche Länge haben, verwendet der Bilderkennungsprozess zwei Referenzdatensätze, da
jeweils eine unterschiedliche Part Z Height (Teil-Höhe Z) für die Werkstücke eingestellt werden muss.

- 96 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Ref. Data Index To Use (Anzuwendender Referenzdatenindex)


Wählen Sie eine der folgenden Optionen, um festzulegen, wie die zu verwendenden Referenzdaten
bestimmt werden sollen.

This Index (Dieser Index)


Zum Berechnen der Offset-Daten werden die gleichen Referenzdaten verwendet.

Model ID (Modell-ID)
In Abhängigkeit von der Modell-ID des gefundenen Werkstücks werden unterschiedliche
Referenzdaten verwendet. Wählen Sie diese Option, wenn mehr als zwei Arten von Werkstücken
mit unterschiedlichen Höhen vorhanden sind.

ID
Wird [This Index] bei [Ref.Data Index To Use] gewählt, muss die zu verwendende Referenzdaten-ID
angegeben werden.

Measurements in mm (Maße in Millimetern)


Wird diese Option gewählt, werden die Längenmaße von den Befehlstools der untergeordneten Ebene in
Millimeterwerte konvertiert und als solche ausgegeben. Diese Funktion ist nur verfügbar, wenn für diesen
Bilderkennungsprozess nur ein einziger Referenzdatensatz verwendet wird.

Adding reference data (Referenzdaten hinzufügen)


Referenzdaten können wie folgt hinzugefügt werden:
1 Tippen Sie auf die Taste .
2 Geben Sie bei [Model ID] die Modell-ID ein, für die die Referenzdaten verwendet werden sollen.

Deleting reference data (Referenzdaten löschen)


Wenn mehr als ein Datensatz vorhanden ist, können Referenzdaten wie folgt gelöscht werden:

1 Wählen Sie aus der Dropdown-Liste des Index die Referenzdaten aus, die Sie löschen möchten.
2 Tippen Sie auf die Taste .
3 Sie werden von einer Popup-Meldung aufgefordert, den Vorgang zu bestätigen. Drücken Sie F4 OK.

Part Z Height (Teil-Höhe Z)


Geben Sie die Höhe der programmierten Eigenschaften des Werkstücks über oder unter dem
Offset-Koordinatensystem ein.

Ref. Pos. Status (Status der Sollposition)


Ist die Sollposition gesetzt, wird [Set] in Grün angezeigt; ist sie nicht gesetzt [Not Set], in Rot.

Reference Position X,Y,R (Sollposition X, Y, R)


Die Koordinatenwerte der eingestellten Sollposition werden angezeigt.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob der berechnete Offset-Wert innerhalb des
vorgegebenen Bereichs liegt. Standardmäßig ist [None selected] eingestellt und in diesem Falle erfolgt
keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der Offset-Grenzwertprüfung
finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

- 97 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.1.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X,Y
Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Werkstücks (Einheit: mm).

R
Rotationswinkel des gefundenen Werkstücks um die Z-Achse (Einheit: Grad).

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Wertigkeit des gefundenen Werkstücks.

Contrast (Kontrast)
Kontrast des gefundenen Werkstücks.

Fit Err. (Übereinstimmungsfehler)


Elastizität des gefundenen Werkstücks (Einheit: Pixel).

- 98 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.1.3 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster des Bilderkennungsprozess.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich der
Kamera.
3 Geben Sie die korrekte Part Z Height (Teil-Höhe Z) ein, d. h. die Höhe der gefundenen Kanten über
oder unter dem Anwendungs-Benutzerkoordinatensystem.
4 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
5 Tippen Sie auf die Taste [Set Ref].
6 Überprüfen Sie, dass [Ref. Pos. Status] auf [Set] eingestellt ist und dass ein Wert für jedes
Sollpositionselement angezeigt wird.

Nun wird die Position, an der das Werkstück sich befindet, während die Sollposition gesetzt wird,
eingelernt. Während des Einlernens der Position darf das Werkstück nicht bewegt werden.

6.1.4 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13 „OVERRIDE
(Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

- 99 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.2 2D MULTI-VIEW VISION PROCESS


(Bilderkennungsprozess der zweidimensionalen
Mehrfachansicht)
In diesem Bilderkennungsprozess wird die zweidimensionale Position des Werkstücks mittels Erkennung
mehrerer Merkmale an verschiedenen Teilen des Werkstücks ermittelt und die Roboterposition
verschoben. Dies ist dann hilfreich, wenn das Werkstück aufgrund seiner Größe nicht vollständig von der
Kamera erfasst werden kann.

Für diesen Vorgang ist das Tool „Camera View“ unter dem Bilderkennungsprozess zu finden. Ein
Erfassungsbereich der Kamera entspricht einem Messpunkt. Standardmäßig sind zwei
Kameraerfassungsbereiche vorhanden, aber diese Anzahl kann auf maximal vier erhöht werden.

6.2.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [2D Multi-View Vision Process] wird eine Bildschirmmaske
wie unten dargestellt angezeigt.

- 100 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE
Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Offset Mode (Offset-Modus)


Wählen Sie den Modus für die Verschiebungen der Roboterposition aus.

Fixed Frame Offset (Offset des feststehenden Koordinatensystems)


Die Daten für den Offset des feststehenden Koordinatensystems werden berechnet.

Tool Offset (Werkzeug-Offset)


Die Daten für den Werkzeug-Offset werden berechnet.

Robot Holding the Part (Werkstück an Roboter)


Wenn Sie [Tool Offset] in [Offset Mode] gewählt haben, geben Sie den Roboter an, an dem sich das
Werkstück befindet.

- 101 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Offset Frame (Offset-Koordinatensystem)


Ein zweidimensionaler Bilderkennungsprozess ermittelt die Verschiebung eines Werkstücks auf einer
Ebene. Die Ebene wird als Offset-Ebene bezeichnet. Die Offset-Ebene wird als eine parallele Ebene zur
XY-Ebene des Offset-Koordinatensystems definiert. Geben Sie hier das Offset-Koordinatensystem an.
Wenn Sie [Fixed Frame Offset] als [Offset Mode] gewählt haben, geben Sie ein
Benutzer-Koordinatensystem als Offset-Koordinatensystem an.
Wenn Sie [Tool Offset] als [Offset Mode] gewählt haben, geben Sie ein User Tool an.
Unten finden Sie Beispiele für das Offset-Koordinatensystem im Fall eines Fixed Frame Offset
(Offset des feststehenden Koordinatensystems).

Z
Benutzer
User
Benutzer
User Z
X
X
X

Bei waagerechter Bewegung des Werkstücks Bei Bewegung des Werkstücks auf einer geneigten Ebene

ANMERKUNG
Die Höhe Z der Offset-Ebene wird als [Part Z height] vorgegeben und im
Folgenden erläutert. Hier können Sie die Neigung der Offset-Ebene
bestimmen.

Combine Error Limit (Grenzmaß für Kombinationsfehler)


Das Grenzmaß für den Kombinationsfehler ist der Abstand der gefundenen Zielobjekte für jeden
Kameraerfassungsbereich unabhängig voneinander. Die Abbildung unten stellt die ursprüngliche
Fundstelle für jeden der drei Erfassungsbereiche als kleine schwarze Zielstellen dar und die aktuell
ermittelte Fundstelle für die einzelnen Erfassungsbereiche als größere Zielstellen. Im Beispiel unten liegt
ein Kombinationsfehler vor, da das Verhältnis zwischen den drei aktuell ermittelten Zielstellen von denen
der ursprünglichen Sollposition hinsichtlich Größe und Form des Dreiecks abweicht.
Ist das berechnete Grenzmaß für den Kombinationsfehler größer als dasjenige, das der Benutzer
eingegeben hat, wird das Werkstück nicht gefunden. Normalerweise ist die Ursache eines plötzlichen
Anstiegs des Kombinationsfehlers auf eine fehlerhafte Kalibrierung eines oder mehrerer
Kameraerfassungsbereiche oder physische Veränderungen des Werkstücks zurückzuführen.

Fehler an Punkt
Referenzdaten
Ermittelte Daten

Fehler an Punkt 2

Fehler an Punkt 3

- 102 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Min. Pos. among pts (Mindestabstandsposition zwischen Messpunkten)


Vorgabe eines zulässigen Mindestabstands zwischen Messpunkten. Ist der Abstand zwischen
Messpunkten kürzer als der hier vorgegebene Abstand, wird ein Alarm erzeugt. Diese Eingabe soll
verhindern, dass der Roboter einen fehlerhaften Positions-Offset erhält, wenn das gleiche
Werkstückmerkmal in mehreren Kameraerfassungsbereichen inkorrekt ermittelt wird. Unter normalen
Umständen muss der Wert nicht geändert werden.

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird.
Wenn jedoch im Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das
Bilderkennungsprotokoll deaktiviert ist, werden die Bilder nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

Ref. Pos. Status (Status der Sollposition)


Ist die Sollposition gesetzt, wird [Set] in Grün angezeigt; ist sie nicht gesetzt [Not Set], in Rot.

Average Reference X, Y (Mittlere Sollposition X, Y)


Die mittlere Sollposition eines jeden Kameraerfassungsbereichs wird angezeigt.
Der im Folgenden beschriebene Offset-Grenzwert [Offset Limit] dient zur Überprüfung der Fundstelle
oder des Verschiebungswegs dieser Sollposition.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob der berechnete Offset-Wert innerhalb des
vorgegebenen Bereichs liegt. Standardmäßig ist [None selected] eingestellt und in diesem Falle erfolgt
keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der Offset-Grenzwertprüfung
finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

- 103 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.2.2 Erfassungsbereich einer Kamera einstellen


Wenn Sie in der Verzeichnisstruktur [Camera View 1] auswählen, wird ein Bildschirm wie unten
dargestellt angezeigt.

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Multiple Locator Find Mode (Modus zum Auffinden mehrerer Locator-Tools)


Wenn Sie mehr als ein Locator-Tool angelegt haben, wählen Sie eine der folgenden Optionen aus, um
festzulegen, wie diese Tools ausgeführt werden.
Find Best (Bestes Tool suchen)
Es werden alle Locator-Tools ausgeführt und das beste Ergebnis wird ausgewählt. Diese Funktion ist
hilfreich, wenn Sie den Typ identifizieren wollen oder die Lokalisierungszuverlässigkeit stärker
gewichten wollen als die Verarbeitungszeit.
Find First (Erstes Tool suchen)
Die Locator-Tools werden nacheinander in der Reihenfolge ausgeführt, wie sie in der
Verzeichnisstruktur aufgelistet sind und das erste gefundene Ergebnis wird ausgegeben. Da der
Lokalisierungsprozess anhält, sobald ein Werkstück gefunden wurde und die folgenden
Locator-Tools nicht ausgeführt werden, ist diese Funktion hilfreich, wenn Sie die Verarbeitungszeit
priorisieren wollen.

Part Z Height (Teil-Höhe Z)


Geben Sie die Höhe der programmierten Eigenschaften des Werkstücks über oder unter dem
Offset-Koordinatensystem ein.

Reference Position X,Y (Sollposition X, Y)


Die Koordinatenwerte der eingestellten Sollposition werden angezeigt.

- 104 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.2.3 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält. Es gibt zwei Arten, einen Test durchzuführen. Die eine Art ist das Testen
eines gesamten Bilderkennungsprozess und die andere ist das Testen eine jeden einzelnen
Kameraerfassungsbereichs. Wenn Sie ein Positions-Offset mit einer feststehenden Kamera durchführen
wollen, ist es einfacher, auf einmal den gesamten Kameraerfassungsbereich zu testen. Im Falle einer am
Roboter befestigten Kamera oder eines Werkzeug-Offsets sollten Sie, wenn die Roboterposition im
Kameraerfassungsbereich 1 von der in Kameraerfassungsbereich 2 abweicht, jeden
Kameraerfassungsbereich separat testen.

Combine (Kombinieren)
Eine Fluchtabweichung zwischen dem gefundenen Punkt mit gesetzter Sollposition und dem während der
Testausführung gefundenen Punk (Einheit: mm). Dieser Wert wird beinahe null, wenn keine
Unterschiede zwischen den Werkstücken und kein Lokalisierungsfehler vorliegen.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X,Y
Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Werkstücks (Einheit: mm).

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Wertigkeit des gefundenen Werkstücks.

Contrast (Kontrast)
Kontrast des gefundenen Werkstücks.

Fit Err. (Übereinstimmungsfehler)


Elastizität des gefundenen Werkstücks (Einheit: Pixel).

- 105 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.2.4 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster für den Bilderkennungsprozess.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich der
Kamera.
3 Geben Sie in jedem Falle die korrekte Part Z Height (Teil-Höhe Z) der Locator-Tools in jeden
Kameraerfassungsbereich ein.
Die Part Z Height (Teil-Höhe Z) ist die Höhe der gefundenen Kanten über oder unter dem
Anwendungs-Benutzerkoordinatensystem.
4 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
5 Tippen Sie auf die Taste [Set].
6 Überprüfen Sie, dass [Ref. Pos. Status] auf [Set] eingestellt ist und dass ein Wert für jedes
Sollpositionselement angezeigt wird.

Nun wird die Position, an der das Werkstück sich befindet, während die Sollposition gesetzt wird,
eingelernt. Während des Einlernens der Position darf das Werkstück nicht bewegt werden.

6.2.5 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

- 106 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.3 DEPALLETIZING VISION PROCESS


(Bilderkennungsprozess für Pallettenabnahme)
Der Depalletizing Vision Process (Bilderkennungsprozess für die Pallettenabnahme) ist ein
Bilderkennungsprozess, bei dem eine Positionsverschiebung in vertikaler Richtung zusätzlich zur
normalen zweidimensionalen Positionsverschiebung durchgeführt wird. Die Werkstückhöhe wird auf
Basis der offensichtlichen Größe des Werkstücks gemessen, wie die Kamera sie erfasst hat.

Kamera Kamera

- 107 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.3.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [Depalletizing Vision Process] wird eine Bildschirmmaske wie
unten dargestellt angezeigt.

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

- 108 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Multiple Locator Find Mode (Modus zum Auffinden mehrerer Locator-Tools)


Wenn Sie mehr als ein Locator-Tool angelegt haben, können Sie auswählen, wie diese Tools ausgeführt
werden sollen.

Find Best (Bestes Tool suchen)


Es werden alle Locator-Tools ausgeführt und das beste Ergebnis wird ausgewählt. Diese Funktion ist
hilfreich, wenn Sie den Typ identifizieren wollen oder die Lokalisierungszuverlässigkeit stärker
gewichten wollen als die Verarbeitungszeit.

Find First (Erstes Tool suchen)


Alle Locator-Tools werden von Anfang an nacheinander ausgeführt, bis die angegebene Anzahl
Werkstücke gefunden wurde. Die folgenden Locator-Tools werden nicht ausgeführt, sobald die
Anzahl der Fundstellen die angegebene Anzahl übersteigt. Zur Information: Die Dublettenprüfung
wird jedes Mal ausgeführt, wenn ein Locator-Tool ausgeführt wird. Die Anzahl der Fundstellen, die
mit der angegebenen Anzahl verglichen wird, enthält keine doppelten Werkstücke.

App. Z Mode (Z-Modus anwenden)


Geben Sie an, wie die Höhe des Werkstücks berechnet werden soll.

Calc. From Found Scale (Aus gefundener Skala berechnen)


Die Höhe des Werkstücks in Z-Richtung wird aus der gefundenen Werkstückgröße errechnet.
Bei der Prüfung von [Use layer height] wird die Nummer des Layer, auf dem das Werkstück liegt,
aus der Höhe des Werkstücks ermittelt, die der Bilderkennungsprozess gefunden hat. Die
Werkstückposition wird auf der Grundlage der Höheninformation entsprechend dem Layer
berechnet. Auch bei Vorliegen eines geringen Messfehlers kann die Höhe zuverlässig ermittelt
werden, da die gleiche Höheninformation für jedes einzelne Layer verwendet wird.
Bei der Prüfung von [Output layer] kann das ermittelte Layer des Werkstücks als Messwert an das
Vision-Register ausgegeben werden. Geben Sie die Nummer des Messwerts an, an den die Ausgabe
der Schicht in [No.] erfolgen soll.
Use Register Value (Registerwert verwenden)
Der im angegebenen Register der Robotersteuerung gespeicherte Wert wird als die Höhe in
Z-Richtung verwendet.

Number to Find (Anzahl zu findender Werkstücke)


Geben Sie die maximale Anzahl Werkstücke an, die bei jeder Messung gefunden werden soll. Es kann ein
Wert von 1 bis 100 angegeben werden.

- 109 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Offset Frame (Offset-Koordinatensystem)


Ein zweidimensionaler Bilderkennungsprozess ermittelt die Verschiebung eines Werkstücks auf einer
Ebene. Die Ebene wird als Offset-Ebene bezeichnet. Die Offset-Ebene wird als eine parallele Ebene zur
XY-Ebene des Offset-Koordinatensystems definiert. Geben Sie hier das Offset-Koordinatensystem an.
Wenn Sie [Fixed Frame Offset] als [Offset Mode] gewählt haben, geben Sie ein
Benutzer-Koordinatensystem als Offset-Koordinatensystem an. Wenn Sie [Tool Offset] als [Offset Mode]
gewählt haben, geben Sie ein User Tool an. Unten finden Sie Beispiele für das Offset-Koordinatensystem
im Fall eines Fixed Frame Offset (Offset des feststehenden Koordinatensystems).

Z
Z
Benutzer
User
User
Benutzer
X
X
X

Bei waagerechter Bewegung des Werkstücks Bei Bewegung des Werkstücks auf einer geneigten Ebene

ANMERKUNG
Die Höhe Z der Offset-Ebene wird als [Reference Height] vorgegeben und im
Folgenden erläutert. Hier können Sie die Neigung der Offset-Ebene bestimmen.

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird.
Wenn jedoch im Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das
Bilderkennungsprotokoll deaktiviert ist, werden die Bilder nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.
Parameter für die Sortierung einstellen
Einstellen der Parameter für die Sortierung, wenn mehr als ein Werkstück gefunden wurde.
Einzelheiten finden Sie im Abschnitt 3.7.12 „Sorting“ (Sortierung)
- 110 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Delete Duplicates If < (Dubletten löschen, wenn <)


Position und Winkel eines jeden gefundenen Ergebnisses werden daraufhin überprüft, ob eine
Übereinstimmung mit einem anderen Ergebnis vorliegt. Werden mehrere Ergebnisse innerhalb der
angegebenen Pixel und Winkel gefunden, wird interpretiert, dass es sich um das gleiche Werkstück
handelt und nur das Suchergebnis mit der höchsten Wertigkeit wird ausgegeben.

Referenzdaten
Die Referenzdaten werden für die Berechnung der Offset-Daten aus dem Suchergebnis verwendet. Die
Referenzdaten bestehen im Wesentlichen aus zwei Arten von Daten, die im Folgenden beschrieben
werden.

App. Z Coordinate (Z-Koordinate anwenden)


Diese Option wird für die Bestimmung der Höhe des Werkstücks in Z-Richtung verwendet. Haben
Sie [Use Register Value] in [App Z Mode] gewählt, geben Sie die Nummer des Registers der
Robotersteuerung an, in der die Höhe in Z-Richtung gespeichert wird. Haben Sie [Calculate From
Found Size] in [App Z Mode] gewählt, geben Sie zwei Datensätze von Höhe und Größe in
Z-Richtung an, die als Referenz verwendet werden.

Reference Position (Sollposition)


Beim Einlernen der Roboterposition ermittelte Werkstückposition. Die Offset-Daten sind die
Differenz zwischen der mit dem Bilderkennungsprozess ermittelten Werkstück-Istposition und der
Sollposition.

Ein Bilderkennungsprozess kann mehr als einen Referenzdatensatz haben. Unter normalen Umständen
wird nicht mehr als ein Referenzdatensatz verwendet. Gibt es jedoch zwei Arten von Werkstücken,
verwendet der Bilderkennungsprozess zwei Referenzdatensätze, da jeweils die Parameter und die
Sollposition eingestellt werden müssen, um die Höhe in Z-Richtung für jedes einzelne Werkstück zu
bestimmen.

Adding reference data (Referenzdaten hinzufügen)


Referenzdaten können wie folgt hinzugefügt oder gelöscht werden:

1 Tippen Sie auf die Taste .


2 Geben Sie bei [Model ID] die Modell-ID ein, für die die Referenzdaten verwendet werden sollen.

Deleting reference data (Referenzdaten löschen)


Wenn mehr als ein Datensatz vorhanden ist, können Referenzdaten wie folgt gelöscht werden:

1 Wählen Sie aus der Dropdown-Liste des Index die Referenzdaten aus, die Sie löschen möchten.
2 Tippen Sie auf die Taste .
3 Sie werden von einer Popup-Meldung aufgefordert, den Vorgang zu bestätigen. Drücken Sie F4 OK.

Register Number (Registernummer)


Verwenden Sie diese Option, wenn in [App. Z Mode] [Use Register Value] gewählt ist.
Geben Sie die Nummer des Registers an, in dem die Werkstückhöhe gespeichert wird.

Layer error threshold (Layer-Fehlerschwelle)


Der Layer, auf dem das Werkstück liegt, wird automatisch auf der Grundlage der Informationen der
gefundenen Größe und Höhe entsprechend dem vorher eingelernten Referenzlayer ermittelt. Der
berechnete Layer kann einen Fehlerspanne in Abhängigkeit von der gefundenen Größe haben. Stellen Sie
einen Wert zwischen 1% und 50% als zulässigen Rechenfehler in [Layer error threshold] ein. Nehmen Sie

- 111 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

z. B. an, dass ein Wert von 20% angegeben wurde. Liegt die Höhe des Werkstücks, die aus der
gefundenen Größe berechnet wurde, in einem Bereich von ±20% der Referenzhöhe des Layers, wird der
Layer bestimmt. Liegt die Höhe außerhalb des Bereichs, wird ein Alarm ausgegeben, da der Layer nicht
bestimmt werden kann.

Setting the Reference Height and Size


(Einstellen von Referenzhöhe und Größe)
Verwenden Sie diese Option, wenn in [App. Z Mode] [Calculate From Found Scale] gewählt wurde.
Stellen Sie das Verhältnis zwischen der Ist-Höhe des Werkstücks in Z-Richtung und der offensichtlichen
Größe des Werkstücks, wie sie von der Kamera erfasst wurde, ein.
1 Platzieren Sie ein Werkstück und bessern Sie die Oberfläche des Werkstücks mit Nachbesserstiften
aus. Geben Sie diese Höhendaten in [Reference Height 1] ein.
2 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
Tippen Sie dann auf die Taste [Set Scale] und stellen Sie [Reference Scale 1] ein.
3 Platzieren Sie n-Werkstücke und bessern Sie die Werkstückoberfläche mit Nachbesserstiften aus.
Geben Sie diese Höhendaten in [Reference Height 2] ein.
4 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
Tippen Sie dann auf die Taste [Set Scale] und stellen Sie [Reference Scale 2] ein.

Setting the Reference Position (Einstellen des Referenzlayers)


Verwenden Sie diese Option, wenn in [App. Z Mode] [Use layer height] gewählt wurde.
Geben Sie die Nummer der Schicht ein, auf der sich das Werkstück befindet, für das die Referenzhöhe
und -größe eingestellt wurde.

Reference Position Status (Status Sollposition)


Ist die Sollposition gesetzt, wird [Trained] in Grün angezeigt; ist sie nicht gesetzt [Not Trained], in Rot.

Reference Position X,Y,Z,R (Sollposition X, Y, Z, R)


Die Koordinaten der eingestellten Sollposition werden angezeigt.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob der berechnete Offset-Wert innerhalb des
vorgegebenen Bereichs liegt. Standardmäßig ist [None selected] eingestellt und in diesem Falle erfolgt
keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der Offset-Grenzwertprüfung
finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

- 112 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.3.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X,Y,Z
Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Werkstücks (Einheit: mm).

Roll (Rollen)
Rotationswinkel des gefundenen Werkstücks um die Z-Achse (Einheit: Grad).

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Wertigkeit des gefundenen Werkstücks.

Size (Größe)
Größe des gefundenen Werkstücks.

Contrast (Kontrast)
Kontrast des gefundenen Werkstücks.

Fit Err. (Übereinstimmungsfehler)


Elastizität des gefundenen Werkstücks (Einheit: Pixel).

Layer
Nummer des aus der gefundenen Größe berechneten Layers, auf dem das Werkstück liegt.

- 113 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

ANMERKUNG
Wenn Sie einen Testlauf durchführen, ohne die Referenzhöhe oder -größe in
Z-Richtung eingestellt zu haben und [Calculate From Found Scale] wurde in
[App. Z Mode] gewählt, wird ******** für X, Y, Z, und R angezeigt, da diese Werte
nicht berechnet werden können.

6.3.3 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster des Bilderkennungsprozesses.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich der
Kamera.
3 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
4 Tippen Sie auf die Taste [Set].
5 Überprüfen Sie, dass [Ref. Pos. Status] auf [Set] eingestellt ist und dass ein Wert für jedes
Sollpositionselement angezeigt wird.

Nun wird die Position, an der das Werkstück sich befindet, während die Sollposition gesetzt wird,
eingelernt. Während des Einlernens der Position darf das Werkstück nicht bewegt werden.

6.3.4 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13 „OVERRIDE
(Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

- 114 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.4 3D TRI-VIEW VISION PROCESS (Dreidimensionaler


Bilderkennungsprozess mit Dreifachansicht)
In diesem Bilderkennungsprozess werden drei Teile eines großen Werkstücks, z. B. ein Fahrzeug, durch
jeweils drei Kameras erkannt und die Roboterposition wird auf der Grundlage der dreidimensionalen
Werkstückposition verschoben. Nach der Erkennung eines Teils misst jede der drei Kameras jeweils eine
Sichtlinie von der Kamera zum Erkennungsziel. Der Bilderkennungsprozess bestimmt unter Verwendung
eines Dreiecks, dessen Form den drei Sichtlinien bekannt ist, wo jedes der Erkennungsziele sich auf der
Sichtlinie befindet, und ermittelt so die dreidimensionalen Positions- und Lagedaten des Werkstücks.
Triangle made of
Dreieck aus den Zielen
the targets Ziel 1
Target 1
Ziel22
Target

Workpiece
Werkstück

Ziel 3 3
Target
Kamera
Camera 11

Camera 22
Kamera

Kamera3 3
Camera

Hinter diesem Bilderkennungsprozess steckt das Tool „Camera View“.


Ein Erfassungsbereich einer Kamera verarbeitet einen Messpunkt.
Es sind drei Kameraerfassungsbereiche vorhanden und diese Anzahl kann nicht verändert werden.

6.4.1 Von der Anwendung berücksichtigte Faktoren


In diesem Abschnitt werden die Erkennungsziele, Kamerapositionen und weitere zu berücksichtigende
Faktoren beschrieben.

6.4.1.1 Was wird berücksichtigt


Beim Bestimmen der Erkennungsziele ist Folgendes zu beachten:

• Es muss möglich sein, das präzise relationale Positionsverhältnis zwischen den drei
Erkennungszielen aus einer Zeichnung oder anderen Informationen zu berechnen.
• Es darf keinen Unterschied bei dem relationalen Verhältnis zwischen den Positionen der drei
Erkennungsziele oder den Positionen geben, wenn die Arbeit beendet ist.
• Es müssen drei Erkennungsziele vorhanden sein, die ausreichend weit voneinander entfernt sind, um
das gesamte Werkstück einzuschließen.
• Das Dreieck, dessen Scheitelpunkte die drei Erkennungszielpunkte bilden, darf in Längsrichtung
nicht extrem lang sein.
• Die Erkennungsziele dürfen hinsichtlich ihrer Form nicht unterschiedlich erscheinen.
• In der Nähe der Erkennungsziele darf kein Teil vorhanden sein, dessen Form ähnlich ist.

Bei einem Fahrzeug sind die Referenzbohrungen als Erkennungsziele geeignet.

- 115 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.4.1.2 Kameraposition
Kameraerfassungsbereich bestimmen
Bestimmen Sie die Größe des Kameraerfassungsbereichs so, dass die Erkennungsziele auch dann im
Erfassungsbereich bleiben, wenn sie eine maximale Abweichung aufweisen. Ein extrem großer
Kameraerfassungsbereich kann dazu führen, dass die erforderliche Abweichungsgenauigkeit nicht mehr
gewährleistet werden kann.

Kameraposition bestimmen
Der Bilderkennungsprozess ermittelt Erkennungsziele und misst drei Sichtlinien. Positionieren Sie die
Kamera so, dass jeweils zwei der Sichtlinien auch nicht annähernd parallel sind und dass der von jeweils
zwei Sichtlinien gebildete Winkel ausreichend weit ist (vorzugsweise 60 Grad oder mehr).

In this
In dieser figure, sind
Abbildung these
diesetwo
zweilines
Linien are
praktisch parallel
undsubstantially parallel and
der Winkel zwischen denthe angle formed
Sichtlinien zu klein.
by gaze lines is small.

Brennweite des Objektivs bestimmen


Die zu verwendende Brennweite des Objektivs wird durch die Größe des Kameraerfassungsbereichs und
den Abstand zwischen Kamera und Erkennungsziel bestimmt.
Bei Kamera XC-56 wird die Brennweite f (mm) mit folgender Gleichung ungefähr ermittelt:

f=3,55×L÷B

L: Abstand zwischen Kamera und Erkennungsziel (mm)


B: Größe des Kameraerfassungsbereichs (mm)
Sichtfeld
Field of view

Ziel
Target

Kamera
Camera

- 116 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.4.2 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [3D Tri-View Vision Process] wird eine Bildschirmmaske wie
unten dargestellt angezeigt.

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

- 117 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Offset Mode (Offset-Modus)


Beim dreidimensionalen Bilderkennungsprozess mit Dreifachansicht ist nur der Offset des feststehenden
Koordinatensystems verfügbar. Die Offset-Daten für den Offset des feststehenden Koordinatensystems
werden berechnet.

Combine Error Limit (Grenzmaß für Kombinationsfehler)


Das Grenzmaß für den Kombinationsfehler ist der Abstand der gefundenen Zielobjekte für jeden
Kameraerfassungsbereich unabhängig voneinander. Die Abbildung unten stellt die ursprüngliche
Fundstelle für jeden der drei Erfassungsbereiche als kleine schwarze Zielstellen dar und die aktuell
ermittelte Fundstelle für die einzelnen Erfassungsbereiche als größere Zielstellen. Im Beispiel unten liegt
ein Kombinationsfehler vor, da das Verhältnis zwischen den drei aktuell ermittelten Zielstellen von denen
der ursprünglichen Sollposition hinsichtlich Größe und Form des Dreiecks abweicht.
Ist das berechnete Grenzmaß für den Kombinationsfehler größer als dasjenige, das der Benutzer
eingegeben hat, wird das Werkstück nicht gefunden. Normalerweise ist die Ursache eines plötzlichen
Anstiegs des Kombinationsfehlers auf eine fehlerhafte Kalibrierung eines oder mehrerer
Kameraerfassungsbereiche oder physische Veränderungen des Werkstücks zurückzuführen.

Fehler an Punkt 1
Referenzdaten
Ermittelte Daten

Fehler an Punkt 2

Fehler an Punkt 3

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird.
Wenn jedoch im Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das
Bilderkennungsprotokoll deaktiviert ist, werden die Bilder nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

- 118 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Sollposition einstellen
Ist die Sollposition gesetzt, wird [Set] in Grün angezeigt; ist sie nicht gesetzt [Not Set], in Rot.

Average Reference X,Y,Z (Mittlere Sollposition X,Y,Z)


Die mittlere Sollposition eines jeden Kameraerfassungsbereichs wird angezeigt.
Der im Folgenden beschriebene Offset-Grenzwert [Offset Limit] dient zur Überprüfung der Fundstelle
oder des Verschiebungswegs dieser Sollposition.

Compute Error Estimation (Fehlerschätzung berechnen)


Wenn Sie dieses Kontrollkästchen anklicken, wird eine Fehlerschätzung berechnet, wenn der
Bilderkennungsprozess ein Werkstück auffindet.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob der berechnete Offset-Wert innerhalb des
vorgegebenen Bereichs liegt. Standardmäßig ist [None selected] eingestellt und in diesem Falle erfolgt
keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der Offset-Grenzwertprüfung
finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

6.4.3 Erfassungsbereich einer Kamera einstellen


Wenn Sie in der Verzeichnisstruktur [Camera View 1] auswählen, wird ein Bildschirm wie unten
dargestellt angezeigt.

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung. Bei der Kamerakalibrierung muss die Option „Grid
Pattern Calibration“ (Rasterkalibrierung) gewählt sein und als Projektionsmethode muss [Perspective]
aktiv sein. Damit sich die Lokalisierungsgenauigkeit nicht verschlechtert, wird empfohlen, als die Anzahl
der Kalibrierungsebenen „2“ anzugeben, wenn die Kalibrierung durchgeführt wird.
Es ist auch zu beachten, dass bei der gesamten Kamerakalibrierung das gleiche
Anwendungs-Benutzerkoordinatensystem ausgewählt sein muss.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

- 119 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Multiple Locator Find Mode (Modus zum Auffinden mehrerer Locator-Tools)


Wenn Sie mehr als ein Locator-Tool angelegt haben, wählen Sie aus folgenden Optionen aus, um
festzulegen, wie diese Tools ausgeführt werden.

Find Best (Bestes Tool suchen)


Es werden alle Locator-Tools ausgeführt und das beste Ergebnis wird ausgewählt. Diese Funktion ist
hilfreich, wenn Sie den Typ identifizieren wollen oder die Lokalisierungszuverlässigkeit stärker
gewichten wollen als die Verarbeitungszeit.

Find First (Erstes Tool suchen)


Die Locator-Tools werden nacheinander von oben nach unten ausgeführt und das erste lokalisierte
Ergebnis wird ausgegeben. Der Lokalisierungsprozess hält an, sobald ein Werkstück gefunden
wurde und die folgenden Locator-Tools werden nicht ausgeführt. Dies ist dann hilfreich, wenn die
Verarbeitungszeit eine größere Rolle spielt.

Camera Target Dist. (Abstand zwischen Kamera und Ziel)


Geben Sie einen ungefähren Abstand zwischen der Kamera und dem zu findenden Ziel ein. Wenn
Kalibrierungsdaten gewählt wurden, wird der Abstand zwischen der Kamera zum Zeitpunkt der
Kalibrierung und dem Ursprungspunkt des Kalibriergitters als Standard eingestellt. Auch beim Setzen der
Sollposition wird dieser Wert durch den Abstand zwischen Kamera und Ziel, der im
Lokalisierungsprozess des Bilderkennungsprozess ermittelt wurde, überschrieben.
Fundamental Data X, Y, Z (Fundamentaldaten X, Y, Z)
Geben Sie die Position eines innerhalb eines Koordinatensystems aufzufindenden Ziels ein. Hier können
Sie z. B. die in der Zeichnung angegebenen Zielkoordinaten eingeben.

Beispiel Eingabe Fundamentaldaten: Folgende Abbildung zeigt ein Beispiel für die Eingabe der
CAD-Daten des Werkstücks als Fundamentaldaten. Die im CAD angegebenen Daten der Koordinaten des
Ziels werden als Fundamentaldaten eingegeben.

Coordinate system of CAD


CAD-Koordinatensystem
(Position
(Positionistiswillkürlich)
arbitrary)

Kreis:
Circle:
Mitte: (x3, y3, z3)
Center: (x3, y3, z3)

Kreis:
Circle:
Mitte: (x1, y1, z1)
Center: (x1, y1, z1)

Kreis:
Circle:
Mitte: (x2, y2, z2)
Center: (x2, y2, z2)

- 120 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Reference Position X, Y, Z (Sollposition X, Y, Z)


Die Koordinaten der eingestellten Sollposition werden angezeigt.

Compute Error (Fehler berechnen)


Wenn dieses Kontrollkästchen aktiviert ist und die Erkennung des Bilderkennungsprozess erfolgreich ist,
wird der Erkennungsfehler im Locator-Tool auf dem Bild berechnet.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob der berechnete Offset-Wert innerhalb des
vorgegebenen Bereichs liegt. Standardmäßig ist [None selected] eingestellt und in diesem Falle erfolgt
keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der Offset-Grenzwertprüfung
finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

6.4.4 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält. Es gibt zwei Arten, einen Test durchzuführen. Die eine Art ist das Testen eines
gesamten Bilderkennungsprozess und die andere ist das Testen eine jeden einzelnen
Kameraerfassungsbereichs. Bei einer feststehenden Kamera ist ein einmaliges Testen des gesamten
Bilderkennungsprozess einfacher. Im Falle einer am Roboter befestigten Kamera sollten Sie, wenn die
Roboterposition in jedem Kameraerfassungsbereich unterschiedlich ist, jeden Kameraerfassungsbereich
separat testen.

Combine (Kombinieren)
Eine Fluchtabweichung zwischen dem gefundenen Punkt mit gesetzter Sollposition und dem während der
Testausführung gefundenen Punk (Einheit: mm). Dieser Wert wird beinahe null, wenn keine
Unterschiede zwischen den zu findenden Zielen und kein Lokalisierungsfehler vorliegen.

Error (Fehler)
Diese Schätzung zeigt an, wie stark der Erkennungsfehler im Locator-Tool auf dem Bild die berechnete
dreidimensionale Position des Werkstücks beeinflusst. Beträgt dieser Wert z. B. 8,0 mm/pix, so können
0,1 pix des Erkennungsfehlers eine Abweichung der gemessenen dreidimensionalen Position von 8,0 ×
0,1 = 0,8 mm verursachen. Es kann nicht die gesamte Kompensationsgenauigkeit allein von diesem Wert
geschätzt werden, aber dieser Wert ist für die Anwendung zu groß und eine Änderung des
Kamera-Layouts muss erwogen werden.

- 121 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X,Y,Z
Koordinaten des Modell-Ursprungspunkts des gefundenen Ziels (Einheit: mm).

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Wertigkeit des gefundenen Werkstücks.

Camera Target Dist. (Abstand zwischen Kamera und Ziel)


Abstand zwischen Kamera und dem Modell-Ursprungspunkt des gefundenen Ziels (Einheit: mm)

6.4.5 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster des Bilderkennungsprozesses.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich einer
jeden Kamera.
3 Nehmen Sie das Bild mit jedem einzelnen Kameraerfassungsbereich auf, um das Werkstück zu
finden und drücken Sie dann F4 FIND, um das Werkstück zu finden.
4 Tippen Sie auf die Taste [Set].
5 Überprüfen Sie, dass [Ref. Pos. Status] auf [Set] eingestellt ist und dass ein Wert für jedes
Sollpositionselement angezeigt wird.

Nun wird die Position, an der das Werkstück sich befindet, während die Sollposition gesetzt wird,
eingelernt. Während des Einlernens der Position darf das Werkstück nicht bewegt werden.

- 122 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.4.6 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13 „OVERRIDE
(Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

6.5 3DL SINGLE-VIEW VISION PROCESS


(3DL-Bilderkennungsprozess mit Einzelansicht)
Der 3DL-Bilderkennungsprozess mit Einzelansicht misst die dreidimensionale Position und Lage des
Werkstücks und stellt die Handhabung des Werkstücks durch den Roboter ein.

Zur Punktschweißkabine

Roboter mit 3D-Sensor

Linearschiene

Bedienpersonal führt Karosseriebleche zu


Gestell für Karosseriebleche

- 123 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.5.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [3DL Single View Vision Process] wird eine Bildschirmmaske
wie unten dargestellt angezeigt.

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

- 124 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Offset Mode (Offset-Modus)


Wählen Sie den Modus für die Verschiebungen der Roboterposition aus.

Fixed Frame Offset (Offset des feststehenden Koordinatensystems)


Die Daten für den Offset des feststehenden Koordinatensystems werden berechnet.

Tool Offset (Werkzeug-Offset)


Die Daten für den Werkzeug-Offset werden berechnet.

Found Position (User) (Gefundene Position (Benutzer-Koordinatensystem)


Die gefundene Position wird so anstelle der Offset-Daten ausgegeben. Diese Option kann für
eventuell erforderliche vorgegebene Offset-Modi verwendet werden. Sie sollte unter normalen
Umständen nicht gewählt werden. Die gefundene Position bezieht sich auf das
Anwendungs-Benutzerkoordinatensystem.

Found Position (Tool) (Gefundene Position (Werkzeug-Koordinatensystem)


Nach der Konvertierung in einen Wert aus Sicht des Werkzeug-Koordinatensystems wird die
gefundene Position anstelle der Offset-Daten ausgegeben. Diese Option kann für eventuell
erforderliche vorgegebene Offset-Modi verwendet werden. Sie sollte unter normalen Umständen
nicht gewählt werden.

Robot Holding Part (Werkstück an Roboter)


Wenn Sie [Tool Offset] oder [Found Position (Tool)] als [Offset Type] gewählt haben, geben Sie den
Roboter an, an dem sich das Werkstück befindet.

Offset Frame (Offset-Koordinatensystem)


Der 3DL-Bilderkennungsprozess mit Einzelansicht misst die Offset-Daten bezogen auf die Ebene, die in
dieser Option gewählt wurde. Wenn Sie [Fixed Frame Offset] als [Offset Mode] gewählt haben, geben Sie
ein Benutzer-Koordinatensystem als Offset-Koordinatensystem an. Wenn Sie [Tool Offset] als [Offset
Mode] gewählt haben, geben Sie ein User Tool an.
Setting the Light (Licht einstellen)
Verwenden Sie diese Funktion, um eine externe Lichtquelle ein- oder auszuschalten, wie es für den durch
den 3D-Lasersensor ausgeführten Bilderkennungsprozess erforderlich ist. Mit dieser Funktion können Sie
das Licht z. B. einschalten, wenn zweidimensionale Eigenschaften bei einer dreidimensionalen Messung
gefunden werden, oder es ausschalten, wenn die beiden Laserlinien gefunden werden. Es ist üblich, dass
ein LED-Ringlicht an den 3D-Lasersensor angebaut ist, um eine kontrollierte Beleuchtung zu erzeugen.
Das Einstellen der Funktion ist im Folgenden beschrieben.

1 Geben Sie in der Option [Light Output Signal Type] die Art des Signals an (DO oder RO), das das
Licht ein- oder ausschaltet.
2 Geben Sie bei [Light Output Signal Number] die Anzahl der Ausgabepunkte an, mit denen das
Signal ON/OFF (EIN/AUS) verbunden ist. Wenn das Signal zum Beispiel mit RO[1] verbunden
wird, geben Sie „1“ ein.
3 Stellen Sie in der Option [Light Output Signal Polarity] das Verhältnis zwischen der Signalausgabe
und dem ein- oder ausschalten des Lichts ein. Stellen Sie [Signal=ON->Light=ON] ein, um das
Licht anzuschalten wenn das Signal „ON“ (EIN) gegeben wird. Stellen Sie
[Signal=OFF->Light=ON] ein, um das Licht auszuschalten wenn das Signal „ON“ (EIN) gegeben
wird.
4 Stellen Sie in der Option [Light ON snap delay] die Wartezeit ein, nach der Sie die Kamera auslösen
möchten, nachdem das Licht EINgeschaltet wurde. Unter normalen Umständen wird „0“ eingestellt.

Stellen Sie die Optionen wie folgt ein, wenn Sie unser originales LED-Licht verwenden.

- 125 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

1 Wählen Sie in der Option [Light Output Signal Type] „MUX“ aus.
2 Wählen Sie in der Option [LED Channel] die MUX-Nummer des Ports aus, an den der
3D-Lasersensor angeschlossen ist.
3 Geben Sie in der Option [LED Intensity] eine Zahl zwischen 1 und 16 für die Intensität der
LED-Lichtquelle an.

Lean Angle Limit (Schmaler Winkel-Grenzwert)


Jedes Werkstück, das mit einem größeren Winkel als dem schmalen Winkel-Grenzwert der Sollposition
gefunden wird, wird ignoriert.

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird. Wenn jedoch im Bildschirm „Vision
Config“ (Bilderkennungskonfiguration) das Bilderkennungsprotokoll deaktiviert ist, werden die Bilder
nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

Image Display Mode (Bildanzeigemodus)


Ändert das im Einrichtungsfenster anzuzeigende Bild.

2D Image (Zweidimensionales Bild)


Das von der Kamera festgehaltene Bild wird angezeigt.

Laser Slit Image 1 (Laserschlitz Bild 1)


Das Bild von Laserschlitz 1 wird angezeigt.

Laser Slit Image 2 (Laserschlitz Bild 1)


Das Bild von Laserschlitz 2 wird angezeigt.

- 126 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.5.1.1 2D Measurement setups (Konfiguration der 2D-Messungen)


Führt die Konfigurationen für die 2D-Messungen durch.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Light for Snap (Licht für die Aufnahme)


Stellt ein, ob das Licht bei der Bildaufnahme für eine zweidimensionale Messung ein- oder ausgeschaltet
wird.

Multiple Locator Find Mode (Modus zum Auffinden mehrerer Locator-Tools)


Wählen Sie aus dem Dropdown-Feld oben aus, welches Locator-Tool ausgeführt werden soll, wenn
mehrere Locator-Tools angelegt wurden.

Find Best (Bestes Tool suchen)


Es werden sämtliche Locator-Tools ausgeführt. Diese Funktion ist hilfreich, wenn Sie den Typ
identifizieren wollen oder die Lokalisierungszuverlässigkeit stärker gewichten wollen als die
Verarbeitungszeit.

Find First (Erstes Tool suchen)


Die Locator-Tools werden von Anfang an nacheinander ausgeführt. Der Lokalisierungsprozess hält
an, sobald ein Werkstück von einem Lokalisierungswerkzeug gefunden wurde. Die folgenden
Locator-Tools werden nicht ausgeführt.

Wählen Sie aus dem Dropdown-Feld unten aus, welche Ergebnisse eines jeden Locator-Tools verwendet
werden sollen, falls ein Tool mehrere Ergebnisse liefert.

Best Result of Each Loc. Tool (Bestes Ergebnis eines jeden Locator-Tools)
Das Ergebnis mit der höchsten Wertigkeit wird für jedes einzelne Locator-Tool ausgewählt. Die
Messung verwendet nur die ausgewählten Ergebnisse.

All Result of Each Loc. Tool (Alle Ergebnisse eines jeden Locator-Tools)
Alle Ergebnisse werden in absteigender Reihenfolge der Wertigkeit verwendet, bis die Messing
erfolgreich durchgeführt wurde. Dies ist dann hilfreich, wenn Sie einen Messfehler eliminieren
wollen, der durch die fehlerhafte Erkennung eines Locator-Tools verursacht wurde.

- 127 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.5.1.2 Laser measurement setups


(Konfigurationen der Lasermessungen)
Führt die Konfigurationen für die Lasermessungen durch.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Snap Times (Aufnahmezeiten)


Verwenden Sie diese Option, wenn Sie mehrere Bilder während einer Belichtungszeit aufnehmen und ein
mittleres Bild gewinnen möchten. Diese Einstellung ist nur gültig, wenn in [Multi Exposures]
„1“ eingestellt ist.

Bright. Scale Mode (Modus Helligkeitsskala)


Geben Sie eine Vorgehensweise für die Koordination der Helligkeit bei Mehrfachbelichtung an.

Maximum
Nachdem alle Laserbilder aufsummiert wurden, wird die Helligkeit des gesamten Bildes skaliert,
damit die Helligkeit im fotometrischen Bereich unter 256 liegt. Wenn eine Lichthofbildung auch nur
an einem Punkt im fotometrischen Bereich auftritt, wird das Bild als Ganzes relativ dunkel.

Summation (Summierung)
Nachdem alle Laserbilder summiert wurden, wird die Helligkeit der Pixel, bei denen die Helligkeit
über 256 liegt, ausgeschnitten. Die Helligkeit des gesamten Bildes wird beibehalten und die
Helligkeit der Pixel, bei denen eine Lichthofbildung auftritt, wird nur auf die maximal darstellbare
Helligkeit supprimiert.

Light for Snap (Licht für die Aufnahme)


Stellt ein, ob das Licht bei der Bildaufnahme für eine Lasermessung ein- oder ausgeschaltet wird.

ANMERKUNG
Wenn mehr als ein Tool für die Lasermessung angelegt wurde, wie z. B. ein
Befehlstool für die 3DL-Ebene oder ein Befehlstool für die 3DL-Verschiebung,
werden die Tools nacheinander von oben nach unten ausgeführt und der
Messprozess hält an, sobald eine Messung erfolgreich ist und alle folgenden
Tools werden nicht mehr ausgeführt.

- 128 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.5.1.3 Reference data (Referenzdaten)

Reference Position Status (Status Sollposition)


Ist die Sollposition gesetzt, wird [Set] in Grün angezeigt; ist sie nicht gesetzt [Not Set], in Rot.

Reference Position X,Y,Z,W,P,R (Sollposition X, Y, Z, W, P, R)


Die Koordinatenwerte der eingestellten Sollposition werden angezeigt.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob der berechnete Offset-Wert innerhalb des
vorgegebenen Bereichs liegt. Standardmäßig ist [None selected] eingestellt und in diesem Falle erfolgt
keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der Offset-Grenzwertprüfung
finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

6.5.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

- 129 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X,Y,Z
Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Werkstücks (Einheit: mm).

W,P,R
Rotationswinkel des gefundenen Werkstücks um die X-, Y- und Z-Achse (Einheit: Grad).

Laser ID
Lasermessungs-ID des gefundenen Werkstücks.

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Wertigkeit des gefundenen Werkstücks.

Contrast (Kontrast)
Kontrast des gefundenen Werkstücks.

Fit Err. (Übereinstimmungsfehler)


Elastizität des gefundenen Werkstücks (Einheit: Pixel).

Lean Angle (Schmaler Winkel)


Neigungswinkel des gefundenen Werkstücks (Einheit: Grad).

6.5.3 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster für den Bilderkennungsprozess.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich der
Kamera.
3 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
4 Tippen Sie auf die Taste [Set].
5 Überprüfen Sie, dass [Ref. Pos. Status] auf [Set] eingestellt ist und dass ein Wert für jedes
Sollpositionselement angezeigt wird.

Nun wird die Position, an der das Werkstück sich befindet, während die Sollposition gesetzt wird,
eingelernt. Während des Einlernens der Position darf das Werkstück nicht bewegt werden.

- 130 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.5.4 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13 „OVERRIDE
(Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

Laser Exposure Time (Laser-Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Laser Exposure (Anzahl von Laser-Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

6.6 3DL MULTI-VIEW VISION PROCESS


(3DL-Bilderkennungsprozess mit Mehrfachansicht)
Der 3DL-Bilderkennungsprozess mit Mehrfachansicht wird dazu verwendet, die Position des Werkstücks
durch das Auffinden von mehreren Teilen dessen zu ermitteln. Dies ist dann hilfreich, wenn das
Werkstück aufgrund seiner Größe nicht vollständig von der Kamera erfasst werden kann und wenn die
Richtung des Werkstücks vertikal geschwenkt ist.

Werkstück
Messpunkte

3D-Sensor

- 131 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.6.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [3DL Multi View Vision Process] wird eine Bildschirmmaske
wie unten dargestellt angezeigt.

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Offset Mode (Offset-Modus)


Wählen Sie den Modus für die Verschiebungen der Roboterposition aus.

Fixed Frame Offset (Offset des feststehenden Koordinatensystems)


Die Daten für den Offset des feststehenden Koordinatensystems werden berechnet.

Tool Offset (Werkzeug-Offset)


Die Daten für den Werkzeug-Offset werden berechnet.

- 132 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Robot Holding Part (Werkstück an Roboter)


Wenn Sie [Tool Offset] als [Offset Mode] gewählt haben, geben Sie den Roboter an, an dem sich das
Werkstück befindet.

Offset Frame (Offset-Koordinatensystem)


Der 3DL-Bilderkennungsprozess mit Mehrfachansicht misst die Offset-Daten bezogen auf die Ebene, die
in dieser Option gewählt wurde. Wenn Sie [Fixed Frame Offset] als [Offset Mode] gewählt haben, geben
Sie ein Benutzer-Koordinatensystem als Offset-Koordinatensystem an. Wenn Sie [Tool Offset] als [Offset
Mode] gewählt haben, geben Sie ein User Tool an.

Combine Error Limit (Grenzmaß für Kombinationsfehler)


Das Grenzmaß für den Kombinationsfehler ist der Abstand der gefundenen Zielobjekte für jeden
Kameraerfassungsbereich unabhängig voneinander. Die Abbildung unten stellt die ursprüngliche
Fundstelle für jeden der drei Erfassungsbereiche als kleine schwarze Zielstellen dar und die aktuell
ermittelte Fundstelle für die einzelnen Erfassungsbereiche als größere Zielstellen. Im Beispiel unten liegt
ein Kombinationsfehler vor, da das Verhältnis zwischen den drei aktuell ermittelten Zielstellen von denen
der ursprünglichen Sollposition hinsichtlich Größe und Form des Dreiecks abweicht.

Ist das berechnete Grenzmaß für den Kombinationsfehler größer als dasjenige, das der Benutzer
eingegeben hat, wird das Werkstück nicht gefunden. Normalerweise ist die Ursache eines plötzlichen
Anstiegs des Kombinationsfehlers auf eine fehlerhafte Kalibrierung eines oder mehrerer
Kameraerfassungsbereiche oder physische Veränderungen des Werkstücks zurückzuführen.
Fehler an
Punkt 1 Referenzdaten
Ermittelte Daten

Fehler an Punkt 2

Fehler an Punkt 3

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob protokollierte Bilder im Bilderkennungsprotokoll gespeichert werden sollen,
während der Bilderkennungsprozess durchgeführt wird. Wenn jedoch im Bildschirm „Vision
Config“ (Bilderkennungskonfiguration) das Bilderkennungsprotokoll deaktiviert ist, werden die Bilder
nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

- 133 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

Reference Position Status (Status Sollposition)


Ist die Sollposition gesetzt, wird [Trained] in Grün angezeigt; ist sie nicht gesetzt [Not Trained], in Rot.

Average Reference X, Y, Z (Mittlere Sollposition X, Y, Z)


Die mittlere Sollposition eines jeden Kameraerfassungsbereichs wird angezeigt.
Die im Folgenden beschriebene Prüfung des Offset-Grenzwerts dient zur Überprüfung der Fundstelle
oder des Verschiebungswegs dieser Sollposition.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob der berechnete Offset-Wert innerhalb des
vorgegebenen Bereichs liegt. Standardmäßig ist [None selected] eingestellt und in diesem Falle erfolgt
keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der Offset-Grenzwertprüfung
finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

6.6.2 Erfassungsbereich einer Kamera einstellen


Wenn Sie in der Verzeichnisstruktur [Plane Camera View 1] auswählen, wird ein Bildschirm wie unten
dargestellt angezeigt.

- 134 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Setting the Light (Licht einstellen)


Verwenden Sie diese Funktion, um eine externe Lichtquelle ein- oder auszuschalten, wie es für den durch
den 3D-Lasersensor ausgeführten Bilderkennungsprozess erforderlich ist. Mit dieser Funktion können Sie
das Licht z. B. einschalten, wenn zweidimensionale Eigenschaften bei einer dreidimensionalen Messung
gefunden werden, oder es ausschalten, wenn die beiden Laserlinien gefunden werden. Es ist üblich, dass
ein LED-Ringlicht an den 3D-Lasersensor angebaut ist, um eine kontrollierte Beleuchtung zu erzeugen.
Das Einstellen der Funktion ist im Folgenden beschrieben.

1 Geben Sie in der Option [Light Output Signal Type] die Art des Signals an (DO oder RO), das das
Licht ein- oder ausschaltet.
2 Geben Sie bei [Light Signal Number] die Anzahl der Ausgabepunkte an, mit denen das Signal
ON/OFF (EIN/AUS) verbunden ist. Wenn das Signal zum Beispiel mit RO[1] verbunden wird,
geben Sie „1“ ein.
3 Stellen Sie in der Option [Light Output Signal Polarity] das Verhältnis zwischen der Signalausgabe
und dem ein- oder ausschalten des Lichts ein. Stellen Sie [Signal=ON->Light=ON] ein, um das
Licht anzuschalten wenn das Signal „ON“ (EIN) gegeben wird. Stellen Sie
[Signal=OFF->Light=ON] ein, um das Licht auszuschalten wenn das Signal „ON“ (EIN) gegeben
wird.
4 Stellen Sie in der Option [Light on snap delay] die Wartezeit von der Ausgabe des Signals Licht
„ON“ (EIN) ein, bis ein Bild aufgenommen wird. Unter normalen Umständen wird „0“ eingestellt.

Stellen Sie die Funktion wie folgt ein, wenn Sie unser originales LED-Licht verwenden.

1 Wählen Sie in der Option [Light Output Signal Type] „MUX“ aus.
2 Wählen Sie in der Option [LED Channel] die MUX-Nummer des Ports aus, an den der
3D-Lasersensor angeschlossen ist.
3 Geben Sie in der Option [LED Intensity] eine Zahl zwischen 1 und 16 für die Intensität der
LED-Lichtquelle an.

Lean Angle Limit (Schmaler Winkel-Grenzwert)


Jedes Werkstück, das mit einem größeren Winkel als dem schmalen Winkel-Grenzwert der Sollposition
gefunden wird, wird ignoriert.

- 135 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.6.2.1 2D Measurement setups (Konfiguration der 2D-Messungen)


Führt die Konfigurationen für die 2D-Messungen durch.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Light for Snap (Licht für die Aufnahme)


Stellt ein, ob das Licht bei der Bildaufnahme für eine zweidimensionale Messung ein- oder ausgeschaltet
wird.

Multiple Locator Find Mode (Modus zum Auffinden mehrerer Locator-Tools)


Wählen Sie aus dem Dropdown-Feld oben aus, welches Locator-Tool ausgeführt werden soll, wenn
mehrere Locator-Tools angelegt wurden.

Find Best (Bestes Tool suchen)


Es werden sämtliche Locator-Tools ausgeführt. Diese Funktion ist hilfreich, wenn Sie den Typ
identifizieren wollen oder die Lokalisierungszuverlässigkeit stärker gewichten wollen als die
Verarbeitungszeit.

Find First (Erstes Tool suchen)


Die Locator-Tools werden von Anfang an nacheinander ausgeführt. Der Lokalisierungsprozess hält
an, sobald ein Werkstück von einem Lokalisierungswerkzeug gefunden wurde.
Die folgenden Locator-Tools werden nicht ausgeführt.

Wählen Sie aus dem Dropdown-Feld unten aus, welche Ergebnisse eines jeden Locator-Tools verwendet
werden sollen, falls ein Tool mehrere Ergebnisse liefert.

Best Result of Each Loc. Tool (Bestes Ergebnis eines jeden Locator-Tools)
Das Ergebnis mit der höchsten Wertigkeit wird für jedes einzelne Locator-Tool ausgewählt. Die
Messung verwendet nur die ausgewählten Ergebnisse.

All Result of Each Loc. Tool (Alle Ergebnisse eines jeden Locator-Tools)
Alle Ergebnisse werden in absteigender Reihenfolge der Wertigkeit verwendet, bis die Messing
erfolgreich durchgeführt wurde. Dies ist dann hilfreich, wenn Sie einen Messfehler eliminieren
wollen, der durch die fehlerhafte Erkennung eines Locator-Tools verursacht wurde.

- 136 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.6.2.2 Laser measurement setups


(Konfigurationen der Lasermessungen)
Führt die Konfigurationen für die Lasermessungen durch.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Snap Times (Aufnahmezeiten)


Verwenden Sie diese Option, wenn Sie mehrere Bilder während einer Belichtungszeit aufnehmen und ein
mittleres Bild gewinnen möchten. Diese Einstellung ist nur gültig, wenn in [Multi Exposures]
„1“ eingestellt ist.

Bright. Scale Mode (Modus Helligkeitsskala)


Geben Sie eine Vorgehensweise für die Koordination der Helligkeit zum Zeitpunkt der Synthese des
Laserbilds bei Mehrfachbelichtung an.

Maximum
Nachdem alle Laserbilder aufsummiert wurden, wird die Helligkeit des gesamten Bildes skaliert,
damit die Helligkeit im fotometrischen Bereich unter 256 liegt. Wenn eine Lichthofbildung auch nur
an einem Punkt im fotometrischen Bereich auftritt, wird das Bild als Ganzes relativ dunkel.

Summation (Summierung)
Nachdem alle Laserbilder summiert wurden, wird die Helligkeit der Pixel, bei denen die Helligkeit
über 256 liegt, ausgeschnitten. Die Helligkeit des gesamten Bildes wird beibehalten und die
Helligkeit der Pixel, bei denen eine Lichthofbildung auftritt, wird nur auf die maximal darstellbare
Helligkeit supprimiert.

Light for Snap (Licht für die Aufnahme)


Stellt ein, ob das Licht bei der Bildaufnahme für eine Lasermessung ein- oder ausgeschaltet wird.

ANMERKUNG
Wenn mehr als ein Tool für die Lasermessung angelegt wurde, wie z. B. ein
Befehlstool für die 3DL-Ebene, werden die Tools nacheinander von oben nach
unten ausgeführt und der Messprozess hält an, sobald eine Messung erfolgreich
war und alle folgenden Tools werden nicht mehr ausgeführt.

- 137 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.6.2.3 Reference data (Referenzdaten)

Reference X,Y,Z,W,P,R (Sollposition X,Y,Z,W,P,R)


Die Koordinatenwerte der eingestellten Sollposition werden angezeigt.

6.6.3 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Combine (Kombinieren)
Eine Fluchtabweichung zwischen dem gefundenen Punkt mit gesetzter Sollposition und dem während der
Testausführung gefundenen Punk (Einheit: mm). Dieser Wert wird beinahe null, wenn keine
Unterschiede zwischen den zu findenden Zielen und kein Lokalisierungsfehler vorliegen.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

- 138 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X,Y,Z
Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Werkstücks (Einheit: mm).

W,P,R
Rotationswinkel des gefundenen Werkstücks um die X-, Y- und Z-Achsen (Einheit: Grad).

Laser ID
Lasermessungs-ID des gefundenen Werkstücks.

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Wertigkeit des gefundenen Werkstücks.

Contrast (Kontrast)
Kontrast des gefundenen Werkstücks.

Fit Err. (Übereinstimmungsfehler)


Elastizität des gefundenen Werkstücks (Einheit: Pixel).

Lean Angle (Schmaler Winkel)


Neigungswinkel des gefundenen Werkstücks (Einheit: Grad).

- 139 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.6.4 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster des Bilderkennungsprozess.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich der
Kamera.
3 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
4 Tippen Sie auf die Taste [Set].
5 Überprüfen Sie, dass [Ref. Pos. Status] auf [Set] eingestellt ist und dass ein Wert für jedes
Sollpositionselement angezeigt wird.

Nun wird die Position, an der das Werkstück sich befindet, während die Sollposition gesetzt wird,
eingelernt. Während des Einlernens der Position darf das Werkstück nicht bewegt werden.

6.6.5 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

Laser Exposure Time (Laser-Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Laser Exposure (Anzahl von Laser-Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

- 140 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.7 3DL CROSS-SECTION VISION PROCESS


(3DL-Querschnitt-Bildererkennungsprozess)
Diese Funktion wird üblicherweise bei einem Werkstück verwendet, bei dem kein
„3DL-Bilderkennungsprozess“ angewendet werden kann. Bei diesem Prozess wird das Werkstück mit
dem Laser belichtet, es werden Höheninformationen des belichteten Teils gesammelt und ein
Querschnittbild des Werkstücks wird erzeugt. Dann wird ein GPM Locator Tool bei dem erzeugten
Querschnittbild angewandt und die dreidimensionale Position des Zielbereichs berechnet.

ACHTUNG
Diese Funktion führt nur eine Messung aus. Um die Handhabung des
Werkstücks durch den Roboter einzustellen, müssen Offset-Daten mit einem
Roboter-Programm berechnet werden.

Im Bild unten rechts wird das Querschnittbild dargestellt. Die Pfeilrichtung eines Laserschlitzes zeigt die
vertikale Richtung an und die Höhe zeigt die horizontale Richtung an, wie unten links dargestellt. In
den folgenden Abbildungen geben und , die mit einer Pfeillinie verbunden sind, den gleichen
Ausschnitt an.

niedrig hoch
(2D-Bild) (Querschnittbild)

6.7.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [33DL Cross-Section Vision Process], wird eine
Bildschirmmaske wie unten dargestellt angezeigt.

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.
- 141 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Output Mode (Ausgabemodus)


Wählen Sie den Modus, in dem die Messergebnisse ausgegeben werden sollen.

Found Position (User) (Gefundene Position (Benutzer-Koordinatensystem)


Die gefundene Position im Anwendungs-Benutzerkoordinatensystem wird so wie sie ist ausgegeben.

Found Position (Tool) (Gefundene Position (Werkzeug-Koordinatensystem)


Nach der Konvertierung in einen Wert in dem angegebenen Benutzer-Koordinatensystem wird die
gefundene Position ausgegeben. Sie wird im Wesentlichen dazu verwendet, den Fehler des durch
den Roboter erfassten Werkstücks zu messen, wenn der 3D-Sensor montiert ist.

Robot Holding the Part (Werkstück an Roboter)


Wenn Sie [Found Position (Tool)] als [Output Mode] gewählt haben, geben Sie den Roboter an, an dem
sich das Werkstück befindet.

Offset Frame (Offset-Koordinatensystem)


Der 3DL-Querschnitt-Bildererkennungsprozess misst die Offset-Daten bezogen auf die Ebene, die in
dieser Option gewählt wurde. Wenn Sie [Found Position (User)] als [Output Mode] gewählt haben, geben
Sie ein Benutzer-Koordinatensystem als Offset-Koordinatensystem an. Wenn Sie [Found Position (Tool)]
als [Output Mode] gewählt haben, geben Sie ein User Tool an.

- 142 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird.
Wenn jedoch im Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das
Bilderkennungsprotokoll deaktiviert ist, werden die Bilder nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

Image Display Mode (Bildanzeigemodus)


Ändert das anzuzeigende Bild. Die Einstellung in [Runtime] wird verwendet, wenn das Bild am
Laufzeit-Bildschirm angezeigt wird; die Einstellung in [Setup] wird verwendet, wenn es am
Einrichtungsfenster angezeigt wird.

2D Image (Zweidimensionales Bild)


Das von der Kamera festgehaltene Bild wird angezeigt.

Laser Slit Image (Laserschlitz-Bild)


Das Bild des Laserschlitzes wird angezeigt.

Cross-sectional Image (Querschnitt-Bild)


Das Querschnittbild des Werkstücks wird angezeigt.

- 143 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.7.1.1 Laser measurement setups (Konfigurationen der


Lasermessungen)
Führt die Konfigurationen für die Lasermessungen durch.

Setting the measurement area (Messbereich einstellen)


Das Einstellen des Messbereichs wird im Folgenden beschrieben.

1 Drücken Sie F6 Laser ON um den Laser einzuschalten.


2 Drücken Sie F2 LIVE, um in die Live-Kamerabildanzeige zu wechseln.
3 Verfahren Sie den Roboter so, dass sich der zu messende Abschnitt in der Bildmitte befindet. Durch
Drücken der Taste , mit der die Mittenlinie des Fensters angezeigt wird, können Sie die
Positionierung vereinfachen.
4 Stellen Sie den Abstand zwischen dem 3D-Lasersensor und Werkstück so ein, dass der
Laserstrahl-Schnittpunkt etwa in der Mitte des Messbereichs liegt. In diesem Fall beträgt der
Abstand zwischen der 3D-Lasersensorkamera und dem Messbereich etwa 400 mm.
5 Drücken Sie F2 STOP, um die Anzeige des Live-Kamerabilds anzuhalten und drücken Sie dann F6
Laser OFF, um den Laser auszuschalten.
6 Tippen Sie auf die Taste [Train].
7 Platzieren Sie das einzulernende Werkstück im angezeigten roten Rechteck und drücken Sie dann F4
OK.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

Search Narrow Area (Schmalen Bereich durchsuchen)


Ist der zu messende Bereich klein und die verfügbaren Punkte nur wenige, aktivieren Sie [Search Narrow
Area], damit Sie die Anzahl der für die Messung zu verwendenden Punkte erhöhen können. Bitte
beachten Sie, dass damit auch die Verarbeitungszeit verlängert wird. Aktivieren Sie diese Option daher
nur, wenn dies erforderlich ist.

Window Mask (Fenstermaske)


Wenn Sie einen Bereich aus dem Messbereich entfernen wollen, können Sie eine Maske setzen. Um eine
Maske für einen Messbereich zu erzeugen, tippen Sie auf die Taste [Edit Mask]. Auch wenn Sie eine
Maske bearbeitet haben, wird diese Maske von dem Tool ignoriert, wenn Sie das Kontrollkästchen
[Enable] deaktivieren. Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.10
„Maskenbearbeitung“.

- 144 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Laser Number (Lasernummer)


Geben Sie einen der beiden Laserschlitze an, mit denen Sie das Querschnittbild erzeugen wollen.

1: Laserschlitz, mit dem das Werkstück von unten links bis oben rechts auf dem Bild belichtet wird.
2: Laserschlitz, mit dem das Werkstück von oben links bis unten rechts auf dem Bild belichtet wird.

Effective Z Range (Effektiver Z-Bereich)


Geben Sie den Bereich an, in dem Punkte als Z-Werte verwendet werden sollen, wenn das
Querschnittbild erzeugt wird. Legen Sie einen Bereich fest, der tatsächlich so viel wie möglich des
Messabschnitts enthält.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Snap Times (Aufnahmezeiten)


Verwenden Sie diese Option, wenn Sie mehrere Bilder während einer Belichtungszeit aufnehmen, um ein
mittleres Bild zu gewinnen. Diese Einstellung ist nur gültig, wenn in [Multi Exposure] der Wert
„1“ eingestellt ist.

Bright. Scale Mode (Modus Helligkeitsskala)


Diese Einstellung ist nur gültig, wenn in [Snap Times] ein Wert von „2“ oder größer eingestellt ist.
Wählen Sie den Pixelausgabemodus, wenn der aus der Summe der Helligkeitswerte der Pixel
gewonnenen Maximalwert höher als 255 ist.

Maximum
Jedes Pixel im Bereich wird mit dem gleichen Verhältnis eingestellt, sodass die Helligkeit der
hellsten Pixel auf 255 gesetzt und ausgegeben wird.

Summation (Summierung)
Die Pixel werden wie ermittelt ausgegeben, wenn die Helligkeit keines der Pixel über 255
ungeachtet der Helligkeit des hellsten Pixels liegt. Diese Option ist hilfreich, wenn das Werkstück
einen sehr hellen Teil wie z. B. eine Oberfläche mit Spiegelschliff aufweist und ein geeignetes Bild
mit der maximalen Helligkeit nicht erzielt werden kann.

- 145 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Min Laser Points (Mindestanzahl Laserpunkte)


Liegt die Anzahl der effektiv gefundenen Punkte im Messbereich (ohne den Maskenbereich) unter diesem
Schwellenwert, ist das Messergebnis ungültig. Variiert die Anzahl der gefundenen Laserpunkte aufgrund
eines kleinen Messbereichs oder einer Änderung der Bildhelligkeit, kann durch das Verringern der
Mindestanzahl der Laserpunkte eventuell eine Lokalisierung möglich sein. Es ist zu beachten, dass sich
die Messgenauigkeit durch eine Abnahme der Punkte verschlechtern kann, da die Neigung der
Werkstückebene aus den gefundenen Punkten berechnet wird. Die Anzahl der effektiv zu findenden
Laserpunkte ist abhängig vom [Min. Laser Contrast], wie im Folgenden erläutert.

Min. Laser Contrast (Minimaler Laser-Kontrast)


Dies ist der Schwellenwert für das Auffinden von Punkten des Lasers, der beim Messbereich mit
Ausnahme des Maskenbereichsangewandt wurde. [Min. Num. Laser Points] und [Min. Laser Contrast]
sollte nur in solchen Fällen angewendet werden, in denen eine Einstellung anderer Einstellwerte keine
präzisen gefundenen Ergebnisse liefert. Wird das Tool zwangsweise dazu gebracht, Laserpunkte zu
finden oder werden die Werte unachtsam verändert, kann es zu einer ungenauen Berechnung der
Erkennungsposition kommen.

ACHTUNG
Bevor die Lokalisierungsparameter [Min. Num. Laser Points] und [Min. Laser
Contrast] geändert werden, muss sichergestellt sein, dass die Belichtungszeit für
die Lasermessung im Bilderkennungsprozess so eingestellt ist, dass ein Bild
angemessen erfasst wird.

Cross Section Scale (Querschnittskala)


Stellen Sie hier die Auflösung (mm/pixel) des erzeugten Querschnittbilds ein.

Multi-Locator Mode (Modus mit mehreren Locator-Tools)


Wenn Sie mehr als ein Locator-Tool angelegt haben, können Sie auswählen, wie diese Tools ausgeführt
werden sollen.

Find Best (Bestes Tool suchen)


Es werden alle Locator-Tools ausgeführt und das beste Ergebnis wird ausgewählt. Diese Funktion ist
hilfreich, wenn Sie den Typ identifizieren wollen oder die Lokalisierungspräzision stärker gewichten
wollen, als die Verarbeitungszeit.

Find First (Erstes Tool suchen)


Die Locator-Tools werden von Anfang an nacheinander ausgeführt.
Der Lokalisierungsprozess hält an, sobald die angegebene Anzahl Werkstücke gefunden wurde.
Die folgenden Locator-Tools werden nicht ausgeführt.

- 146 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.7.1.2 2D Measurement setups (Konfiguration der 2D-Messungen)


Führt die Konfigurationen für die 2D-Messungen durch.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Die hier angegebene Belichtungszeit wird nur im Einrichtbetrieb verwendet. Im Runtime-Modus des
3DL-Querschnitt-Bildererkennungsprozess wird das Werkstück durch ein aus dem Laserbild erzeugtes
Querschnittbild gefunden, sodass kein zweidimensionales Bild aufgenommen wird. Deshalb wird im
Runtime-Modus die hier angegebene Belichtungszeit nicht verwendet.

6.7.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

- 147 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X, Y, Z
Mittels des Querschnittbilds bestimmte Koordinatenwerte des Modell-Ursprungspunkts des
gefundenen Werkstücks (Einheit: mm).

W, P, R
Alle diese Werte sind „0“ (Einheit: Grad).

Model ID (Modell-ID)
Mittels des Querschnittbilds bestimmte Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Mittels des Querschnittbilds bestimmte Wertigkeit des gefundenen Werkstücks.

Contrast (Kontrast)
Mittels des Querschnittbilds bestimmter Kontrast des gefundenen Werkstücks.

Fit Err. (Übereinstimmungsfehler)


Mittels des Querschnittbilds bestimmte Elastizität des gefundenen Werkstücks (Einheit: Pixel).

Laser Points (Laserpunkte)


Anzahl der zur Erzeugung des Querschnittbilds verwendete Laserpunkte.

6.7.3 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Laser Exposure Time (Laser-Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Laser Exposure (Anzahl von Laser-Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

- 148 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.8 3DL CURVED SURFACE SINGLE VIEW VISION PROCESS


(3DL-Bilderkennungsprozess mit Einzelansicht für
gerundete Oberflächen)
Dieser Prozess der 3DL-Bilderkennungsprozesse dient zur Messung der dreidimensionalen Position on
Lage eines Werkstücks; insbesondere einen Kreiszylinder mit gerundeter Oberfläche, und korrigiert die
Handhabung des Werkstücks durch den Roboter. Es können das Locator-Tool für gerundete Oberflächen
und das Zylinder-Befehlstool verwendet werden.

6.8.1 Einen Bilderkennungsprozess einstellen


Wenn Sie [3DL Curved Surface Single Proc] auswählen, wird eine Bildschirmmaske wie unten
dargestellt angezeigt.

- 149 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie in dem Dropdown-Feld die Kamera-Kalibrierung aus, die Sie verwenden möchten.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Offset Mode (Offset-Modus)


Wählen Sie in dem Dropdown-Feld einen der folgenden Offset-Modi für die Roboterposition aus:

Fixed Frame Offset (Offset des feststehenden Koordinatensystems)


Die Daten für den Offset des feststehenden Koordinatensystems werden berechnet.

Tool Offset (Werkzeug-Offset)


Die Daten für den Werkzeug-Offset werden berechnet.

Found Position (User) (Gefundene Position (Benutzer-Koordinatensystem)


Die gefundene Position wird so anstelle der Offset-Daten ausgegeben. Diese Option kann für
eventuell erforderliche vorgegebene Offset-Modi verwendet werden. Sie sollte unter normalen
Umständen nicht gewählt werden.

Found Position (Tool) (Gefundene Position (Werkzeug-Koordinatensystem)


Nach der Konvertierung in einen Wert aus Sicht des Werkzeug-Koordinatensystems wird die
gefundene Position anstelle der Offset-Daten ausgegeben. Diese Option kann für eventuell
erforderliche vorgegebene Offset-Modi verwendet werden. Sie sollte unter normalen Umständen
nicht gewählt werden.

Robot Holding Part (Werkstück an Roboter)


Wenn Sie [Tool Offset] oder [Found Position (Tool)] als [Offset Mode] gewählt haben, geben Sie den
Roboter an, an dem sich das Werkstück befindet.

Offset Frame (Offset-Koordinatensystem)


Ein 3DL-Bilderkennungsprozess mit Einzelansicht für gerundete Oberflächen misst die Offset-Daten
bezogen auf die Ebene, die in dieser Option gewählt wurde. Wenn Sie [Fixed Frame Offset] als [Offset
- 150 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE
Mode] gewählt haben, geben Sie ein Benutzer-Koordinatensystem als Offset-Koordinatensystem an.
Wenn Sie [Tool Offset] als [Offset Mode] gewählt haben, geben Sie ein User Tool an.

Setting the Light (Licht einstellen)


Verwenden Sie diese Funktion, um eine externe Lichtquelle ein- oder auszuschalten, wie es für den durch
den 3D-Lasersensor ausgeführten Bilderkennungsprozess erforderlich ist. Mit dieser Funktion können Sie
das Licht z. B. einschalten, wenn zweidimensionale Eigenschaften bei einer dreidimensionalen Messung
gefunden werden, oder es ausschalten, wenn die Laserlinien gefunden werden. Das Einstellen der
Funktion ist im Folgenden beschrieben.

1 Geben Sie in der Option [Light Output Signal Type] die Art des Signals an (DO oder RO), das das
Licht ein- oder ausschaltet.
2 Geben Sie bei [Light Output Signal Number] die Anzahl der Ausgabepunkte an, mit denen das
Signal ON/OFF (EIN/AUS) verbunden ist. Wenn das Signal zum Beispiel mit RO[1] verbunden
wird, geben Sie „1“ ein.
3 Stellen Sie in der Option [Light Output Signal Polarity] das Verhältnis zwischen der Signalausgabe
und dem ein- oder ausschalten des Lichts ein. Stellen Sie [Signal=ON->Light=ON] ein, um das
Licht anzuschalten wenn das Signal „ON“ (EIN) gegeben wird. Stellen Sie
[Signal=OFF->Light=ON] ein, um das Licht auszuschalten wenn das Signal „ON“ (EIN) gegeben
wird.
4 Stellen Sie in der Option [Light on Snap Delay] die Wartezeit von der Ausgabe des Signals Licht
„ON“ (EIN) ein, bis ein Bild aufgenommen wird. Unter normalen Umständen wird „0“ eingestellt.

Stellen Sie die Funktion wie folgt ein, wenn Sie unser originales LED-Licht verwenden.

1 Wählen Sie in der Option [Light Output Signal Type] „MUX“ aus.
2 Wählen Sie in der Option [LED Channel] die MUX-Nummer des Ports aus, an den der
3D-Lasersensor angeschlossen ist.
3 Geben Sie in der Option [LED Intensity] eine Zahl zwischen 1 und 16 für die Intensität der
LED-Lichtquelle an.

Lean Angle Limit (Schmaler Winkel-Grenzwert)


Jedes Werkstück, das mit einem größeren Winkel als dem schmalen Winkel-Grenzwert der Sollposition
gefunden wird, wird ignoriert.

Image Logging Mode (Bildprotokollierungsmodus)


Wählen Sie in dem Dropdown-Feld einen der folgenden Bildprotokollierungsmodi aus. Wenn jedoch im
Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das Bilderkennungsprotokoll deaktiviert ist,
werden die Bilder nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern. Mit diesem Modus wird die schnellste
Protokollierung aktiviert und er benötigt den geringsten Speicherkartenplatz.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt. Dieser Modus ist dann hilfreich,
wenn Sie missglückte Bilder später für eine Korrekturmaßnahme analysieren möchten.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern. Dieser Modus ist dann hilfreich, wenn sie große Mengen an Bilddaten für eine
Korrektur der Lokalisierungsparameter gewinnen möchten.

- 151 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

Image Display Mode (Bildanzeigemodus)


Wählen Sie hier aus, was im Bildanzeigebereich angezeigt werden soll.

2D Image (Zweidimensionales Bild)


Das zweidimensionale Bild und die Lokalisierungsergebnisse werden angezeigt.

Laser Slit Image 1 (Laserschlitz Bild 1)


Das Bild von Laserschlitz 1 wird angezeigt.

Laser Slit Image 2 (Laserschlitz Bild 2)


Das Bild von Laserschlitz 2 wird angezeigt.

6.8.1.1 2D Measurement setups (Konfiguration der 2D-Messungen)


Führt die Konfigurationen für die 2D-Messungen durch.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Light for Snap (Licht für die Aufnahme)


Stellt ein, ob das Licht bei der Bildaufnahme für eine zweidimensionale Messung ein- oder ausgeschaltet
wird.

Multiple Locator Find Mode (Modus zum Auffinden mehrerer Locator-Tools)


Wählen Sie aus dem Dropdown-Feld oben aus, welches Locator-Tool ausgeführt werden soll, wenn
mehrere Locator-Tools angelegt wurden.

- 152 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Find Best (Bestes Tool suchen)


Es werden sämtliche Locator-Tools ausgeführt. Diese Funktion ist hilfreich, wenn Sie den Typ
identifizieren wollen oder die Lokalisierungszuverlässigkeit stärker gewichten wollen als die
Verarbeitungszeit.

Find First (Erstes Tool suchen)


Die Locator-Tools werden von Anfang an nacheinander ausgeführt. Der Lokalisierungsprozess hält
an, sobald ein Werkstück von einem Lokalisierungswerkzeug gefunden wurde. Die folgenden
Locator-Tools werden nicht ausgeführt.

Wählen Sie aus dem Dropdown-Feld unten aus, welche Ergebnisse eines jeden Locator-Tools verwendet
werden sollen, falls ein Tool mehrere Ergebnisse liefert.

Best Result of Each Loc. Tool (Bestes Ergebnis eines jeden Locator-Tools)
Das Ergebnis mit der höchsten Wertigkeit wird für jedes einzelne Locator-Tool ausgewählt.
Die Messung verwendet nur die ausgewählten Ergebnisse.

All Result of Each Loc. Tool (Alle Ergebnisse eines jeden Locator-Tools)
Alle Ergebnisse werden in absteigender Reihenfolge der Wertigkeit verwendet, bis die Messing
erfolgreich durchgeführt wurde. Dies ist dann hilfreich, wenn Sie einen Messfehler eliminieren
wollen, der durch die fehlerhafte Erkennung eines Locator-Tools verursacht wurde.

6.8.1.2 Laser measurement setups


(Konfigurationen der Lasermessungen)
Führt die Konfigurationen für die Lasermessungen durch.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Snap Times (Aufnahmezeiten)


Verwenden Sie diese Option, wenn Sie mehrere Bilder während einer Belichtungszeit aufnehmen und ein
mittleres Bild gewinnen möchten. Diese Einstellung ist nur gültig, wenn in [Multi Exposures]
„1“ eingestellt ist.

- 153 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Bright. Scale Mode (Modus Helligkeitsskala)


Geben Sie eine Vorgehensweise für die Koordination der Helligkeit an, wenn durch Mehrfachbelichtung
gewonnene Laserbilder kombiniert werden.

Maximum
Nachdem alle Laserbilder aufsummiert wurden, wird die Helligkeit des gesamten Bildes skaliert,
damit die Helligkeit im fotometrischen Bereich unter 256 liegt. Wenn eine Lichthofbildung auch nur
an einem Punkt im fotometrischen Bereich auftritt, wird das Bild als Ganzes relativ dunkel.

Summation (Summierung)
Nachdem alle Laserbilder summiert wurden, wird die Helligkeit der Pixel, bei denen die Helligkeit
über 256 liegt, ausgeschnitten. Die Helligkeit des gesamten Bildes wird beibehalten und die
Helligkeit der Pixel, bei denen eine Lichthofbildung auftritt, wird nur auf 255 supprimiert.

Light for Snap (Licht für die Aufnahme)


Stellt ein, ob das Licht bei der Bildaufnahme für eine Lasermessung ein- oder ausgeschaltet wird.

ANMERKUNG
Wenn mehr als ein Tool für die Lasermessung angelegt wurde, wie z. B. ein
Zylinder-Befehlstool oder ein Befehlstool für die 3DL-Verschiebung, werden die
Tools nacheinander von oben nach unten ausgeführt und der Messprozess hält
an, sobald eine Messung erfolgreich ist und alle folgenden Tools werden nicht
mehr ausgeführt.

6.8.1.3 Reference data (Referenzdaten)

Sollposition einstellen
Ist die Sollposition gesetzt, wird [Set] in Grün angezeigt; ist sie nicht gesetzt [Not Set], in Rot.

Reference X, Y, Z, W, P, R (Sollposition X, Y, Z, W, P, R)
Die Koordinaten der eingestellten Sollposition werden angezeigt.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob der berechnete Offset-Wert innerhalb des
vorgegebenen Bereichs liegt. Standardmäßig ist [None selected] eingestellt und in diesem Falle erfolgt
keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der Offset-Grenzwertprüfung
finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

- 154 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.8.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X, Y, Z
Koordinaten des Modell-Ursprungspunkts des gefundenen Werkstücks (Einheit: mm).

W, P, R
Rotationswinkel des gefundenen Werkstücks um die X-, Y- und Z-Achse (Einheit: Grad).

Laser ID
Lasermessungs-ID des gefundenen Werkstücks.

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Wertigkeit des gefundenen Werkstücks.

Contrast (Kontrast)
Kontrast des gefundenen Werkstücks.

Fit Err. (Übereinstimmungsfehler)


Elastizität des gefundenen Werkstücks (Einheit: Pixel).
- 155 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Lean Angle (Schmaler Winkel)


Neigungswinkel des gefundenen Werkstücks in der Normalen-Richtung an der Sollposition (Einheit:
Grad)

6.8.3 Sollposition einstellen


Stellen Sie die Sollposition ein.
Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der hier einzustellenden Sollposition
und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster des Bilderkennungsprozess.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich der
Kamera.
3 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
4 Tippen Sie auf die Taste [Set].
5 Überprüfen Sie, dass [Ref. Pos. Status] auf [Set] eingestellt ist und dass ein Wert für jedes
Sollpositionselement angezeigt wird.

Nun wird die Position, an der das Werkstück sich befindet, während die Sollposition gesetzt wird,
eingelernt.
Während des Einlernens der Position darf das Werkstück nicht bewegt werden.

6.8.4 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

Laser Exposure Time (Laser-Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Laser Exposure (Anzahl von Laser-Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

- 156 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.9 SINGLE VIEW VISUAL TRACKING


(Visual Tracking mit Einzelansicht)
Dies ist ein Bilderkennungsprozess für eine zweidimensionale Anwendung, mit der ein auf einem
Förderer transportiertes Werkstück mit einer einzelnen Kamera gefunden werden und das Werkstück
aufgenommen werden kann, ohne den Förderer anzuhalten.

6.9.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [Single View Visual Tracking] wird eine Bildschirmmaske wie
unten dargestellt angezeigt.

- 157 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung.
Es können nur die Kamera-Kalibrierungen für Visual Tracking gewählt werden.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Conveyor Name (Förderer-Name)


Der Name des Förderers wird angezeigt, der für die Kamera-Kalibrierung ausgewählt wurde.
Ausführliche Informationen zum Förderer finden Sie im „BEDIENUNGSHANDBUCH R-30iB/R-30iB
Mate CONTROLLER iRPickTool“. Bei V8.10P oder V8.13P der Steuerungen wird dieses
Einrichtungselement als „Line Name (Anlagenname)“ angezeigt. Informationen zur Anlage finden Sie im
„BEDIENUNGSHANDBUCH R-30iB CONTROLLER iRVision Visual Tracking“.

Exposure Time (Belichtungszeit)


Spezifizieren Sie die Belichtungszeit für die Kamera, um ein Bild aufzunehmen.
Geben Sie als Belichtungszeit den kleinstmöglichen Wert an, bei dem das Bild des sich bewegenden
Förderers noch nicht unscharf wird. Als Orientierungshilfe: der Wert sollte so klein sein, dass der
Förderer sich während der Belichtungszeit nicht mehr als 0,5 Pixel bewegt.

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird. Wenn jedoch im Bildschirm „Vision
Config“ (Bilderkennungskonfiguration) das Bilderkennungsprotokoll deaktiviert ist, werden die Bilder
nicht gespeichert. Aus den verfügbaren Optionen, die im Folgenden aufgeführt sind, sollten Sie im
Normalfall [Do Not Log] für das Visual Tracking auswählen, da der Bildspeicherungsprozess Zeit kostet.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

- 158 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

Runtime Image (Laufzeit-Bild)


Geben Sie an, wie ein Bild auf dem Laufzeit-Bildschirm angezeigt werden soll.

Display With 100% (Anzeige mit 100%)


Das Bild wird auf dem Laufzeit-Bildschirm mit einer Vergrößerung von 100% angezeigt.

Display With 50% (Anzeige mit 100%)


Das Bild wird auf dem Laufzeit-Bildschirm mit einer Vergrößerung von 50% angezeigt.

Don’t Display (Nicht anzeigen)


Am Laufzeit-Bildschirm wird kein Bild angezeigt.

Da die Bildanzeige am Laufzeit-Bildschirm Zeit beansprucht, sollten Sie eine entsprechende Option für
den Tracking-Zeitbedarf des Systems auswählen. Wenn Sie die Option [Don’t Display] auswählen, wird
auf dem Laufzeit-Bildschirm kein Bild angezeigt und so der Bilderkennungsprozess schnellstmöglich
ausgeführt. Obwohl [Display with 50%] mehr Zeit beansprucht als [Don’t Display], ist diese Option doch
schneller als [Display with 100%].

Ref. Data Index To Use (Anzuwendender Referenzdatenindex)


Wählen Sie eine der folgenden Optionen, um festzulegen, wie die zu verwendenden Referenzdaten
bestimmt werden sollen.

This Index (Dieser Index)


Zum Berechnen der Offset-Daten werden die gleichen Referenzdaten verwendet.

Model ID (Modell-ID)
In Abhängigkeit von der Modell-ID des gefundenen Werkstücks werden unterschiedliche
Referenzdaten verwendet. Wählen Sie diese Option, zwei Arten von Werkstücken mit
unterschiedlichen Höhen vorhanden sind.

Delete Duplicates If < (Dubletten löschen, wenn <)


Position und Winkel eines jeden gefundenen Ergebnisses werden daraufhin überprüft, ob eine
Übereinstimmung mit einem anderen Ergebnis vorliegt. Werden mehrere Ergebnisse innerhalb der
angegebenen Pixel und Winkel gefunden, wird interpretiert, dass es sich um das gleiche Werkstück
handelt und nur das Suchergebnis mit der höchsten Wertigkeit wird ausgegeben.

Referenzdaten
Die Referenzdaten werden für die Berechnung der Offset-Daten aus dem Suchergebnis verwendet.
Die Referenzdaten bestehen im Wesentlichen aus zwei Arten von Daten, die im Folgenden beschrieben
werden.
- 159 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Part Z Height (Teil-Höhe Z)


Höhe des gefundenen Teils des Werkstücks aus dem Blickwinkel des Tracking-Bilds.

Reference Position (Sollposition)


Beim Einlernen der Roboterposition ermittelte Werkstückposition. Die Offset-Daten sind die
Differenz zwischen der mit dem Bilderkennungsprozess ermittelten Werkstück-Istposition und der
Sollposition.

Ein Bilderkennungsprozess kann mehr als einen Referenzdatensatz haben. Unter normalen Umständen
wird nicht mehr als ein Referenzdatensatz verwendet. Gibt es jedoch zwei Arten von Werkstücken, die
auf dem Förderer transportiert werden und unterschiedliche Höhe aufweisen, verwendet der
Bilderkennungsprozess zwei Referenzdatensätze, da jeweils eine unterschiedliche „Z-direction
height“ (Höhe in Z-Richtung) für die Werkstücke eingestellt werden muss.

ID
Wird [This Index] bei [Ref. Data To Use] gewählt, muss die zu verwendende Referenzdaten-ID
angegeben werden.

Adding reference data (Referenzdaten hinzufügen)


Referenzdaten können wie folgt hinzugefügt werden:

1 Tippen Sie auf die Taste .


2 Geben Sie bei [Model ID] die Modell-ID ein, für die die Referenzdaten verwendet werden sollen.

Deleting reference data (Referenzdaten löschen)


Wenn mehr als ein Datensatz vorhanden ist, können Referenzdaten wie folgt gelöscht werden:

1 Wählen Sie aus der Dropdown-Liste des Index die Referenzdaten aus, die Sie löschen möchten.
2 Tippen Sie auf die Taste .
3 Sie werden von einer Popup-Meldung aufgefordert, den Vorgang zu bestätigen. Drücken Sie F4 OK.

Part Z Height (Teil-Höhe Z)


Geben Sie die Höhe des gefundenen Teils des Werkstücks aus dem Blickwinkel des Tracking-Bilds an.

ACHTUNG
Es handelt sich hier nicht um die Höhe ab der Fördereroberfläche.
Wird zum Beispiel ein dickes Kalibriergitter zum Einrichten des
Tracking-Koordinatensystems verwendet, so erhält man den einzustellenden
Wert, indem man die Dicke des Kalibriergitters von der Werkstückhöhe abzieht.

Ref. Pos. Status (Status der Sollposition)


Ist die Sollposition gesetzt, wird [Set] in Grün angezeigt; ist sie nicht gesetzt [Not Set], in Rot.

Reference Position X,Y,R (Sollposition X, Y, R)


Die Koordinaten der eingestellten Sollposition werden angezeigt.

- 160 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.9.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X,Y
Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Werkstücks (Einheit: mm).

Roll (Rollen)
Rotationswinkel des gefundenen Werkstücks um die Z-Achse (Einheit: Grad).

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Wertigkeit des gefundenen Werkstücks.

Contrast (Kontrast)
Kontrast des gefundenen Werkstücks.

Fit Err. (Übereinstimmungsfehler)


Elastizität des gefundenen Werkstücks (Einheit: Pixel).

- 161 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.9.3 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster des Bilderkennungsprozess.

2 Wählen Sie in [Reference Data] in der Option [ID] die Referenzdaten aus, für die Sie die
Sollposition einstellen wollen.
3 Bringen Sie ein Werkstück in den Kameraerfassungsbereich.
4 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
5 Überprüfen Sie, dass das Werkstück korrekt gefunden wurde und tippen Sie auf die Taste [Set].

- 162 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE
6 Wenn die Sollposition eingestellt ist, wird folgende Meldung angezeigt:

7 Prüfen Sie die Meldung und drücken Sie F4 OK.

Der Geberwert des Förderers zum Zeitpunkt der Sollpositionsvorgabe wird als Trigger für jeden
einzelnen Roboter gesetzt. Fahren Sie den Förderer, ohne die Position des aufliegenden Werkstücks zu
verändern, bis das Werkstück sich vor dem Roboter befinden, und lernen Sie die Roboterposition ein.

6.9.4 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat keine Parameter, die mit Vision Override übersteuert werden können.

- 163 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.10 BIN-PICK SEARCH VISION PROCESS


(Bilderkennungsprozess für die Suche der
Behälteraufnahme)
Dieser Bilderkennungsprozess ermittelt die Orte X, Y, Z, und R des Werkstücks sowie die Gier- und
Nickstellung auf der Grundlage, wo sich das Teil im Sichtfeld befindet. Die Höhe, d. h. Z, wird auf der
Basis der gefundenen Skala des Werkstücks geschätzt.

Gierstellung und Kippstellung stellen nicht die tatsächliche Ausrichtung des Werkstücks dar, sondern
seine Position in Relation zur Kamera. Dadurch kann das Werkstück mit einem einfachen
Schraubenaufnahmesystem mit einem Magnetgreifer aufgenommen werden, ohne dass die Außenwände
berührt werden.

Camera
Kamera
View
Erfassungsbereich

Magnethand
Magnetic hand

6.10.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [Bin-Pick Search Vis.Process] wird eine Bildschirmmaske wie
unten dargestellt angezeigt.

- 164 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE
Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Multiple Locator Find Mode (Modus zum Auffinden mehrerer Locator-Tools)


Wenn Sie mehr als ein Locator-Tool angelegt haben, können Sie auswählen, wie diese Tools ausgeführt
werden sollen.

Find Best (Bestes Tool suchen)


Es werden alle Locator-Tools ausgeführt und das beste Ergebnis wird ausgewählt. Diese Funktion ist
hilfreich, wenn Sie den Typ identifizieren wollen oder die Lokalisierungszuverlässigkeit stärker
gewichten wollen als die Verarbeitungszeit.

Find First (Erstes Tool suchen)


Alle Locator-Tools werden von Anfang an nacheinander ausgeführt, bis die angegebene Anzahl
Werkstücke gefunden wurde. Die folgenden Locator-Tools werden nicht ausgeführt, sobald die
Anzahl der Fundstellen die angegebene Anzahl übersteigt.

Number to Find (Anzahl zu findender Werkstücke)


Geben Sie die maximale Anzahl Werkstücke an, die bei jeder Messung gefunden werden soll. Es kann ein
Wert von 1 bis 100 angegeben werden.

- 165 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird.
Wenn jedoch im Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das
Bilderkennungsprotokoll deaktiviert ist, werden die Bilder nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.
Log All Images (Alle Bilder protokollieren)
Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

Delete Duplicates If < (Dubletten löschen, wenn <)


Position und Winkel eines jeden gefundenen Ergebnisses werden daraufhin überprüft, ob eine Dublette
mit einem anderen Ergebnis vorliegt. Werden mehrere Ergebnisse innerhalb der angegebenen Pixel und
Winkel gefunden, wird interpretiert, dass es sich um das gleiche Werkstück handelt und nur das
Suchergebnis mit der höchsten Wertigkeit wird ausgegeben.

Sorting Priority (Sortierpriorität)


Geben Sie die Priorität für die Aufgreifreihenfolge an, wenn mehr als ein Werkstück gefunden wurde.
Der Prozess [Bin-Pick Search Vis.Process] berechnet die Priorität unter Verwendung der Ergebnisse der
folgenden fünf Kriterien und sortiert die Ergebnisse anders als andere Bilderkennungsprozesse. Sie
können vorgeben, welche Kriterien für eine Prioritätsberechnung verwendet werden sollen. Weiterhin
können Sie durch Aktivieren [Enabled] für jedes einzelne Kriterium bestimmen und eine Gewichtung
angeben, wie stark jedes Kriterium die Berechnung beeinflussen soll. Priorisierungen, die auf der
Grundlage dieser Einstellungen berechnet wurden, sind relative Werte, um Werkstücke miteinander zu
vergleichen. Es ist nicht immer die gleiche Priorität für ein gefundenes Werkstück mit der gleichen Größe
und Wertigkeit gegeben, da die Berechnung so durchgeführt wird, dass die durchschnittliche Priorität
aller gleichzeitig gefundener Werkstücke ungefähr 50 ergibt.

Height (Höhe)
Ein Werkstück mit dem größten Z-Wert im Anwendungs-Benutzerkoordinatensystem wird
priorisiert.

Score (Wertigkeit)
Ein Werkstück mit einer hohen Wertigkeit in den Suchergebnissen wird priorisiert.

Aspect (Seitenverhältnis)
Ein Werkstück mit einer hohen Elliptizität, d. h. einer geringen Neigung wird priorisiert.

- 166 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Diff.Height (Höhenunterschied)
Das Werkstück mit der ähnlichsten Höhe wie die des zuletzt ausgewählten Werkstücks (Z-Wert im
Anwendungs-Benutzerkoordinatensystem) wird priorisiert.

Child N Found (N untergeordnete Ebenen gefunden)


Als Mustervergleichsmodell wird das gesamte Werkstück in das übergeordnete Mustervergleichstool
eingelernt. Dann, als untergeordnetes Tool der übergeordneten Mustererkennung, wird ein Teil des
Werkstücks eingelernt. Das Werkstück mit der maximalen Anzahl untergeordneter Tools wird
priorisiert. Verwenden Sie diese Option, wenn Sie ein Werkstück priorisieren wollen, von dem ein
kleiner Bereich durch ein anderes Werkstück verdeckt ist.

Referenzdaten
Die Referenzdaten werden für die Berechnung der Offset-Daten aus den Suchergebnissen. Der
Bilderkennungsprozess kann mehr als einen Referenzdatensatz haben. Normalerweise hat der
Bilderkennungsprozess nur einen Referenzdatensatz. Werden jedoch zwei Arten von Werkstücken
kombiniert, ist es erforderlich, den Parameter zu setzen, der die Höhe in Z-Richtung des Werkstücks
bestimmt; also die Referenzdaten für jede Art von Werkstück, und deshalb werden zwei
Referenzdatensätze verwendet.

Adding reference data (Referenzdaten hinzufügen)


Referenzdaten können wie folgt hinzugefügt werden:

1 Tippen Sie auf die Taste .


2 Geben Sie bei [Model ID] die Modell-ID ein, für die die Referenzdaten verwendet werden sollen.

Deleting reference data (Referenzdaten löschen)


Wenn mehr als ein Datensatz vorhanden ist, können Referenzdaten wie folgt gelöscht werden:

1 Wählen Sie aus der Dropdown-Liste des Index die Referenzdaten aus, die Sie löschen möchten.
2 Tippen Sie auf die Taste .
3 Sie werden von einer Popup-Meldung aufgefordert, den Vorgang zu bestätigen. Drücken Sie F4 OK.

- 167 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Setting the Reference Height and Size


(Einstellen von Referenzhöhe und Größe)
Verwenden Sie diese Option, wenn in [App. Z Mode] [Calculate From Found Scale] gewählt wurde.
Stellen Sie das Verhältnis zwischen der Ist-Höhe des Werkstücks in Z-Richtung und der offensichtlichen
Größe des Werkstücks, wie sie von der Kamera erfasst wurde, ein.

1 Bringen Sie ein Werkstück in den Erfassungsbereich. Bestimmen Sie die Höhe des Werkstücks über
oder unter dem Anwendungs-Benutzerkoordinatensystem. Dies kann ggf. mit einem Roboter mit
einem Auswahlwerkzeug erfolgen. Geben Sie diese Höhendaten in [Reference Height 1] ein.
2 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
Tippen Sie dann auf die Taste [Set] und stellen Sie [Reference Scale 1] ein.
3 Bringen Sie ein zweites Werkstück in einer anderen Höhe als das Erste in den Erfassungsbereich.
Bestimmen Sie die Höhe des Werkstücks über oder unter dem Anwendungs-
Benutzerkoordinatensystem und geben Sie diese Höhendaten in [Reference Height 2] ein.
4 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen. Tippen Sie dann auf die
Taste [Set] und stellen Sie [Reference Scale 2] ein.

Ref. Pos. Status (Status der Sollposition)


Ist die Sollposition gesetzt, wird [Set] in Grün angezeigt; ist sie nicht gesetzt [Not Set], in Rot.

Reference X, Y, Z, W, P, R (Sollposition X, Y, Z, W, P, R)
Die Koordinaten der eingestellten Sollposition werden angezeigt.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob der berechnete Offset-Wert innerhalb des
vorgegebenen Bereichs liegt. Standardmäßig ist [None selected] eingestellt und in diesem Falle erfolgt
keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der Offset-Grenzwertprüfung
finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

6.10.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.
- 168 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X, Y, Z
Koordinaten des Modell-Ursprungspunkts des gefundenen Werkstücks (Einheit: mm).

W, P
Neigung der Sichtlinie, die Kamera und gefundenes Werkstück verbindet (Einheit: Grad).

R
Rotationswinkel des gefundenen Werkstücks um die Z-Achse (Einheit: Grad).

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Wertigkeit des gefundenen Werkstücks.

Size (Größe)
Größe des gefundenen Werkstücks.

Contrast (Kontrast)
Kontrast des gefundenen Werkstücks.

Fit Err. (Übereinstimmungsfehler)


Elastizität des gefundenen Werkstücks (Einheit: Pixel).

Priority (Priorität)
Dem gefundenen Werkstück zugeordnete Aufgreifpriorität.

ANMERKUNG
Wenn Sie einen Testlauf durchführen, ohne die Referenzhöhe oder -größe in
Z-Richtung eingestellt zu haben, wird ******** für X, Y, Z, W, P und R angezeigt,
da diese Werte nicht berechnet werden können.

- 169 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.10.3 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster des Bilderkennungsprozess.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich der
Kamera.
3 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
4 Tippen Sie auf die Taste [Set].
5 Überprüfen Sie, dass [Ref. Pos. Status] auf [Set] eingestellt ist und dass ein Wert für jedes
Sollpositionselement angezeigt wird.

Nun wird die Position, an der das Werkstück sich befindet, während die Sollposition gesetzt wird,
eingelernt. Während des Einlernens der Position darf das Werkstück nicht bewegt werden.

6.10.4 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13 „OVERRIDE
(Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

- 170 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.11 SINGLE VIEW INSPECTION VISION PROCESS


(Bilderkennungsprozess mit Einzelansicht zur
Inspektion)
Der Bilderkennungsprozess mit Einzelansicht zur Inspektion führt im Gegensatz zu normalen
Bilderkennungsprozessen, die dem Verschieben der Roboterposition dienen, eine Beurteilung von
Inspektionsergebnissen mit „Pass or Fail“ (Bestanden oder Durchgefallen) durch.

6.11.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [Single-View Inspection] wird eine Bildschirmmaske wie
unten dargestellt angezeigt.

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

- 171 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Camera Setup (Kamera-Einstellung)


Wählen Sie eine Kamera aus.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit fest, mit der der Bilderkennungsprozess durchgeführt werden soll.
Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird.
Wenn jedoch im Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das
Bilderkennungsprotokoll deaktiviert ist, werden die Bilder nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn das Inspektionsergebnis „Fail“ lautet oder keine Beurteilung
durchgeführt werden konnte.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

- 172 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.11.2 Eine Messebene einstellen


In einem Bilderkennungsprozess mit Einzelansicht zur Inspektion wird die Messlänge entweder als eine
Anzahl Pixel auf dem Bild oder als ein in Millimeter konvertierter Wert ausgewertet. Zum Konvertieren
der Länge in Millimeter muss das Kalibriergitter auf gleicher Höhe wie die Messebene montiert, das
Raster des Gitters mit der Kamera erfasst und die Messebeneninformationen eingestellt werden. In dieser
Anleitung ist die Messebene eingestellt, da die Breite des Steckverbinders in Millimeter bewertet werden
muss.

Grid Interval (Gitterintervall)


Stellen Sie das Gitterintervall des benutzten Kalibriergitters in Millimeter ein.

Override Focal Dist. (Brennweite überschreiben)


Wählen Sie [Yes] aus und geben Sie die Nenn-Brennweite der Linse in Millimetern ein.

Es ist möglich, [No] zu wählen, um die Brennweite automatisch zu berechnen. Jedoch kann die
Brennweite nicht korrekt berechnet werden, wenn sich die optische Achse der Kamera senkrecht zum
Kalibriergitter befindet. Wenn die automatisch berechnete Brennweite von der Nenn-Brennweite um
±10% oder darüber abweicht, wählen Sie [Yes] aus und geben Sie die Nenn-Brennweite des verwendeten
Objektivs ein.

Height from Plane (Höhe über der Ebene)


Der Offset-Wert der Messebene muss angegeben werden, wenn die Höhe der einzustellenden Messebene
(Höhe des zu messenden Ziels) von der Höhe der Rasterebene des platzierten Kalibriergitters abweicht.
Geben Sie einen positiven Millimeterwert ein, wenn die Messebene näher an der Kamera als die
Rasterebene gesetzt werden soll oder einen negativen Wert, wenn die Messebene weiter von der Kamera
entfernt ist als die Rasterebene.

Eine Messebene einlernen


Nehmen Sie ein Bild des Kalibriergitters auf und stellen Sie die Messebene ein. Drücken Sie F3 SNAP
um das Bild aufzunehmen und tippen Sie auf die Taste [Train].
Stellen Sie das rote Rechteck so ein, dass das Gitter vom Rahmen umschlossen ist. Da das Kalibriergitter
im Allgemeinen so platziert ist, dass das Gitter über den gesamten Sichtbereich angezeigt wird, wird das
rote Rechteck in den Vollbildmodus gesetzt. Wird nun F4 OK gedrückt, wird das Kalibriergitter erkannt
und die Messebene eingestellt.

Ist die Messebene eingestellt, wird die mittlere Skala auf der eingestellten Messebene in [Scale
Conversion] angezeigt. Die Skala bezeichnet den Konvertierungsfaktor zwischen einem Pixel auf dem
Bild und der Länge in Millimetern auf der Messebene und die Skaleneinheit ist mm/pix. Liegt
Objektivverzeichnung vor oder die optische Achse der Kamera ist nicht senkrecht zur Messebene,
befindet sich die Skala noch nicht einmal im Bild. Daher ist die dargestellte Skale der Mittelwert.

Wenn Sie auf die Taste [Train] getippt haben und die Messebene bereits eingelernt ist, wird eine Meldung
angezeigt und abgefragt, ob die Messebeneninformationen geändert werden sollen oder ob die Änderung
abgebrochen werden soll. Gibt es Befehlstools, die bereits eingelernt wurden, kann eine Änderung der
Messebene deren Messergebnisse verändern. Wird die Messebene neu eingelernt, müssen auch diese
Befehlstools gegebenenfalls wieder eingelernt werden.

ACHTUNG
Wird die Messebene eingelernt, nachdem Befehlstools eingelernt wurden, wird
empfohlen, diejenigen Befehlstools neu einzulernen, die Messwerte haben, bei
denen die Millimeterkonvertierung angewendet wird.

- 173 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.11.3 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Ergebnis
Das Ergebnis einer Inspektion in Einzelansicht wird angezeigt.

Tabelle der Suchergebnisse


Diese Bewertungsergebnisse werden angezeigt.

Cond. No (Konditionaler Ausdruck Nr.)


Nummer des konditionalen Ausdrucks.

Condition (Bedingung)
Konditionaler Ausdruck der eingestellt wurde.

Value (Wert)
Zielwert der Bewertung, der mit dem konditionalen Ausdruck ausgewertet wurde.

Cond. Result (Konditionales Ergebnis)


Bewertungsergebnis des konditionalen Ausdrucks.

- 174 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.11.4 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

6.12 READER VISION PROCESS


(Bilderkennungsprozess mit einem Barcodeleser)
Ein Bilderkennungsprozess mit einem Barcodeleser liest im Gegensatz zum normalen
Bilderkennungsprozess, bei dem ein Bilderkennungs-Korrekturwert zur Korrektur der Roboterpositionen
ausgegeben wird, den Barcode und gibt einen Ergebnis-String aus.

6.12.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [Reader Vision Process] wird eine Bildschirmmaske wie unten
dargestellt angezeigt.

- 175 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Kamera
Wählen Sie eine Kamera aus.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit fest, mit der der Bilderkennungsprozess durchgeführt werden soll.
Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird.
Wenn jedoch im Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das
Bilderkennungsprotokoll deaktiviert ist, werden die Bilder nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

- 176 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.12.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

Model ID (Modell-ID)
Modell-ID des gefundenen Barcodes.

Score (Wertigkeit)
Wertigkeit des gefundenen Barcodes.

Ergebnis-String
String des gefundenen Barcodes.

6.12.3 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

- 177 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.13 IMAGE TO POINTS VISION PROCESS


(Bilderkennungsprozess mit Verwendung von Punkten)
Dieser Bilderkennungsprozess extrahiert Punkt an der Kontur des Werkstücks und gibt Daten von
Sichtlinien aus, die durch die Punkte gehen. Die dreidimensionalen Positionen der extrahierten Punkte
werden durch Berechnung der Schnittpunkte der Sichtlinien und der Ebene, die von der
Werkstückoberfläche gebildet wird, ermittelt. Die dreidimensionalen Positionen können verwendet
werden, um automatisch eine Bewegungsbahn des Roboters zu erzeugen.

ACHTUNG
Dieser Bilderkennungsprozess verwendet keine Programmbefehle für iRVision,
da bestimmte Anwendungen diesen Bilderkennungsprozess verwenden und
jede der Anwendungen KAREL-Programme für die Ausführung dieses
Bilderkennungsprozess zur Verfügung stellt.

Visiondes
Ausführung Process execution
Bilderkennungsprozesses Berechnung dercalculation
Intersection Schnittpunkte

Kamera
Camera Kamera
Camera
Objektivmittelpunkt
Lens center
Ebene, die der Sichtlinie
Sichtlinie durch Werkstückoberfläche View line durch
going einen
View line going A plane corresponding to Punkt anader
through Kontur
point on
einen Punkt an entspricht
through a point on the workpiece surface the outline
der Kontur
the outline
Werkstückkontur
Outline of workpiece
Schnittpunkt
Intersection
Workpiece
Werkstück

6.13.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters von [Image To Points] wird eine Bildschirmmaske wie unten
dargestellt angezeigt.

- 178 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE
Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung.
Folgende Arten der Kamerakalibrierung können eingesetzt werden:
• Rasterkalibrierung
• Vom Roboter erzeugte Gitterkalibrierung
• Kalibrierung mittels 3D-Laser-Vision-Sensor

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll.

- 179 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird.
Wenn jedoch im Bildschirm „Vision Config“ (Bilderkennungskonfiguration) das
Bilderkennungsprotokoll deaktiviert ist, werden die Bilder nicht gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

Runtime Display (Laufzeitanzeige):


Wählen Sie, was am Laufzeit-Bildschirm angezeigt werden soll.

Image and Graphics (Bild und Grafik)


Das Kamerabild und die gefundenen Ergebnisse werden angezeigt.

Image Only (Nur Bild)


Nur das Kamerabild wird angezeigt. Ist [Image Only] angewählt, ist die Verarbeitungszeit im
Laufzeitmodus schneller als bei [Image and Graphics].

- 180 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.13.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Found Chains (Gefundene Ketten)


Die Anzahl der gefundenen Ketten wird angezeigt.

Found Points (Gefundene Punkte)


Die Gesamtzahl der aus den gefundenen Ketten extrahierten Punkte wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

Model ID (Modell-ID)
Modell-ID einer jeden gefundenen Kette.

Num Points (Anzahl Punkte)


Die Anzahl der aus jeder gefundenen Kette extrahierten Punkte.

- 181 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.13.3 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

6.14 3D AREA SENSOR (3D-Bereichssensor)


Dieser Bilderkennungsprozess erfasst eine dreidimensionale Karte mit einem 3D-Bereichssensor.
Um diesen Bilderkennungsprozess von den Einrichtungen des 3D-Bereichssensors zu unterscheiden, wird
in diesem Dokument der Name des Bilderkennungsprozess in Klammern benannt, z. B.
[3D Area Sensor].

ACHTUNG
Diesen Bilderkennungsprozess erfasst nur eine 3D-Karte. Um die Position von
Werkstücken zu ermitteln, muss zusätzlich ein „3D Area Sensor Vision
Process“ (Bilderkennungsprozess mit 3D-Bereichssensor) eingerichtet werden.

6.14.1 Anleitung für den 3D-Bereichssensor


Der 3D-Bereichssensor besteht aus drei Einheiten: zwei Kameraeinheiten und eine Projektoreinheit. Die
Projektoreinheit projiziert mit hoher Geschwindigkeit Streifenmuster und zwei Kameraeinheiten erfassen
die Streifenbilder. Dann werden 3D-Informationen in einem weiten Bereich gleichzeitig berechnet. In
diesem Dokument wird ein Element der erfassten 3D-Informationen als „3D-Punkt“ und ein weiterer Satz
der 3D-informationen als „3D-Karte“ bezeichnet.

Die Kameraeinheiten und die Projektoreinheit des 3D-Bereichssensors sollten an einem stabilen Gestell
montiert werden. Jede 3D-Bereichssensoreinheit muss einwandfrei mit Bezug auf den Zielbehälter
ausgerichtet werden, damit der 3D-Bereichssensor seine Funktion voll erfüllen kann.

ACHTUNG
Der 3D-Bereichssensor kann nicht an einem Roboter montiert werden.

- 182 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Standardanordnung
Die Abbildung unten zeigt die Standardanordnung des 3D-Bereichssensors in Seitenansicht.
Zwei Kameraeinheiten und eine Projektoreinheit sind am gleichen oberen Träger montiert.

Abstand zwischen
Distance betweenden Kameras
cameras

Projektoreinheit
Projector Unit R
t ig
Lef ra
Kamera- Cam ht
Kamera-
e e
Cam it
einheit uni ra
einheit
Un
links t
rechts
Left Camera
Sichtfeld FOVder Kamera links
(FOV)

Sichtfeld (FOV) Projektor


Projector FOV
Standoff
der Kamera

Right Camera
Sichtfeld FOV
(FOV) der Kamera rechts
Projektors
AbstandCamera

Stabiles
Solid Gestell
Pedestal
Standoff
Projectordes

Behälter
Container
Abstand

Die Abbildung unten zeigt die Standardanordnung in Draufsicht.

Sichtfeld (FOV)
Right Camera FOVder Kamera rechts

Sichtfeld (FOV) Projektor


Projector FOV

Sichtfeld (FOV)
Left Camera FOV der Kamera links

Kamera-
Left Right
Kamera-
einheit
Camera Projektoreinheit einheit
Camera
links Projector Unit rechts
Unit Unit

Behälter
Container

Wie aus den Abbildungen oben ersichtlich, sollten die zwei Kameraeinheiten und der Projektor ungefähr
auf einer Linie angeordnet werden. Da der Kameraabstand gleich ist, ist die Information über die Tiefe in
Z-Richtung umso präziser, je länger der Abstand zwischen den Kameras ist; jedoch wird gleichzeitig der
tote Winkel größer, d. h. der Bereich, der von einer Kamera erfasst werden kann, von der anderen jedoch
nicht. Daher sollten die Kameraeinheiten über dem Behälterbereich angeordnet werden, um zu vermeiden,
dass Werkstücke sich hinter der Behälterseitenwand verbergen.

- 183 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Die Distanz zwischen den Kameras, der Kameraabstand und die Genauigkeit in Z-Richtung haben
folgendes Verhältnis:

Längere Seite des


Longer SideKamerasichtfelds
of Camera FOV(FOV) X Kameraabstand
Camera Standoff
Z-Genauigkeit
Z accuracy ==
Anzahl Pixel
Number der längeren
of Pixels Seite
of Longer desof
Side Bilds X AbstandDistance
the Image zwischenBetween
den Kameras
Cameras

ACHTUNG
Die berechnete Z-Genauigkeit ist ein theoretischer Wert. Der Fokus des
projektierten Musters, der Kamerafokus, das Umgebungslicht, die Genauigkeit
der Kalibrierung der einzelnen Kamera, usw. können die tatsächliche
Z-Genauigkeit beeinflussen.

Kameraabstand und Projektorabstand müssen nicht gleich sein, aber der Abstand der beiden
Kameraeinheiten sollte gleich sein.

ACHTUNG
Je nach Größe des Behälters und erforderlicher Z-Genauigkeit, ist es ggf.
günstiger, die Kameraeinheiten und die Projektoreinheit auf unterschiedlicher
Höhe anzubringen.

Camera Calibration (Kamera-Kalibrierung)


Grid Pattern Calibration (Rasterkalibrierung) und Robot-Generated Grid Calibration (Robotergenerierte
Rasterkalibrierung) stehen als mögliche Optionen für die Kalibrierung der Kameraeinheiten des
3D-Bereichssensors zur Verfügung. Zwei Kameraeinheiten müssen mit Bezug auf das gleiche
Anwendungs-Koordinatensystem kalibriert werden.

ACHTUNG
Die Z-Achse des Anwendungs-Koordinatensystems sollte senkrecht zum
Behälterboden und dessen +Z-Richtung senkrecht zum Sensor liegen.

Projektionssichtfeld und Abstand der Projektoreinheit


Das Sichtfeld der Projektoreinheit sollte die obere Öffnung des Behälters abdecken.

Der 3D-Bereichssensor berechnet 239x192 Punkte im Sichtfeld des Projektors, sodass die räumliche
Dichte der gemessenen 3D-Punkte abhängig von der Größe des Projektorsichtfelds ist. Deshalb ist der
räumliche Abstand der gemessenen 3D-Punkte umso länger, je größer das Sichtfeld des Projektors ist.

Die Leuchtkraft der Projektoreinheit ist begrenzt. Deshalb ist die Intensität des über die Werkstücke
projizierten Musters umso geringer, je größer das Sichtfeld des Projektors ist. Um einen
zufriedenstellenden Kontrast zwischen hellen und dunklen Streifen zu erzielen und letztendlich eine
möglichst stabile 3D-Karte zu ermitteln, sollte das Sichtfeld des Projektors so schmal wie möglich sein.
Dies ist besonders wichtig, wenn die Farbe des Werkstücks die Gleiche wie das Projektorlicht bzw. das
Reflektionsverhältnis der Werkstückoberfläche niedrig ist.

Bestimmen Sie die Größe des Sichtfelds des Projektors unter Berücksichtigung der obigen Hinweise erst,
und danach den Abstand des Projektors auf der Grundlage des gewählten Sichtfelds des Projektors.

- 184 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Sichtfeld (FOV) der Kameras


Das Sichtfeld der Kameraeinheiten sollte ebenfalls die obere Öffnung des Behälters abdecken. Die Größe
des Kamerasichtfelds hat einen Einfluss auf die Erkennungsgenauigkeit der projizierten Muster. Wurde
z. B. das Kamerasichtfeld zu weit im Vergleich zum Projektorsichtfeld gewählt, kann es schwierig sein,
die Muster präzise zu erkennen, da jedes Muster, das auf einem Kamerabild erscheint, nicht deutlich
genug wäre. Stellen Sie die Kameraeinheiten so ein, dass ihr Sichtfeld und dasjenige der Projektoreinheit
soweit wie möglich gleich sind. Die optische Achse einer jeden Kameraeinheit sollte ungefähr durch den
Mittelpunkt der oberen Behälteröffnung führen.

Umgebungslicht
Umgebungslicht kann die Zuverlässigkeit des 3D-Bereichssensors beeinflussen. Je stärker das
Umgebungslicht ist, desto weniger stabil können die Messergebnisse des 3D-Bereichssensors sein. Ist die
Intensität des Umgebungslichts zu hoch, muss der Behälter vom Umgebungslicht abgeschirmt werden.

HINWEIS
Erfahrungsgemäß kann der 3D-Bereichssensor eine 3D-Karte zuverlässig
ermitteln, wenn die Intensität des Umgebungslichts weniger als die Hälfte des
Projektorlichts beträgt.

ACHTUNG
Die Beleuchtung für die 2D-Erkennung (z. B. GPM Locator Tool) ist ebenfalls ein
Umgebungslicht. Die Beleuchtung für die 2D-Erkennung sollte ausgeschaltet
werden, während der 3D-Bereichssensor aktiv ist.

6.14.2 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [3D Area Sensor] wird eine Bildschirmmaske wie unten
dargestellt angezeigt.

- 185 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Wenn Sie das Einrichtungsfenster herunterscrollen, wird eine Bildschirmmaske wie unten dargestellt
angezeigt.

Wenn Sie den Tab [Tree] wählen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Projektor ID (Projektorkennung)
Wählen Sie die Kennung der zu verwendenden Projektoreinheit, wenn mehrere Projektoreinheiten an die
Robotersteuerung angeschlossen sind. Wählen Sie [1], wenn nur eine Projektoreinheit angeschlossen ist.

Check IO (E/A-Check)
Drücken Sie die Taste [Start], um zu prüfen, ob die angeschlossene Projektoreinheit korrekt funktioniert.
Nachdem Sie einen [3D Area Sensor] angelegt haben, sollten Sie diesen Vorgang einmal durchführen, um
den Status [OK] herbeizuführen. Wenn der Status [NG] ist, kann keine 3D-Karte ermittelt werden.

- 186 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Intensity (Intensität)
Wählen Sie die Intensität des Projektorlichts, die bei der Ermittlung einer 3D-Karte verwendet wird. Als
Standardeinstellung wird [11] gewählt. Je höher der Wert ist, desto heller ist das projizierte Muster, aber
desto größer ist auch der „Min. Cycle“ (weiter unten erläutert).

ACHTUNG
Wird F4 PRJ_ON kontinuierlich zur Projektion eines Musters eingesetzt, wird die
Intensität des Projektorlichts automatisch auf ein zulässiges Niveau reduziert.

Exposure
Geben Sie die Kamerabelichtungszeit für Erfassung der 3D-Karte an. Dieser Wert wird im Allgemeinen
für beide Kameraeinheiten verwendet. Der voreingestellte Wert ist 8 ms. Je länger die Belichtungszeit,
desto länger ist der „Min. Cycle“.

HINWEIS
Wird das Umgebungslicht durch ein Fluoreszenzlicht oder eine
Quecksilberlampe erzeugt, ändert sich das Umgebungslicht zyklisch. In diesem
Fall muss die Belichtungszeit auf ein Mehrfaches des Flimmerzeitraums gesetzt
werden. Dies wird zu einer stabilen Erfassung der 3D-Karte führen.

Std. Z Height (Stabile Z-Höhe)


Einstellung der mittleren Höhe des Behälters im Anwendungs-Koordinatensystem.

Remove Noise (Rauschen entfernen)


Aktivieren Sie dieses Kontrollkästchen, wenn Sie 3D-Punkte mit größeren Fehlern entfernen wollen.

HINWEIS
Die Zeit für die Erfassung einer 3D-Karte erhöht sich um ca. 200~300 ms, wenn
dieses Kontrollkästchen aktiviert ist.

User Frame Number (Nummer des Benutzerkoordinatensystems)


Die Nummer des als Anwendungs-Koordinatensystem gewählten Benutzerkoordinatensystems wird
angezeigt.

Min. Cycle (Min. Zykluszeit)


Die minimale Zykluszeit zwischen den aufeinanderfolgenden Erfassungszyklen der 3D-Karten wird
angezeigt. Die minimale Zykluszeit ist abhängig von der gewählten Belichtungszeit und der gewählten
Projektorintensität. Je höher die Projektorintensität oder je länger die Belichtungszeit ist, desto länger
ist die minimale Zykluszeit.

ACHTUNG
Wenn Sie versuchen, die nächste 3D-Karte zu erfassen, bevor die minimale
Zykluszeit nach der letzten Erfassung einer 3D-Karte abgelaufen ist, wartet der
3D-Bereichssensor automatisch, bis die minimale Zykluszeit abgelaufen ist und
beginnt dann mit der Erfassung der 3D-Karte.

- 187 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Test Projector Pattern (Projektormuster testen)


Wählen Sie ein Projektormuster, das projiziert wird, wenn F4 PRJ_ON gedrückt wird.

Display Mode (Anzeigemodus)


Wählen Sie den Anzeigemodus der 3D-Karte.

Gray Scale (Graustufen)


Die erfasste 3D-Karte wird als Bild in Graustufen angezeigt. Die Helligkeit der Bildpixel gibt die
Z-Höhe an. Je größer die Z-Höhe ist, desto heller sind die Pixel. Stellen, an denen keine 3D-Punkte
gemessen werden konnten, werden in Schwarz angezeigt.

Color (Farbe)
Die erfasste 3D-Karte wird als Farbbild angezeigt. Die Farbe der Bildpixel gibt die Z-Höhe an.
3D-Punkte mit größerer Z-Höhe werden in Rot und 3D-Punkte mit kleinerer Z-Höhe in Blau
angezeigt. Stellen, an denen keine 3D-Punkte gemessen werden konnten, werden in Schwarz
angezeigt.

Measurement Range (Messbereich)


Stellt den Messbereich von X, Y und Z im Bezug auf das Anwendungs-Koordinatensystem ein.
3D-Punkte, die nicht in diesem Bereich liegen, werden nicht in der gemessenen 3D-Karte berücksichtigt.
Der Z-Bereich muss eingestellt werden, aber die Bereiche für X und Y sind optional.

3D Map Info (3D-Karteninfo)


Es werden Informationen über die letzte 3D-Karte angezeigt.

Date (Datum)
Datum der letzten 3D-Kartenerfassung.

Time (Dauer)
Dauer der letzten 3D-Kartenerfassung.

Num Points (Anzahl Punkte)


Die Anzahl der bei der letzten 3D-Karte berücksichtigten 3D-Punkte.

Size (Größe)
Rastergröße der 3D-Karte.

XY Interval (XY-Intervall)
Mittleres Intervall zwischen nebeneinanderliegenden 3D-Punkten in XY-Richtung.

Z average (Z-Mittelwert)
Mittlere Z-Höhe der bei der letzten 3D-Karte berücksichtigten 3D-Punkte.

Z Variation (Z-Abweichung)
Abweichung der Z-Höhe der bei der letzten 3D-Karte berücksichtigten 3D-Punkte.

Min. Max.
Mindest- und Höchstwert der X-, Y- und Z-Werte der bei der letzten 3D-Karte berücksichtigten
3D-Punkte.

- 188 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

F3 ACQ 3DMAP
Drücken Sie F3 ACQ_3DMAP, um manuell eine neue 3D-Karte zu erfassen.

F4 PRJ ON
Drücken Sie F4 PRJ_ON um den Projektor manuell einzuschalten. Der Projektor projiziert das Muster
kontinuierlich. Diese Option wird zur Bestätigung des Projektionsbereichs verwendet. Die Intensität des
Projektorlichts wird automatisch auf ein zulässiges Niveau reduziert.

6.14.3 Erfassungsbereich einer Kamera einstellen


Beim Öffnen des Einrichtungsfensters von [Camera View] wird eine Bildschirmmaske wie unten
dargestellt angezeigt.

Camera Calib. (Kamerakalibrierung)


Wählen Sie eine Kamerakalibrierung für diesen Kameraerfassungsbereich.

Test Snap Pattern (Test-Aufnahmemuster)


Wählen Sie ein Muster, dass die Projektoreinheit projiziert, wenn F2 LIVE oder F3 SNAP gedrückt
werden.

F2 LIVE (F2 Live-Bildanzeige)


Drücken Sie F2 LIVE um in die Live-Kamerabildanzeige zu starten.
Das gewählte Test-Aufnahmemuster wird projiziert.

F3 SNAP
Drücken Sie F3 SNAP, um ein neues Bild zu erfassen.
Das gewählte Test-Aufnahmemuster wird projiziert.

- 189 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.14.4 Setup Procedures (Einrichtungsvorgänge)


Der 3D-Bereichssensor wird mit den folgenden Routinen eingerichtet.

Preparation before Setup (Vorbereiten vor dem Einrichten)


1 Bestimmen Sie den Projektorabstand so, dass das Sichtfeld (FOV) des Projektors die obere Öffnung
des Behälters abdeckt und das projizierte Muster auf dem Behälter von oben bis unten fokussiert ist.
2 Bestimmen Sie den Kameraabstand und die Entfernung zwischen den Kameras auf Basis der Länge
der längeren Seite des Behälters und der erforderlichen Z-Genauigkeit.
3 Bereiten Sie am ermittelten Abstand des Projektors, der Kamera sowie der Entfernung zwischen den
Kameras ein stabiles Gestell vor.

Camera Setup (Kamera-Einstellung)


1 Erzeugen Sie Digitalkamera-Einstellungsdaten und öffnen Sie das entsprechende
Einrichtungsfenster.
2 Stellen Sie [Channel] auf den Kanal ein, mit dem eine Kamera des 3D-Bereichssensors verbunden
ist.
3 Stellen Sie [Mode] auf [2/3” SXGA (1280 x 1024)] ein.
4 Drücken Sie F3 SNAP und bestätigen Sie, dass ein aufgenommenes Bild im Einrichtungsfenster
angezeigt wird.
5 Wiederholen Sie den Vorgang für die weiteren Kameras des 3D-Bereichssensors.

ACHTUNG
Stellen Sie für die Kameras des 3D-Bereichssensors sicher, dass [Mode] auf
[2/3” SXGA (1280 x 1024)] gesetzt ist.

Kamera und Bilderkennungsprozess kalibrieren


1 Erzeugen Sie zwei neue Kamerakalibrierungsdatensätze entsprechend für zwei Kameraeinheiten des
3D-Bereichssensors und wählen Sie die Digitalkamera-Einstellungsdaten, die Sie im vorigen Ablauf
erzeugt haben. Die Optionen Grid Pattern Calibration (Rasterkalibrierung) und Robot-Generated
Grid Calibration (Robotergenerierte Gitterkalibrierung) stehen zur Verfügung.
2 Erzeugen Sie einen neuen [3D Area Sensor] und öffnen Sie das entsprechende Einrichtungsfenster.
3 Wählen Sie in der Verzeichnisstruktur [Camera View 1] und wählen Sie einen der erzeugten
Kamerakalibrierungsdatensätze für [Camera Calib.].
4 Wählen Sie in der Verzeichnisstruktur [Camera View 2] und wählen Sie den jeweils anderen
Kamerakalibrierungsdatensatz für [Camera Calib.].
5 Wählen Sie die Projektorkennung [Projector ID], und drücken Sie die Taste [Start] in [Check IO].
6 Bestätigen Sie, dass die Projektoreinheit einige Muster anzeigt.

ACHTUNG
Die Kamera wird in einer späteren Routine kalibriert, nachdem die Einstellungen
für die Anordnung der Kameraeinheiten und des Projektors abgeschlossen sind.

- 190 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Layout Adjustment (Einstellungen für die Anordnung)


Stellen Sie die relative Position zwischen Behälter, Projektoreinheit und den Kameraeinheiten auf der
Grundlage der Position des Behälters oder der Projektoreinheit ein.

1 Öffnen Sie das Einrichtungsfenster von [3D Area Sensor], setzen Sie [Test Projection Pattern] auf
[Frame] und drücken Sie F4 PRJ_ON. Daraufhin wird folgendes Muster projiziert.

2 Stellen Sie die Position des Behälters oder der Projektoreinheit so ein, dass das projizierte Muster
die obere Öffnung des Behälters abdeckt und die Mitte des Musters ungefähr in der Mitte des
Behälters liegt.
3 Wählen Sie in der Verzeichnisstruktur [Camera View 1] und öffnen Sie das entsprechende
Einrichtungsfenster.
4 Wählen Sie in [Test Snap Pattern] die Option [Frame].
5 Drücken Sie F2 LIVE, um Live-Kamerabildanzeige zu starten und stellen Sie Position und Richtung
der Kameraeinheit so ein, dass die Mitte des Musters ungefähr in der Mitte des Bildes erscheint und
das Bild die obere Öffnung des Behälters abdeckt.
6 Stellen Sie die Position der anderen Kameraeinheit so ein, dass der Abstand zwischen den Kameras
gleich der vorher bestimmten Länge ist.
7 Wählen Sie in der Verzeichnisstruktur [Camera View 2] und öffnen Sie das entsprechende
Einrichtungsfenster.
8 Wählen Sie in [Test Snap Pattern] die Option [Frame].
9 Drücken Sie F2 LIVE, um die Live-Kamerabildanzeige zu starten und stellen Sie die Richtung der
Kameraeinheit so ein, dass die Mitte des Musters ungefähr in der Mitte des Bildes erscheint und das
Bild die obere Öffnung des Behälters abdeckt.

HINWEIS
Weitere Informationen zur Anordnung des 3D-Bereichssensor finden Sie im
Abschnitt 6.15.1 „Anleitung für den 3D-Bereichssensor“.

- 191 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Die Kameraeinheiten und die Projektoreinheit einstellen


1 Schichten Sie einige Werkstücke bis zur Hälfte des Behälters auf.
2 Stellen Sie die Blenden der beiden Kameraeinheiten auf F4.0 ein.
3 Öffnen Sie das Einrichtungsfenster von [3D Area Sensor] und setzen Sie [Intensity] auf [11].
4 Stellen Sie [Exposure Time] auf ein Mehrfaches des Flimmerzeitraums des Umgebungslichts ein.
Wenn das Umgebungslicht nicht flimmert, verwenden Sie die Standard-Belichtungszeit. Flimmert
das Umgebungslicht z. B. mit einer Frequenz von 50 Hz, sollte die Belichtungszeit auf ein
Mehrfaches von 10 ms gesetzt werden.
5 Wählen Sie in der Verzeichnisstruktur [Camera View 1] und öffnen Sie das entsprechende
Einrichtungsfenster.
6 Stellen Sie [Test Snap Pattern] auf [Black]. Drücken Sie F2 LIVE, um die Live-Kamerabildanzeige
zu starten und stellen Sie den Fokus der Kameraeinheit ein.
7 Bestätigen Sie während der Live-Kamerabildanzeige, dass sich die Bildhelligkeit nicht ändert. Falls
sie sich doch ändert, ist die gewählte Belichtungszeit nicht für das Umgebungslicht geeignet.
Führen Sie eine Neueinstellung durch.
8 Stellen Sie in [Test Snap Pattern] die Option [Stripe] ein und drücken Si F2 LIVE, um die
Live-Kamerabildanzeige zu starten.
9 Tritt bei hellen Streifen eine Lichthofbildung auf, stellen Sie bei der Projektorintensität
„niedrig“ ein.
10 Wenn helle Streifen nicht hell genug sind, muss die Objektivblende geöffnet werden.
11 Justieren Sie Blende und Projektorintensität auf die wechselnde Position der Werkstücke im
Behälter.
12 Drücken Sie F2 LIVE, um die Live-Kamerabildanzeige zu starten und stellen Sie den Fokus der
Kamera nochmals ein.
13 Stellen Sie die Blende der anderen Kameraeinheit auf den gleichen Wert wie die erste Kameraeinheit
ein.
14 Wählen Sie in der Verzeichnisstruktur [Camera View 2] und öffnen Sie das entsprechende
Einrichtungsfenster.
15 Stellen Sie in [Test Snap Pattern] die Option [Stripe] ein und drücken Si F2 LIVE, um die
Live-Kamerabildanzeige zu starten. Bestätigen Sie, dass die Helligkeit der Streifen in beiden
Kameras ungefähr gleich ist und stellen Sie dann den Fokus der Kameras ein.

HINWEIS
Die oben aufgeführten Einstellungen können vor dem Einstellen des
[3D Area Sensor] bzw. der Kamerakalibrierung durchgeführt werden.

ACHTUNG
1 Um die projizierten Muster unter den gleichen Bedingungen aufzunehmen,
sollten die Blenden der beiden Kameraeinheiten gleich sein.
2 Je weiter die Blende geöffnet ist, desto schmaler ist die Schärfentiefe der
Kamera. Wenn die Kamerablende geöffnet ist, müssen Sie bestätigen, dass die
Kamera über den gesamten Z-Bereich des Behälters fokussiert ist.

- 192 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Camera Calibration (Kamera-Kalibrierung)


1 Stellen Sie das Anwendungs-Koordinatensystem als Benutzer-Koordinatensystem ein. In einer
3D-Karte gemessene 3D-Punkte werden in Relation zum Anwendungs-Koordinatensystem
dargestellt. Die Z-Achse des Anwendungs-Koordinatensystems muss senkrecht zum
Behälterboden und dessen +Z-Richtung senkrecht zum Sensor liegen.
2 Wählen Sie auf der Einrichtungsseite der Kamerakalibrierung das programmierte
Anwendungs-Koordinatensystem als [Application Frame].
3 Kalibrieren Sie zwei Kameras. Einzelheiten finden Sie in Abschnitt 5.1
„RASTERKALIBRIERUNG“ und Abschnitt 5.2 „VOM ROBOTER ERZEUGTE
GITTERKALIBRIERUNG“. Wenn Sie die Option „Rasterkalibrierung“ verwenden, wird die
Kamera im Modus Kalibrierebene 2 kalibriert.

Einrichtungsbedingungen der Erfassung von 3D-Karten


1 Öffnen Sie das Einrichtungsfenster des [3D Area Sensor].
2 Stellen Sie [Std. Z Height] auf die mittlere Höhe des Behälters im Anwendungs-Koordinatensystem
ein.
3 Stellen Sie den Z-Bereich ein, in dem die 3D-Punkte gemessen werden sollen.
4 Stellen Sie den X- und Y-Bereich entsprechend ein.
5 Drücken Sie F3 ACQ_3DMAP und bestätigen Sie, dass eine 3D-Karte ordnungsgemäß erfasst
werden kann.
6 Stellen Sie in [Display Mode] die Option [Color] ein und bestätigen Sie, dass niedrigere 3D-Punkte
in blau angezeigt werden. Aktivieren Sie das Kontrollkästchen [Remove Noise], wenn die erfasste
3D-Karte verrauscht ist.

6.14.5 Zusätzliche Erläuterungen


Im Folgenden finden Sie zusätzliche Erläuterungen zum 3D-Bereichssensor.

Kameraeinheit austauschen
Wenn Sie eine Kameraeinheit austauschen, müssen Sie sie neu kalibrieren. Nach der Kalibrierung der
Kamera ist eine Bestätigung der Genauigkeit der gemessenen 3D-Karte erforderlich.

Projektoreinheit austauschen
Wenn Sie die Projektoreinheit austauschen, kann es eventuell erforderlich sein, die Projektorintensität
einzustellen. Eine Neukalibrierung der Kameraeinheiten ist nicht erforderlich.

Schattenwirkung
Eine 3D-Karte kann auch dann erfasst werden, wenn ein Roboter, ein stabiles Gestell oder eine
Einrichtung einen Schatten auf den Behälter wirft, solange die Raster über die Werkstücke im Behälter
projiziert werden. Wenn Sich jedoch der Roboter und auch der Schatten des Roboters während der
Erfassung einer 3D-Karte bewegt, können keine 3D-Punkte für den Bereich ermittelt werden, in dem der
Roboterschatten umherwanderte. Sollten Sie deshalb den Roboter während der Erfassung einer 3D-Karte
bewegen wollen, achten Sie auf den Schatten des Roboters. Auch das Blockieren desjenigen
Umgebungslichts, das den Schatten erzeugt, ist hier eine wirksame Maßnahme.

- 193 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Projektorintensität
Sie können überprüfen, ob die Projektorintensität korrekt ist, indem Sie eine plane Ebene in das Sichtfeld
des 3D-Bereichssensors bringen und so eine 3D-Karte erfassen.

Ist die Projektorintensität korrekt, kann eine 3D-Karte wie unten dargestellt erfasst werden.
Die Dichte der 3D-Punkte ist allgemein gleichmäßig.
Hinweis: Dort, wo sich die schwarzen Punkte befinden, konnten keine 3D-Punkte gemessen werden.

Ist die Projektorintensität zu niedrig, wirken die 3D-Punkte in einer 3D-Karte punktiert, da die Kameras
keine Muster erkennen können. Das folgende Beispiel zeigt eine 3D-Karte, die mit niedriger
Projektorintensität erfasst wurde. Der umgebende Bereich der 3D-Karte wirkt wie „Pfeffer und Salz“.

Bei der Erfassung der 3D-Karte oben sollten Sie versuchen, die Projektorintensität höher einzustellen.

Ist die Projektorintensität zu hoch und 3D-Punkte einer 3D-Karte sind in Querrichtung fehlerhaft, sind die
aufgenommenen Bilder durch Lichthofbildung getrübt. Das folgende Beispiel zeigt eine 3D-Karte, die
mit hoher Projektorintensität erfasst wurde. Wie man sehen kann, treten in der Mitte der 3D-Karte bei den
3D-Punkten Querverluste auf.

Bei der Erfassung der 3D-Karte oben sollten Sie versuchen, die Projektorintensität niedriger einzustellen.

- 194 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.15 3D AREA SENSOR VISION PROCESS


(Bilderkennungsprozess mit 3D-Bereichssensor)
Dieser Bilderkennungsprozess erkennt die dreidimensionale Position eines Werkstücks mit einem
einzelnen 3D-Bereichssensor und verändert die Roboterposition.

6.15.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [3D Area Sensor Vision Process] wird eine Bildschirmmaske
wie unten dargestellt angezeigt.

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

- 195 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Area Sensor (Bereichssensor)


Wählen Sie den gewünschten 3D-Bereichssensor.

Camera Calibration (Kamera-Kalibrierung)


In einem Dropdown-Feld wird die Kamerakalibrierung des gewählten 3D-Bereichssensors als erste und
zweite Kalibrierung aufgeführt. Wählen Sie die gewünschte Kamera-Kalibrierung für die 2D-Messung.

Kamera
Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Multiple Locator Mode (Modus mit mehreren Locator-Tools)


Wenn Sie mehr als ein Locator-Tool angelegt haben, können Sie auswählen, wie diese Tools ausgeführt
werden sollen.

Find Best (Bestes Tool suchen)


Es werden alle Locator-Tools ausgeführt und das beste Ergebnis wird ausgewählt. Diese Funktion ist
hilfreich, wenn Sie den Typ identifizieren wollen oder die Lokalisierungszuverlässigkeit stärker
gewichten wollen als die Verarbeitungszeit.

Find First (Erstes Tool suchen)


Alle Locator-Tools werden von Anfang an nacheinander ausgeführt, bis die angegebene Anzahl
Werkstücke gefunden wurde. Die folgenden Locator-Tools werden nicht ausgeführt, sobald die
Anzahl der Fundstellen die angegebene Anzahl übersteigt. Zur Information: Die Dublettenprüfung
wird jedes Mal ausgeführt, wenn ein Locator-Tool ausgeführt wird. Die Anzahl der Fundstellen, die
mit der angegebenen Anzahl verglichen wird, enthält keine doppelten Werkstücke.

Number to Find (Anzahl zu findender Werkstücke)


Geben Sie die maximale Anzahl Werkstücke an, die bei jeder Messung gefunden werden soll. Es kann ein
Wert von 1 bis 100 angegeben werden.

Offset Frame (Offset-Koordinatensystem)


Es wird die Nummer des Benutzer-Koordinatensystems angezeigt, das zur Berechnung von Offset-Daten
verwendet werden soll. Die Nummer des Benutzer-Koordinatensystems wird angezeigt, das für die
Kamera-Kalibrierung ausgewählt wurde.

- 196 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob das Bild und die 3D-Karte im Bilderkennungsprotokoll gespeichert werden sollen,
während der Bilderkennungsprozess durchgeführt wird. Wenn Sie jedoch das Bilderkennungsprotokoll in
der Systemvariable deaktiviert haben, werden keine protokollierten Bilder gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder und 3D-Karten im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder und 3D-Karte nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder und 3D-Karten speichern.

Parameter für die Sortierung einstellen


Einstellen der Parameter für die Sortierung, wenn mehr als ein Werkstück gefunden wurde.
Einzelheiten finden Sie im Abschnitt 3.7.12 „Sorting“ (Sortierung)

Delete Duplicate if (Dubletten löschen, wenn)


Position und Winkel eines jeden gefundenen Ergebnisses auf dem Kamerabild werden daraufhin
überprüft, ob eine Übereinstimmung mit einem anderen Ergebnis vorliegt. Werden mehrere Ergebnisse
innerhalb der angegebenen Pixel und Winkel gefunden, wird interpretiert, dass es sich um das gleiche
Werkstück handelt und nur das zuverlässigste Suchergebnis wird ausgegeben.

Dup. Check Key (Schlüssel für Dublettenprüfung)


Wählen Sie den Schlüssel für die Dublettenprüfung. Werden mehrere Ergebnisse innerhalb der
angegebenen Pixel und Winkel gefunden, wird von allen mit dem Schlüsselwert gefundenen Ergebnissen
nur das höchste oder niedrigste ausgegeben. Folgende Optionen können Sie als Schlüssel für die
Dublettenprüfung angeben:
• Score (Wertigkeit)
• Measurement 1-10 (Messwert 1-10)

Dup. Check Order (Reihenfolge für Dublettenprüfung)


Geben Sie die Reihenfolge der Dublettenprüfung an. Wenn Sie die Option [Score] in [Dup. Check Key]
wählen, wird automatisch [Remove Low Result] vorgegeben.

Remove Low Result (Niedriges Ergebnis entfernen)


Von den mit dem gewählten Schlüsselwert gefundenen Ergebnissen wird das höchste innerhalb der
angegebenen Pixel und Winkel ausgegeben.

Remove High Result (Hohes Ergebnis entfernen)


Von den mit dem gewählten Schlüsselwert gefundenen Ergebnissen wird das niedrigste innerhalb der
angegebenen Pixel und Winkel ausgegeben.

- 197 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Image Display Mode (Bildanzeigemodus)


Wählt den Bildanzeigemodus für das Einrichtungsfenster.

2D Image (2D-Bild)
Ein zweidimensionales Kamerabild und ein Behälter werden angezeigt.

3D Map (3D-Karte)
Eine dreidimensionale Karte wird angezeigt.

Ref. Data To Use (Anzuwendende Ref.-Daten)


Wählen Sie eine der folgenden Optionen, um festzulegen, wie die zu verwendenden Referenzdaten
bestimmt werden sollen.

This Index (Dieser Index)


Zum Berechnen der Offset-Daten werden die gleichen Referenzdaten verwendet.

Model ID (Modell-ID)
In Abhängigkeit von der Modell-ID des gefundenen Werkstücks werden unterschiedliche
Referenzdaten verwendet.

ID
Wird [This Index] in [Ref. Data To Use] gewählt, muss die zu verwendende Referenzdaten-ID angegeben
werden.

Adding reference data (Referenzdaten hinzufügen)


Referenzdaten können wie folgt hinzugefügt werden:

1 Tippen Sie auf die Taste .


2 Geben Sie bei [Model ID] die Modell-ID ein, für die die Referenzdaten verwendet werden sollen.

Deleting reference data (Referenzdaten löschen)


Wenn mehr als ein Datensatz vorhanden ist, können Referenzdaten wie folgt gelöscht werden:

1 Wählen Sie aus der Dropdown-Liste des Index die Referenzdaten aus, die Sie löschen möchten.
2 Tippen Sie auf die Taste .

Ref. Pos. Status (Status der Sollposition)


Ist die Sollposition gesetzt, wird [Set] in Grün angezeigt; ist sie nicht gesetzt [Not Set], in Rot.

Reference Position X, Y, Z, W, P, R (Sollposition X, Y, Z, W, P, R)


Die Koordinatenwerte der eingestellten Sollposition werden angezeigt.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob die berechneten Offset-Werte innerhalb
des vorgegebenen Bereichs liegen. Standardmäßig ist [Not Selected] eingestellt und in diesem Falle
erfolgt keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der
Offset-Grenzwertprüfung finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

F6 2-3D Snap
Ein Bild wird aufgenommen und eine 3D-Karte erfasst.

- 198 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.15.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X, Y, Z
Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Werkstücks (Einheit: mm).

W, P, R
Rotationswinkel des gefundenen Werkstücks um die X-, Y- und Z-Achse (Einheit: Grad).

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Sort (Sortieren)
Der Wert des ausgewählten Sortierschlüssels wird angezeigt.

Dup. Chk, (Dublettenprüfung)


Der Wert des ausgewählten Dublettenprüfungschlüssels wird angezeigt.

- 199 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.15.3 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster für den Bilderkennungsprozess.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich der
Kamera.
3 Drücken Sie F6 2-3D SNAP und dann F4 FIND, um das Werkstück zu erfassen.
4 Tippen Sie auf die Taste [Set].
5 Überprüfen Sie, dass [Ref. Pos. Status] auf [Set] eingestellt ist und dass ein Wert für jedes
Sollpositionselement angezeigt wird.

Nun wird die Position, an der das Werkstück sich befindet, während die Sollposition gesetzt wird,
eingelernt. Während des Einlernens der Position darf das Werkstück nicht bewegt werden.

6.15.4 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

- 200 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.16 FLOATING FRAME VISION PROCESS


(Bilderkennungsprozess mit schwebendem
Koordinatensystem)
Der Bilderkennungsprozess mit schwebendem Koordinatensystem erkennt die zweidimensionale Position
des Werkstücks und verschiebt die Roboterposition. Es ist insbesondere möglich, das Werkstück in
verschiedenen Roboterpositionen mit einem Kamerakalibrierungsdatensatz zu messen, wobei die am
Roboterwerkzeug montierte Kamera verwendet wird.

Kamera
Camera

Z Entfernung
Distance D
D
XY

Benutzerkoordinatensystem
User frame A A

Entfernung
Distance
D
D

Kamera
Camera

Werkstück
Workpiec
e

- 201 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.16.1 Einen Bilderkennungsprozess einstellen


Beim Öffnen des Einrichtungsfensters des [Floating Frame Vision Process] wird eine Bildschirmmaske
wie unten dargestellt angezeigt.

Wenn Sie auf den Tab [Tree] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie die gewünschte Kamera-Kalibrierung.

Camera Setup (Kamera-Einstellung)


Der Name der Kamera wird angezeigt, die zur Kalibrierung ausgewählt wurde.

Setting the Exposure Time (Belichtungszeit einstellen)


Legen Sie die Belichtungszeit der Kamera fest, mit der der Bilderkennungsprozess durchgeführt werden
soll. Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

- 202 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Multiple Locator Find Mode (Modus zum Auffinden mehrerer Locator-Tools)


Wenn Sie mehr als ein Locator-Tool angelegt haben, können Sie auswählen, wie diese Tools ausgeführt
werden sollen.

Find Best (Bestes Tool suchen)


Es werden alle Locator-Tools ausgeführt und das beste Ergebnis wird ausgewählt. Diese Funktion ist
hilfreich, wenn Sie den Typ identifizieren wollen oder die Lokalisierungszuverlässigkeit stärker
gewichten wollen als die Verarbeitungszeit.

Find First (Erstes Tool suchen)


Alle Locator-Tools werden von Anfang an nacheinander ausgeführt, bis die angegebene Anzahl
Werkstücke gefunden wurde. Die folgenden Locator-Tools werden nicht ausgeführt, sobald die
Anzahl der Fundstellen die angegebene Anzahl übersteigt. Zur Information: Die Dublettenprüfung
wird jedes Mal ausgeführt, wenn ein Locator-Tool ausgeführt wird. Die Anzahl der Fundstellen, die
mit der angegebenen Anzahl verglichen wird, enthält keine doppelten Werkstücke.

Number to Find (Anzahl zu findender Werkstücke)


Geben Sie die maximale Anzahl Werkstücke an, die bei jeder Messung gefunden werden soll.
Es kann ein Wert von 1 bis 150 angegeben werden.

Image Logging Mode (Bildprotokollierungsmodus)


Geben Sie hier an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während der
Bilderkennungsprozess durchgeführt wird. Wenn Sie jedoch das Bilderkennungsprotokoll in der
Systemvariable deaktiviert haben, werden keine protokollierten Bilder gespeichert.

Do Not Log (Keine Protokollierung)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

- 203 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Ref. Data Index To Use (Anzuwendender Referenzdatenindex)


Wählen Sie eine der folgenden Optionen, um festzulegen, wie die zu verwendenden Referenzdaten
bestimmt werden sollen.

This Index (Dieser Index)


Zum Berechnen der Offset-Daten werden die gleichen Referenzdaten verwendet.

Model ID (Modell-ID)
In Abhängigkeit von der Modell-ID des gefundenen Werkstücks werden unterschiedliche
Referenzdaten verwendet. Wählen Sie diese Option, wenn zwei Arten von Werkstücken mit
unterschiedlichen Höhen vorhanden sind.

ID
Wird [This Index] bei [Ref.Data Index To Use] gewählt, muss die zu verwendende Referenzdaten-ID
angegeben werden.

Parameter für die Sortierung einstellen


Einstellen der Parameter für die Sortierung, wenn mehr als ein Werkstück gefunden wurde. Einzelheiten
finden Sie im Abschnitt 3.7.12 „Sorting“ (Sortierung)

Delete Duplicates If < (Dubletten löschen, wenn <)


Position und Winkel eines jeden gefundenen Ergebnisses werden daraufhin überprüft, ob eine
Übereinstimmung mit einem anderen Ergebnis vorliegt. Werden mehrere Ergebnisse innerhalb der
angegebenen Pixel und Winkel gefunden, wird interpretiert, dass es sich um das gleiche Werkstück
handelt und nur das Suchergebnis mit der höchsten Wertigkeit wird ausgegeben.

Referenzdaten
Die Referenzdaten werden für die Berechnung der Offset-Daten aus dem Suchergebnis verwendet. Die
Referenzdaten bestehen im Wesentlichen aus zwei Arten von Daten, die im Folgenden beschrieben
werden.

Part Z Height (Teil-Höhe Z)


Geben Sie die Höhe der programmierten Merkmale des Werkstücks über oder unter dem
Anwendungs-Benutzerkoordinatensystem ein.

Reference Position (Sollposition)


Beim Einlernen der Roboterposition ermittelte Werkstückposition. Die Offset-Daten sind die
Differenz zwischen der mit dem Bilderkennungsprozess ermittelten Werkstück-Istposition und der
Sollposition.

Ein Bilderkennungsprozess kann mehr als einen Referenzdatensatz haben. Unter normalen Umständen
wird nicht mehr als ein Referenzdatensatz verwendet. Gibt es jedoch zwei Arten von Werkstücken mit
unterschiedlicher Länge, verwendet der Bilderkennungsprozess zwei Referenzdatensätze, da jeweils eine
unterschiedliche Part Z Height (Teil-Höhe Z) für die Werkstücke eingestellt werden muss.

- 204 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Adding reference data (Referenzdaten hinzufügen)


Referenzdaten können wie folgt hinzugefügt oder gelöscht werden:

1 Tippen Sie auf die Taste .


2 Geben Sie bei [Model ID] die Modell-ID ein, für die die Referenzdaten verwendet werden sollen.

Deleting reference data (Referenzdaten löschen)


Wenn mehr als ein Datensatz vorhanden ist, können Referenzdaten wie folgt gelöscht werden:

1 Wählen Sie aus der Dropdown-Liste des Index die Referenzdaten aus, die Sie löschen möchten.
2 Tippen Sie auf die Taste .

Part Z Height (Teil-Höhe Z)


Geben Sie die Höhe der programmierten Merkmale des Werkstücks über oder unter dem
Anwendungs-Benutzerkoordinatensystem ein.
Dies ist die Höhe des Teils in der Sollposition.
Das Teil in Sollposition muss sich auf der X/Y-Ebene des Benutzer-Koordinatensystems befinden.

Reference Position Status (Status Sollposition)


Ist die Sollposition gesetzt, wird [Set] in Grün angezeigt; ist sie nicht gesetzt [Not Set], in Rot.

Reference X, Y, Z, W, P, R (Sollposition X, Y, Z, W, P, R)
Die Koordinaten der eingestellten Sollposition werden angezeigt.

Offset Limit (Offset-Grenzwert)


Gibt die Bedingung an, die bei der Prüfung verwendet wird, ob der berechnete Offset-Wert innerhalb des
vorgegebenen Bereichs liegt. Standardmäßig ist [None selected] eingestellt und in diesem Falle erfolgt
keine Prüfung des Offset-Grenzwerts. Informationen über die Bedingungen der Offset-Grenzwertprüfung
finden Sie in Abschnitt 8.2 „OFFSET LIMIT (Offset-Grenzwert)“.

- 205 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.16.2 Einen Test durchführen


Durch Betätigen der Taste F4 FIND wird ein Test durchgeführt und überprüft, ob das Tool sich
erwartungsgemäß verhält.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Bilderkennungsprozess in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X, Y
Koordinaten des Modell-Ursprungspunkts des gefundenen Werkstücks (Einheit: mm).

Z, W, P
Werte, zu denen der Verschiebeweg von der Roboterposition bei der Kalibrierung bis zum
Verschiebeweg bei der Messung des Werkstücks addiert wird (Einheit: mm, Grad).

R
Rotationswinkel des gefundenen Werkstücks um die Z-Achse (Einheit: Grad).

Model ID (Modell-ID)
Modell-ID des gefundenen Werkstücks.

Score (Wertigkeit)
Wertigkeit des gefundenen Werkstücks.

Contrast (Kontrast)
Kontrast des gefundenen Werkstücks.

Fit Err. (Übereinstimmungsfehler)


Elastizität des gefundenen Werkstücks (Einheit: Pixel).
- 206 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.16.3 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster des Bilderkennungsprozess.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich der
Kamera.
3 Geben Sie die Höhe des Referenzteils über oder unter dem Anwendungs-
Benutzerkoordinatensystem im Feld „Part Z Height“ ein.
4 Drücken Sie F3 SNAP und dann F4 FIND, um das Werkstück zu erfassen.
5 Tippen Sie auf die Taste [Set].
6 Überprüfen Sie, dass [Ref. Pos. Status] auf [Set] eingestellt ist und dass ein Wert für jedes
Sollpositionselement angezeigt wird.

Nun wird die Position, an der das Werkstück sich befindet, während die Sollposition gesetzt wird,
eingelernt. Während des Einlernens der Position darf das Werkstück nicht bewegt werden.

6.16.4 Übersteuerbare Parameter


Dieser Bilderkennungsprozess hat die folgenden Parameter, die mit Vision Override übersteuert werden
können. Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Exposure Time (Belichtungszeit)


Geben Sie einen Wert in Millisekunden an. Wenn [Exposure Mode] des Bilderkennungsprozesses auf
[Auto] gesetzt ist, wird [Exposure Mode] vorübergehend auf [Fixed] geändert, um die bestimmte
Belichtungszeit beim Übersteuern der Belichtungszeit des Bilderkennungsprozesses zu verwenden.

Number of Exposure (Anzahl Belichtungen)


Geben Sie eine Zahl zwischen 1 und 6 an.

- 207 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.17 3-D MULTI-VIEW VISION PROCESS


(Bilderkennungsprozess der dreidimensionalen
Mehrfachansicht)
In diesem Bilderkennungsprozess wird die dreidimensionale Position des Werkstücks mittels Erkennung
von mindestens drei 2D-Merkmalen an verschiedenen Teilen des Werkstücks ermittelt und die
Roboterposition verschoben. Dies ist hilfreich, wenn das Werkstück groß ist und mehrere
2D-Zieleigenschaften besitzt, die sich bezüglich ihrer relativen Positionen nicht verändern.

Unterhalb des Bilderkennungsprozess befindet sich mindestens ein „Camera View“-Tool. Jede
Kameraansicht kann ein oder mehrere Tools zur Ziellokalisierung enthalten. Standardmäßig sind vier
Kameraerfassungsbereiche vorhanden, aber diese Anzahl kann auf mindestens einen reduziert werden.
Die Mindestanzahl der erforderlichen Ziele ist 3. Die maximale Gesamtanzahl von zulässigen Zielen im
allen Kameraerfassungsbereichen zusammen ist 8.

- 208 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.17.1 Einen Bilderkennungsprozess einstellen


Wenn Sie in der Verzeichnisstruktur [3-D Multi-View Vision Process] auswählen, wird ein Bildschirm
wie unten dargestellt angezeigt.

Offset Mode (Offset-Modus)


Wählen Sie den Modus für die Verschiebungen der Roboterposition aus.
Derzeit ist nur ein Offset-Modus verfügbar.

Fixed Frame Offset (Offset des feststehenden Koordinatensystems)


Die Daten für den Offset des feststehenden Koordinatensystems werden berechnet.

- 209 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Max. 3-D Fit Error (Max. 3D-Übereinstimmungsfehler)


Wenn der berechnete 3D-Übereinstimmungsfehler den hier anzugebenden Wert übersteigt, kommt es zu
Folgendem:
• Ist die Anzahl der gefundenen Ziele gleich der mindestens erforderlichen Zielanzahl, gibt der
Bilderkennungsprozess einen Alarm aus.
• Ist die Anzahl der gefundenen Ziele größer als die mindestens erforderliche Zielanzahl, verwirft der
Bilderkennungsprozess eines der Ziele und berechnet eine Lösung mit weniger Zielen.

Der 3D-Übereinstimmungsfehler ermittelt, wie stark die Abstände zwischen den gefundenen Zielstellen
von denen der Standard-Zielstellen abweichen.

Fehlerpunkt 1
Referenzdaten
Ermittelte Daten

Fehlerpunkt 2

Fehlerpunkt 3

Minimum Required Targets (Erforderliche Mindestanzahl Ziele)


Dies ist die Mindestanzahl Ziele, die gefunden werden muss, damit ein Teil gefunden werden kann.
Um das Verwerfen von Zielen zu aktivieren, muss hier ein geringerer Wert als die Gesamtanzahl Ziele
eingestellt werden. Derzeit kann ein Wert von 3 oder 4 gesetzt werden.

Image Logging Mode (Bildprotokollierungsmodus)


Diese Einstellung gibt an, ob die Bilder im Bilderkennungsprotokoll gespeichert werden sollen, während
der Bilderkennungsprozess durchgeführt wird.

Don’t Log (Nicht protokollieren)


Keine Bilder im Bilderfassungsprotokoll speichern.

Log Failed Images (Missglückte Bilder protokollieren)


Bilder nur speichern, wenn der Bilderkennungsvorgang fehlschlägt.

Log All Images (Alle Bilder protokollieren)


Alle Bilder speichern.

ACHTUNG
Der nächste Bilderkennungsprozess kann nicht beginnen, bevor der
Bildprotokollierungsvorgang für den vorigen Bilderkennungsprozess
abgeschlossen ist. Die zum Speichern von Bilderfassungsdaten erforderliche
Zeit ist abhängig von der Art des verwendeten Speichers. Verwenden Sie diese
Funktion erst, nachdem Sie überprüft haben, ob die Verzögerung beim
Speichern von Bilddaten mit Ihrer Anwendung kompatibel ist.

- 210 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Target Standard Locations (Standard-Zielstellen)

Last Modified (Zuletzt geändert)


Zeigt das letzte Änderungsdatum einer der Standard-Zielstellen mit der Uhrzeit an.

Tweak Button (Optimierungstaste)


Versetzt jede Standard-Zielstelle zum nächstgelegensten Punkt auf der 3D-Linie im Raum zwischen
der Kamera und der gefundenen Position dieses Ziels. Wird dann „Snap and Find“ durchgeführt,
sollte der Übereinstimmungsfehler stark reduziert sein. Die eingestellten Standard-Zielstellen
können angesehen und in den Einrichtungsfenstern für den Kameraerfassungsbereich manuell
verändert werden.

Reference Position (Sollposition)


In diesem Feld werden die Komponenten X, Y, Z, W, P, R der Sollposition angezeigt.
Wenn als Offset-Modus der Offset des feststehenden Koordinatensystems eingestellt ist, so steht der an
das Bilderkennungsregister ausgegebene Offset in Relation zur Sollposition.
Taste „Set“ (Festlegen)
Setzt die Sollposition auf die aktuell gefundene Position.

Taste „Reset“ (Zurücksetzen)


Setzt die Komponenten der Sollposition auf nicht initialisiert zurück.

Limit Check Select (Auswahl der Grenzwertprüfung)


In dieser Liste wird das Tool für die Grenzwertprüfung gewählt, um den Bereich für die Offset-Werte, die
an das Positionsregister gesendet werden, zu begrenzen.

Zoom To Found Targets (Auf gefundene Ziele zoomen)


Wenn dieses Kontrollkästchen aktiviert ist, werden die Kamerabilder soweit wie möglich gezoomt, wobei
die gefundenen Ziele in den Bildern sichtbar bleiben. Ist diese Funktion deaktiviert, wird in den
Kamerabildern das gesamte Sichtfeld dargestellt.

- 211 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.17.1.1 3-D Plot (3D-Aufnahme)


Die Ergebnisse des Bilderkennungsprozess werden auf der Seite „iPendant 4D GRAPHICS“ im
MENU 0 5 unter „4D iRVision“ im Menü „TYPE“ angezeigt.
Die Anzeige der Ergebnisse sieht ähnlich aus wie im folgenden Bild dargestellt:

Folgende Optionen werden angezeigt:

Reference Frame (Referenz-Koordinatensystem)


Das Kalibrierungs-Referenz-Koordinatensystem wird als Triade mit den Achsen (X, Y, Z) jeweils in
Farben (rot, grün, blau) und gekennzeichnet mit der Nummer des Koordinatensystems dargestellt.
Dieses Referenz-Koordinatensystem muss für die von den einzelnen Kameraerfassungsbereichen
verwendeten Tools zur Kalibrierung gleich sein.

Cameras (Kameras)
• Das 3D-Sichtfeld für jede feststehende oder am Roboter montierte Kamera wird als eine blau
konturierte Pyramide mit blass weißen, transparenten Seiten dargestellt. Wenn die Kamera am
Roboter montiert ist, wird sie nur einmal an der aktuellen Roboterposition dargestellt. Sind die
Kameras feststehend, wird jede feststehende Kamera dargestellt.
• Das 2D-Sichtfeld für jede feststehende oder am Roboter montierte Kamera wird in dem Abstand, in
dem die Kamera kalibriert wurde, als eine blau konturierte Pyramide mit blass weißen, transparenten
Seiten dargestellt.
• Die Kalibrierungsebenen für das Tool für die Kamerakalibrierung werden als blau konturierte
Rechtecke mit blass weißen, transparenten Seiten dargestellt.
• Die Kamera wird als 3D-CAD-Modell dargestellt und ist mit dem Namen des Kalibrierungstools
gekennzeichnet.

Found Targets (Gefundene Ziele)


Die berechnete 3D-Zielstelle eines jeden Ziels wird als grüner Punkt dargestellt, der mit dem Namen des
Lokalisierungswerkzeugs gekennzeichnet ist. Die gefundene 3D-Zielstelle eines jeden Ziels wird als
grüne Linie von der Kamera durch und etwas weiter als die berechnete 3D-Zielstelle angezeigt.
- 212 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

Found Part (Gefundenes Teil)


Das gefundene Teil wird als grünes Rechteck oder Dreieck dargestellt. Die Ecken befinden sich an den
Standard-Zielstellen und sind versetzt um die berechnete dreidimensionale Position des Teils. Sie sollten
sehr nahe an den gefundenen 3D-Linien der Ziele liegen. Der 3D-Übereinstimmungsfehler für jedes Ziel
ist der Abstand von der gefundenen 3D-Linie des Ziels zur entsprechenden Ecke des Polygons. Ursache
dieses Fehlers kann geometrische Verzerrung des Teils im Vergleich zum Referenzteil, ungenaue
Einstellung der Standard-Zielstellen oder ungenaue Kalibrierung sein.

Reference Part (Referenzteil)


Das Teil an der Sollposition wird als rotes Rechteck oder Dreieck dargestellt.
Die Ecken bilden die Standard-Zielstellen.

6.17.2 Erfassungsbereich einer Kamera einstellen


Wenn Sie in der Verzeichnisstruktur ein Tool in „Camera View“ auswählen, wird ein Fenster wie unten
dargestellt angezeigt.

- 213 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Camera Calibration (Kamera-Kalibrierung)


Wählen Sie das gewünschte Tool für die Kamera-Kalibrierung.

Camera Setup (Kamera-Einstellung)


Der Name des Kamera-Einstellungstools, das mit dem gewählten Tool für die Kamera-Kalibrierung
verbundenen ist, wird angezeigt.

Einstellungen für die automatische Belichtung und die Mehrfachbelichtung


vornehmen
Einzelheiten über die Einstellung der einzelnen Punkte finden Sie im Abschnitt 3.7.11
„Belichtungsmodus einstellen“.

Target Data (Zieldaten)


Für jedes in den Kameraerfassungsbereich eingelerntes Ziel ist ein Zieldatensatz vorhanden.

Must Find This Target (Dieses Ziel muss gefunden werden)


Aktivieren Sie dieses Kontrollkästchen, wenn diese Ziel gefunden werden muss, um den Offset des
Teils zu finden. Aktivieren Sie dieses Kontrollkästchen nicht, wenn der Offset des Teils immer noch
genau gefunden werden kann, wenn dieses Ziel fehlt oder verworfen wird. Es ist zu beachten, dass
der Wert der erforderlichen Mindestanzahl der Ziele im Bilderkennungsprozess auf 3 gesetzte
werden muss, wenn der Offset des Teils mit weniger als 4 Zielen ermittelt werden soll.

Target Standard Location (Standard-Zielstelle)


Die Standard-Zielstellen sind die X-, Y- und Z-Koordinaten des Ziels. Es kann jedes
Referenz-Koordinatensystem zur Messung der Koordinaten verwendet werden, so lange das gleiche
Koordinatensystem für alle Ziele verwendet wird. Üblicherweise werden diese Koordinaten
entweder von Maßzeichnungen oder mittels eines Auswahlwerkzeugs am Roboter mit einem präzise
eingelernten Werkzeug-Koordinatensystem ermittelt. Die Genauigkeit der Koordinaten der
Standard-Zielstellen ist entscheidend für die Genauigkeit der 3D-Zielstelle des Teils. Wird eine der
Koordinaten der Standard-Zielstellen verändert, wird die Sollposition des Bilderkennungsprozess
zurückgesetzt und der Status des Bilderkennungsprozess wird auf 'nicht programmiert' gesetzt.

- 214 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.17.3 Einen Test durchführen


Führen Sie einen Test durch, um zu prüfen, ob das Tool sich wie erwartet verhält. Es gibt zwei Arten,
einen Test durchzuführen. Die eine Art ist das Testen eines gesamten Bilderkennungsprozess und die
andere ist das Testen eine jeden einzelnen Kameraerfassungsbereichs. Sowohl in den
Einrichtungsbildschirmen des Kameraerfassungsbereich und des Bilderkennungsprozess sind
Funktionstasten für Bilderfassung und Auffinden („Snap and Find“) vorhanden.

F3 Snap
Bei dem Tool für den Kameraerfassungsbereich wird mit dieser Taste ein Bild mit der Kamera
aufgenommen. Beim Tool für den Bilderkennungsprozess werden mit dieser Taste Bilder von allen
Kameraerfassungsbereichen aufgenommen. Wenn die Kamera am Roboter montiert ist, entsteht so das
gleiche Bild bei allen Kameraerfassungsbereichen. Sind mehrere am Roboter montierte
Kameraerfassungsbereiche vorhanden, wird das Bild anstelle dessen von den einzelnen
Einrichtungsbildschirmen des Kameraerfassungsbereichs aus erfasst.

F4 Find
Bei einem Tool für den Kameraerfassungsbereich werden mit dieser Taste die Ziele im aktuellen Bild
gefunden. Beim Tool für den Bilderkennungsprozess werden mit dieser Taste die Offsets von den
gefundenen Zielen in allen Kameraerfassungsbereichen berechnet.

F8 Cont S+F
Dieses Tool führt kontinuierlich Vorgänge des Aufnehmens und Findens durch. Das Label ändert die
Farbe auf Rot und den Text zu STOP. Kontinuierliches Aufnehmen und Finden wird weitergeführt, bis
die STOP-Taste gedrückt wird.

- 215 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.17.3.1 Camera View Found Results (Fundstellen Kameraansicht)


Die Tabelle der Fundstellen der Kameraansicht sieht ähnlich wie unten dargestellt aus:

Found (Gefunden)
Die Anzahl der gefundenen Zielstellen.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungswerkzeugs wird in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Für jedes gefundene Ziel werden die folgenden Werte angezeigt:

Location Tool (Lokalisierungswerkzeug)


Name des Lokalisierungswerkzeugs, das dieses Zielergebnis gefunden hat.

Row, Column (Zeile, Spalte)


2D-Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Ziels (Einheit: Pixel).

X,Y,Z
3D-Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Ziels, die aus allen Zielstellen in
allen Kameraerfassungsbereichen berechnet wurden (Einheit: mm).

Score (Wertigkeit)
Wertigkeit des gefundenen Ziels.

- 216 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.17.3.2 Vision Process Found Results


(Gefundenen Ergebnisse aus einem Bilderkennungsprozess)
Der Tab der Fundstellen des Bilderkennungsprozesses sieht ähnlich wie unten dargestellt aus:

Tgts Found (Gefundene Ziele)


Die Anzahl der gefundenen Zielstellen.

All Tgt Fit Err. (Übereinstimmungsfehler aller Ziele)


Der ursprüngliche 3D-Übereinstimmungsfehler aller gefundenen Ziele.

Fit Error (Übereinstimmungsfehler)


Der 3D-Übereinstimmungsfehler mit Ausnahme eventuell vorhandener verworfener Ziele.

Disc Tgt (Verworfene Ziele)


Das verworfene Ziel, soweit vorhanden.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

Time Found (Fundzeit)


Zeit, wann das Teil gefunden wurde.

Tabelle der Suchergebnisse


Komponenten X, Y, Z, W, P, R der Position des gefundenen Teils werden angezeigt.

- 217 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.17.3.3 Vision Process Target Results


(Zielergebnisse aus einem Bilderkennungsprozess)
Der Tab der Zielergebnisse des Bilderkennungsprozesses sieht ähnlich wie unten dargestellt aus:

Tabelle der Suchergebnisse


Für jedes gefundene Ziel werden die folgenden Werte angezeigt:

C.V. (Kameraerfassungsbereich)
Der Kameraerfassungsbereich, mit dem dieses Zielergebnis gefunden wurde.

Location Tool (Lokalisierungswerkzeug)


Name des Lokalisierungswerkzeugs, das dieses Zielergebnis gefunden hat.

Status
Der Status diese Ziels ist entweder Found (gefunden), Not Found (nicht gefunden), oder Discarded
(verworfen).

Score (Wertigkeit)
Wertigkeit des gefundenen Ziels.

3-D Fit Err. (3D-Übereinstimmungsfehler)


3D-Übereinstimmungsfehler dieses einzelnen Ziels. Dies ist der Abstand zwischen der berechneten
(X, Y, Z) Zielstelle dieses Ziels und der 3D-Linie zwischen der Kamera und der Fundstelle dieses
Ziels.

Row Shift, Col. Shift (Zeilen-/Spaltenverschiebung)


Der Offset in Pixel dieses Ziels bezogen auf seine Standard-Zielstelle.

X Shift, Y Shift, Z Shift (X-Verschiebung, Y-Verschiebung, Z-Verschiebung)


Der (X-, Y-, Z-) Offset in Pixel dieses einzelnen Ziels bezogen auf seine Standard-Zielstelle.

- 218 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE

6.17.3.4 Vision Process Target Discard Analysis


(Analyse verworfener Ziele des Bilderkennungsprozess)
Wird mehr als die Mindestanzahl an Zielen gefunden und der Übereinstimmungsfehler überschreitet den
Maximalwert, versucht die Software zu identifizieren, welches Ziel fehlerhaft ist. Das fehlerhafte Ziel
wird verworfen und der Offset wird mit den verbleibenden Zielen berechnet. Es ist schwierig,
festzustellen, welches Ziel fehlerhaft ist, wenn nur 4 Ziele gefunden werden. Die Software bietet
Funktionen für eine Ermittlung der Wertigkeit der potentiellen Ziele, um die Identifizierung eines
fehlerhaften Ziels zu unterstützen. Die Wertigkeit für die einzelnen Ziele wird in der Tabelle dargestellt.
Die Wertigkeitsfunktionen können einzeln oder in beliebiger Kombination mit den Kontrollkästchen in
der linken Tabellenspalte aktiviert werden. Werden mehr als 5 Ziele gefunden, ist eine Erkennung des
fehlerhaften Ziels einfach. Die erste Wertigkeitsfunktion in der Liste wählt das Ziel aus, mit dessen
Verwerfen der Übereinstimmungsfehler am Meisten reduziert wird. Werden jedoch nur 4 Ziele gefunden,
ist der Übereinstimmungsfehler normalerweise null und diese Wertigkeitsfunktion ist nicht hilfreich.
Der Tab der Analyse der verworfenen Ziele des Bilderkennungsprozess sieht ähnlich wie unten
dargestellt aus:

3-D Fit Error without This Target (3D-Übereinstimmungsfehler ohne dieses Ziel)
Der errechnete Übereinstimmungsfehler bei Verwerfen dieses Ziels.
Normalerweise ist dieser Wert sehr klein.
Das Ziel wird verworfen, das den Übereinstimmungsfehler dadurch am Meisten reduziert.

Target Locator Score (Wertigkeit des lokalisierten Ziels)


Die durch das Lokalisierungswerkzeug berechnete Wertigkeit für dieses Ziel.
Das Ziel mit der niedrigsten Wertigkeit wird verworfen.

Target Offset in Pixels (Ziel-Offset in Pixel)


Ein Vielfaches des Offsets in Pixel für dieses bestimmte Ziel bezogen auf die Standard-Zielstelle.
Das Ziel mit der größten Verschiebung wird verworfen.

XYZ Shift without This Target (XYZ-Verschiebung ohne dieses Ziel)


Der durch Verwerfen dieses Ziels berechnete Wert. Es ist ein Vielfaches der dreidimensionalen
Verschiebung bezogen auf die Standard-Zielstelle.
Das Ziel wird verworfen, wodurch die geringste Verschiebung erzielt wird.

3-D Rotation without This Target (3D-Rotation ohne dieses Ziel)


Der durch Verwerfen dieses Ziels berechnete Wert.
Dies ist der gesamte 3D-Winkel bezogen auf die Standard-Zielstelle.
Das Ziel wird verworfen, wodurch der kleinste Winkel erzielt wird.

- 219 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

Z Shift From Original W/O Target (Z-Verschiebung von urspr. Lösung ohne Ziel)
Der durch Verwerfen dieses Ziels berechnete Wert. Dies ist ein Vielfaches der dreidimensionalen
Verschiebung bezogen auf diejenige der ursprünglichen Lösung.
Das Ziel wird verworfen, wodurch die geringste Verschiebung erzielt wird.

3-D Rotation from Original W/O Target (3D-Rotation von urspr. Lösung ohne Ziel)
Der Wert wird mit der Lösung mit 3 Kameras berechnet, wobei dieses Ziel verworfen wird.
Es ist der gesamte dreidimensionalen Winkel im Verhältnis zu dem durch die ursprüngliche Lösung
berechneten Winkel.
Das Ziel wird verworfen, wodurch der kleinste Winkel erzielt wird.

6.17.4 Sollposition einstellen


Stellen Sie die Sollposition ein. Der Offset-Wert wird auf der Grundlage des Verhältnisses zwischen der
hier einzustellenden Sollposition und der gefundenen Position berechnet.

1 Öffnen Sie das Einrichtungsfenster für den Bilderkennungsprozess.


2 Bringen Sie ein Werkstück, dessen Sollposition Sie einstellen wollen, in den Erfassungsbereich der
Kamera.
3 Drücken Sie die Taste [Snap and Find], um das Werkstück zu finden.
4 Drücken Sie die Taste [Set] im Bereich Sollposition.
5 Überprüfen Sie, dass ein Wert für jedes Sollpositionselement angezeigt wird.

Nun werden die Roboterbahnen eingelernt, an der sich das Werkstück befindet, während die Sollposition
gesetzt wird. Wird die Sollposition verändert, müssen die Bahnen evtl. neu eingelernt werden.

6.17.5 KAREL-Kommunikationsprogramme
Die Option „iRVision 3-D Multi VP“ für Steuerungen mit Bilderkennungshardware ist in der
Roboter-Kommunikationssoftware für 3D-Mehrfachansicht enthalten. Für Steuerungen ohne
Bilderkennungshardware ist sie in der Option „iRVision 3DM Commun“ verfügbar.

Die Software enthält KAREL-Programme, die durch TP oder KAREL-Anwendungsprogramme


aufgerufen werden können und den Bilderkennungs-Offset berechnen und ihn an mehrere Roboter
weitergeben können. Die Software ist so ausgelegt, dass das Anwendungsprogramm nicht die
Information haben muss, ob der Bilderkennungs-Offset auf lokaler Bilderkennungshardware oder der
Bilderkennungshardware einer anderen Steuerung berechnet wird. Die Schnittstelle ist in jedem Falle die
gleiche.

Die Roboter-Kommunikationssoftware für 3D-Mehrfachansicht besteht aus den folgenden


KAREL-Programmen:
• irvoffsv – iRVision-Offset-Servertask. Läuft im Hintergrund einer jeden Steuerung und verwaltet die
Kommunikationen zwischen den Steuerungen.
• irvclral – Löscht die Offsets für alle Bilderkennungsprozesse.
• irvclrof – Löscht den Offset für den angegebenen Bilderkennungsprozess.
• irvgetof – Ruft den Offset für den angegebenen Bilderkennungsprozess ab.

- 220 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 6.BILDERKENNUNGSPROZESSE
Die normale Sequenz der Aufrufe dient dazu, den Offset für den Bilderkennungsprozess zu löschen und
dann allen Robotern den Offset für diesen Bilderkennungsprozess zukommen zu lassen. Der erste Aufruf,
der für den Abruf des Offsets empfangen wird, nachdem der Offset gelöscht wurde, veranlasst den
Vision-Server, die Bilder aufzunehmen und den Offset zu berechnen. Die folgenden Aufrufe des
Offset-Abrufs senden nur den gleichen Offset zurück, ohne dass neue Bilder aufgenommen oder
zusätzliche Berechnungen durchgeführt werden, bis der Offset wieder gelöscht ist.

Diese Programme können von jeder Steuerung im RIPE-Netzwerk aufgerufen werden, unabhängig davon,
ob darauf Bilderkennungshardware vorhanden ist oder ob sie als Vision-Server angewählt wurde. Die
Vision-Offset-Servertasks auf jeder Steuerung senden die Anforderungen automatisch an den aktuell
ausgewählten Vision-Server und kopieren die Ergebnisse in das angegebene Bilderkennungsregister in
der Steuerung, von der der Aufruf erfolgte.

Alle Steuerungen, die die Roboter-Kommunikationssoftware für 3D-Mehrfachansich verwenden, müssen


so aufgesetzt werden, dass sie mit RIPE kommunizieren und die gleiche Softwareversion verwenden.
Entweder eine oder beide Steuerungen müssen gekennzeichnet werden, dass sie über
Bilderkennungshardware verfügen, indem die Variable „has_vision“ im Programm „irvoffsv“ auf dieser
Steuerung gesetzt wird. Die erste Steuerung in der Liste muss über Bilderkennungshardware verfügen
und diese wird dann der primäre Vision-Server.

Ist eine zweite Bilderkennungssteuerung vorhanden, bestimmt die Software die zweite Steuerung in der
RIPE-Liste mit Bilderkennungshardware als den sekundären Vision-Server. Es kann nicht mehr als zwei
Vision-Server geben. Ein Digitaleingang von der SPS bestimmt, welcher Vision-Server verwendet wird.
Die Nummer des Digitaleingangs muss in der Variable „vs_sel_din“ im Programm „irvoffsv“ auf jeder
Steuerung gesetzt werden. Ist der Wert des Eingangs 0, wird der primäre Vision-Server verwendet. Ist 1
gesetzt, wird der sekundäre Vision-Server verwendet. Die SPS kann den Vision-Server jederzeit ändern.
Wird der Vision-Server geändert, werden die Offsets für alle Bilderkennungsprozesse automatisch
gelöscht.

Der Vision-Offset-Servertask wird automatisch gestartet, sobald eines der Programme für den Abruf des
Offsets oder das Löschen des Offsets aufgerufen wird. Wenn er startet, erstellt er eine Liste aller Roboter
im RIPE-Netzwerk und ermittelt, ob diese über Bilderkennungshardware verfügen oder nicht.
Normalerweise ist es nicht erforderlich, Vision-Offset-Servertasks abzubrechen. Ein Abbruch sollte nur
dann erforderlich sein, wenn Sie Änderungen an der RIPE-Konfiguration vornehmen. Um einen Task auf
einer bestimmten Steuerung abzubrechen, muss die Variable „abort_server“ im Programm „irvoffsv“ auf
TRUE gesetzt werden, und dann wird der Task sich selbst beenden. Mit den üblichen Methoden kann er
nicht abgebrochen werden.

6.17.5.1 Variablen des iRVision Offset-Server


Im KAREL-Programm „irvoffsv“ können mehrere Variablen gesetzt werden:

vis_sel_din : INTEGER – DIN-Nummer zum Auswählen des Vision-Servers.


has_vision : BOOLEAN – Ist TRUE, wenn die Steuerung über Bilderkennungshardware verfügt.
abort_server : BOOLEAN – Wird auf TRUE gesetzt, um „irvoffsv“ abzubrechen.

- 221 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

6.BILDERKENNUNGSPROZESSE B-83304GE/02

6.17.5.2 Clear All


Löscht die Offsets für alle Bilderkennungsprozesse.

TP SYNTAX:
CALL irvclral

KAREL SYNTAX:
irvclral

6.17.5.3 Clear Offset


Löscht den Offset für den angegebenen Bilderkennungsprozess.

TP SYNTAX:
CALL irvclrof(visproc_name)

visproc_name
Name des Bilderkennungsprozesses

KAREL SYNTAX:
irvclrof(visproc_name)

visproc_name : STRING
Name des Bilderkennungsprozesses

6.17.5.4 Get Offset


Ruft den Offset von einem angegebenen Bilderkennungsprozess ab und speichert ihn im angegebenen
Bilderkennungsregister. Nimmt die Bilder auf und berechnet den Offset, wenn dieser gelöscht wurde.

TP SYNTAX:
CALL irvgetof(visproc_name, visreg_index)

visproc_name
Name des Bilderkennungsprozesses

visreg_index
Index des Bilderkennungsregisters

KAREL SYNTAX:
irvgetof(visproc_name, visreg_index)

visproc_name : STRING
Name des Bilderkennungsprozesses

visreg_index : INTEGER
Index des Bilderkennungsregisters

- 222 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7 BEFEHLSTOOLS
Dieses Kapitel beschreibt den Einrichtungsvorgang für die Befehlstools.

7.1 GPM LOCATOR TOOL


Das GPM Locator Tool verwendet das Bildverarbeitungstool, welches das Kernstück von iRVision bildet.
Es überprüft ein von der Kamera erfasstes Bild für das gleiche Muster, wie ein vorher eingelerntes
Modellmuster und gibt dessen Lage aus. Wenn Sie das GPM Locator Tool in der Verzeichnisstruktur der
Einrichtungsseite des Bilderkennungsprozesses anwählen, wird ein Einrichtungsfenster wie unten
dargestellt angezeigt.

Input Image (Eingabebild)


Wählen Sie das Bild aus, das für Programmierung und Erkennung eines Modells verwendet wird. Verfügt
der Bilderkennungsprozess über ein Image Filter Tool (Bildfiltertool) oder ein Color Extraction Tool
(Farbextraktionstool), können Sie ein gefiltertes Bild als Eingabebild für das GPM Locator Tool anstelle
des von der Kamera aufgenommenen Originalbilds auswählen. Weitere Informationen finden Sie in den
Abschnitten 7.25 „Image Preprocess Tool“, 7.26 „Image Filter Tool“ und 7.27 „Color Extraction Tool“.

- 223 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.1.1 Ein Modell einrichten


Lernen Sie das Modellmuster des zu findenden Werkstücks ein.

Modellmuster einlernen
Lernen Sie das Modellmuster wie folgt ein:

1 Drücken Sie F2 LIVE, um in die Live-Kamerabildanzeige zu wechseln.


2 Platzieren Sie das Werkstück nahe der Mitte des Kameraerfassungsbereichs.
3 Drücken Sie F2 STOP und dann F3 SNAP, um das Bild des Werkstücks aufzunehmen.
4 Tippen Sie auf die Taste [Teach Pattern].
5 Platzieren Sie das Werkstück im angezeigten roten Rechteck und drücken Sie dann F4 OK.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

- 224 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Training Stability (Programmierzuverlässigkeit)


Die Ergebnisse der Auswertung für die Optionen [Location], [Orientation] und [Scale] des eingelernten
Modellmusters werden als eine der folgenden drei Bewertungsstufen angezeigt:
Good (Gut): Kann zuverlässig bestimmt werden.
Poor (Schlecht): Kann nicht sehr zuverlässig bestimmt werden.
None (Nicht vorhanden): Kann nicht bestimmt werden.

Wird bei einem Punkt „Poor“ oder „None“ angezeigt, gehen Sie wie folgt vor.

Location (Lage):
Poor (Schlecht): Verwenden Sie den Hervorhebungsbereich oder ändern Sie das als
Modellmuster einzulernende Teil.
None (Nicht vorhanden): Tauschen Sie das als Modell einzulernende Teil aus.

Orientation (Ausrichtung):
Poor (Schlecht): Verwenden Sie den Hervorhebungsbereich oder ändern Sie das als
Modellmuster einzulernende Teil.
None (Nicht vorhanden): Deaktivieren Sie das Kontrollkästchen [Orientation].

Scale (Skala):
Poor (Schlecht): Verwenden Sie einen Hervorhebungsbereich oder ändern Sie das als
Modellmuster einzulernende Teil.
None (Nicht vorhanden): Deaktivieren Sie das Kontrollkästchen [Scale].

ANMERKUNG
Ausführliche Informationen zu Modellmustern, die zuverlässig gefunden werden
können, finden Sie im Abschnitt 7.1.5.2 „Modellmuster“ und in Abschnitt 7.1.5
„Richtlinien zum Einrichten“.

- 225 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Programmierungsmaske
Sind bei dem eingelernten Modellmuster unnötige Dinge im Hintergrund oder unerwünschte oder falsche
Merkmale vorhanden, die nicht bei allen anderen Teilen gefunden werden oder auch Fehlstellen, können
Sie diese aus dem Muster entfernen, indem Sie diesen Teil mit roter Farbe ausfüllen.

Um eine Programmierungsmaske zu editieren, tippen Sie auf die Taste [Edit] auf der Linie [Training
Mask]. Wenn eine vergrößerte Ansicht des Modellmusters auf der Bildanzeigesteuerung angezeigt wird,
füllen Sie den unnötigen Teil des Modellmusters mit roter Farbe. Ausführliche Informationen zur
Verfahrensweise finden Sie in Abschnitt 3.7.10 „Maskenbearbeitung“.

Model Origin (Modellursprung)


Der Modellursprung ist der Punkt, der numerisch den Ort des gefundenen Musters darstellt. Die
Koordinatenwerte (Zeile, Spalte) des Orts des gefundenen Musters geben den Ort des Modellursprungs
an. Bei der Bildanzeige der gefundenen Ergebnisse wird der Modellursprung durch angezeigt.

Um den Modellursprung manuell zu verschieben, tippen Sie auf die Taste [Set Org]. Eine vergrößerte
Ansicht des Modellmusters wird auf der Bildanzeigesteuerung angezeigt und erscheint an der
aktuellen Position des Modellursprungs. Verschieben Sie mit der Maus, um den Modellursprung zu
verschieben. Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.8 „Einen Punkt
einrichten“.

Ist das eingelernte Modellmuster drehbar, können Sie den Drehpunkt berechnen und den Modellursprung
dort setzten. Ist das eingelernte Modellmuster z. B. ein rundes Loch, kann der Modellursprung in der
Mitte des Kreises gesetzt werden. Um den Modellursprung am Drehpunkt zu setzen, tippen Sie auf die
Taste [Cen Org]. Ist das Modellmuster drehbar, wird der Drehpunkt berechnet und der Modellursprung
am Drehpunkt gesetzt. Ist das Modellmuster nicht drehbar und der Drehpunkt kann nicht berechnet
werden, wird eine entsprechende Meldung ausgegeben.

- 226 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Emphasis Area (Hervorhebungsbereich)


Verwenden Sie einen Hervorhebungsbereich, wenn die Position des Werkstücks nicht korrekt bestimmt
werden kann, ohne das Augenmerk auf einen kleinen, charakteristischen Teil dieses Werkstücks zu
richten.

Um im Modellmuster einen Hervorhebungsbereich zu setzen, tippen Sie auf die Taste [Edit] auf der Linie
[Emphasis Area]. Wenn eine vergrößerte Ansicht des Modellmusters an der Bildanzeigesteuerung
angezeigt wird, füllen Sie den Teil, den Sie als Hervorhebungsbereich festlegen möchten, mit blauer
Farbe. Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.10
„Maskenbearbeitung“.

Wird ein Hervorhebungsbereich zur Stabilisierung der Berechnung der Ausrichtung oder um eine
fehlerhafte Lage zu vermeiden verwendet, kann das Zielobjekt nicht gefunden werden, wenn der
Hervorhebungsbereich nicht gefunden werden kann. Anders gesagt, wenn der Hervorhebungsbereich
nicht gefunden werden kann, wird das Objekt nicht erkannt, selbst wenn es an sich erkennbar ist.

Voreinstellung (Bias)
Mit der Voreinstellungsfunktion (Bias) kann die gefundene Position dieses GPM Locator Tools so mit
einer Voreinstellung belegt werden, dass das Tool die gleichen gefundenen Positionsdaten ausgibt wie ein
anderes GPM Locator Tool, das bereits eingelernt wurde, wenn das gleiche Werkstück erkannt wird. Bei
Verwendung dieser Funktion werden die gleichen Positionsdaten für ein Werkstück ausgegeben, sofern es
in der gleichen Position platziert ist; gleich ob das Werkstück von diesem GPM Locator Tool oder einem
anderen vorhandenen GPM Locator Tool gefunden wurde, mit dem Positionsverschiebung mit den
gleichen Sollpositionsdaten möglich ist.

Das Einstellen der Voreinstellung ist im Folgenden beschrieben.

1 Öffnen Sie das Einrichtungsfenster des GPM Locator Tool, für das Sie die Voreinstellung setzen
möchten.
2 Tippen Sie die Taste [Set] in [Model Origin Bias].
3 Die folgende Seite wird angezeigt.
Wählen Sie das GPM Locator Tool, das bereits als [Base Tool] eingelernt ist.

- 227 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

4 Drücken Sie F4 OK. Das Tool versucht, das Werkstück mit Hilfe des Modellbilds des Referenztools
zu finden. Findet das Tool das Werkstück, wird die Voreinstellung gesetzt. Ist die Voreinstellung
korrekt gesetzt, wird der Modellursprung so geändert, dass das Tool die gleiche gefundene Position
wie das Referenztool ausgibt.

Normalerweise sollte das Kontrollkästchen [Use Nearest Result] nicht aktiviert werden. Findet das Tool
dann zwei oder mehr Werkstücke im Bild, wird die Voreinstellung auf der Grundlage des gefundenen
Werkstücks mit der höchsten Wertigkeit berechnet.

Möchten Sie, dass das Tool die Voreinstellung auf der Grundlage eines anderen Werkstücks im Bild
berechnet, verschieben Sie den Modellursprung des Tools manuell in die Nähe Modellursprungs des
Referenztools und aktivieren Sie das Kontrollkästchen. Die Voreinstellung wird dann auf der Grundlage
des gefundenen Werkstücks des Modellursprungs berechnet, der sich am nächsten zum Modellursprung
des Referenztools befindet.

Model ID (Modell-ID)
Wenn Sie zwei oder mehr GPM Locator Tools eingelernt haben und erkennen möchten, welches Tool für
die Werkstückerkennung verwendet wurde, weisen Sie einem jeden Tool eine eindeutige Modell-ID zu.
Die Modell-ID des Tools, das das Werkstück gefunden hat, wird zusammen mit den Offset-Daten an die
Robotersteuerung gesendet. Dadurch kann das Roboterprogramm den Typ der gefundenen Werkstücke
erkennen.

7.1.2 Lokalisierungsparameter einstellen


Stellen Sie die Lokalisierungsparameter ein.

Score Threshold (Schwellenwert der Wertigkeit)


Die Genauigkeit der gefundenen Ergebnisse wird durch eine Wertigkeit ausgedrückt, wobei die höchste
100 ist. Das Zielobjekt wird erfolgreich gefunden, wenn seine Wertigkeit gleich oder höher als dieser
Schwellenwert ist. Liegt die Wertigkeit darunter, wird das Zielobjekt nicht gefunden. Stellen Sie einen
Wert zwischen 10 und 100 ein. Der Standardwert lautet 70. Wird ein kleinerer Wert gesetzt, kann dies zu
ungenauer Lokalisierung führen.

Contrast Threshold (Kontrast-Schwellenwert)


Gibt die Kontrastschwelle für die Suche an. Der Standardwert ist 50. Wird ein kleinerer Wert eingestellt,
ist das Tool in der Lage, das Ziel auch in undeutlichen Bildern zu finden, jedoch dauert der
Lokalisierungsprozess länger. Der Minimalwert ist 1. Neigt das Tool dazu, unangemessenerweise
Fehlstellen und andere unerwünschte Kanten mit niedrigem Kontrast zu finden, sollte versucht werden,
einen größeren Wert zu setzen. Die Bildmerkmale, deren Kontrast niedriger als der Schwellenwert ist,
werden ignoriert. Wenn Sie [Image+Edges] in [Image Display Mode] wählen, können Sie die mit dem
aktuellen Schwellenwert extrahierten Bildmerkmale prüfen.

Area Overlap (Bereichsüberlappung)


Ist das Verhältnis der Überlappung des gefundenen Objekts größer als das hier angegebene Verhältnis,
wird das gefundene Ergebnis für das Werkstück mit der niedrigeren Wertigkeit gelöscht und nur das mit
der höheren Wertigkeit bleibt übrig. Das Überlappungsverhältnis wird durch den Bereich bestimmt, in
dem sich die äußeren rechteckigen Rahmen der Modelle überlappen. Wenn Sie 100% als Grenzwert
angeben, werden die gefundenen Ergebnisse nicht gelöscht, auch wenn sich die Werkstücke überlappen.

Elasticity (Elastizität)
Geben Sie einen Wert in Pixel an, um vorzugeben, wie stark das Muster im Bild in seiner Geometrie vom
eingelernten Modell abweichen (verzogen sein) darf. Wird ein großer Wert eingestellt, ist das Tool in der
Lage, das Ziel auch in Bildern zu finden, die geometrisch stark abweichen. Je größer der Wert jedoch ist,
desto größer wird die Gefahr der ungenauen Lokalisierung.
- 228 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

EA Score Threshold
(Schwellenwert der Wertigkeit des Hervorhebungsbereichs)
Neben dem Schwellenwert der Wertigkeit für das gesamte Modell kann ein solcher Wert nur für den
Hervorhebungsbereich angegeben und bestimmt werden, wie hoch die Wertigkeit für das zu findende
Objekt sein muss. Standardmäßig sind 70 Punkte eingestellt.

Allow Floating EA (Schwebenden Hervorhebungsbereich zulassen)


Dies kann angegeben werden, um dem Tool zu ermöglichen, ein Objekt auch dann zu finden, wenn von
der Position des Hervorhebungsbereich um zwei oder drei Pixel im Verhältnis zur Position des gesamten
Modellmusters abgewichen wurde.

Ignore Polarity (Polarität ignorieren)


Dies kann vorgegeben werden, um eine Erkennung ohne eine Dunkel/Hell-Polarität für ein
programmiertes Modellmuster durchzuführen.
Weitere Informationen zu Polarität finden Sie in Abschnitt 7.1.5 „Richtlinien zum Einrichten“.

Speed Priority Mode (Geschwindigkeitsprioritätsmodus)


Hier kann angegeben werden, eine Erkennung mit einer höheren Priorität der Erkennungsgeschwindigkeit
durchzuführen. Mit diesem Modus kann die Erkennungsdauer verkürzt werden.

Die Genauigkeit der gefundenen Ergebnisse ist normalerweise ungefähr so, wie im normalen Modus oder
in Einzelfällen nur wenig schlechter. Eine Nebenerscheinung des Geschwindigkeitsprioritätsmodus ist
allerdings, dass die Erkennung weniger empfindlich für die feinen Merkmale des aufgenommenen Bildes
bzw. des Modellmusters wird. Daher steht dieser Modus ggf. nicht zur Verfügung, wenn das
programmierte Modellmuster nur klein im Bild erscheint oder wichtige feine Merkmale für seine
Lokalisierung aufweist.

Search Window (Suchfenster)


Gibt den zu durchsuchenden Bereich des Bildbereichs an. Der Lokalisierungsprozess wird umso schneller
durchgeführt, je schmaler der Bereich ist. Als Standardwert ist das ganze Bild eingestellt. Tippen Sie auf
die Taste [Set], um das Suchfenster zu verändern. Erscheint ein Rechteck im Bild, stellen Sie dessen
Geometrie wie beim Einlernen eines Modells ein. Ausführliche Informationen zur Verfahrensweise
finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

Run-Time Mask (Laufzeitmaske)


Geben Sie einen Bereich des Suchfensters an, das Sie von der Verarbeitung ausschließen wollen. Dies
kann z. B. eine beliebige Geometrie sein. Verwenden Sie diese Funktion, wenn Sie ein willkürlich
geformtes Suchfenster, wie etwa ein kreis- oder ringförmiges Fenster angeben möchten. Der ausgefüllte
Bereich wird im als Suchfenster angegebenen Rechteck maskiert und bei der Bildverarbeitung nicht
berücksichtigt. Tippen Sie auf die Taste [Edit], um die Laufzeitmaske zu ändern. Ausführliche
Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.10 „Maskenbearbeitung“.

- 229 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

DOF - Orientation (DOF-Ausrichtung)


Geben Sie den zu durchsuchenden Ausrichtungsbereich an. Das Tool sucht nach einem Modell, das im
angegebenen Bereich zwischen [Minimum] und [Maximum] gedreht ist, wobei die Ausrichtung des
eingelernten Modells 0 Grad beträgt. Es kann sowohl bei [Minimum] als auch bei [Maximum] ein
Bereich von −360 bis +360 Grad angegeben werden. Der Suchprozess wird umso schneller durchgeführt,
je schmaler der Bereich für die Ausrichtung ist. Wird ein Bereich über 360 Grad angegeben, wird der
Bereich automatisch auf den Bereich von −180 bis +180 Grad korrigiert, während der
Bilderkennungsprozess durchgeführt wird.
Wenn Sie dieses Kontrollkästchen deaktivieren, wird die Ausrichtung ignoriert und das Tool sucht nur
nach einem Modell, dessen Ausrichtung in [Nominal] angegeben ist.
Standardmäßig ist die Ausrichtungssuche aktiviert und der Bereich beträgt −180 bis +180 Grad.
Handelt es sich um ein untergeordnetes Tool eines anderen Locator-Tools, geben Sie den Bereich im
Verhältnis zum gefundenen Ergebnis des übergeordneten Tools an.

DOF - Scale (DOF-Skalierung)


Geben Sie den zu durchsuchenden Bereich für die Skalierung an. Beträgt die Größe des eingelernten
Modells 100%, sucht das Tool nach einem Modell, das um das in [Minimum] und [Maximum]
angegebene Verhältnis reduziert ist. Es kann sowohl bei [Minimum] als auch bei [Maximum] ein Bereich
von 25% bis 400% angegeben werden. Der Suchprozess wird umso schneller durchgeführt, je schmaler
der Abmessungsbereich ist.
Wenn Sie dieses Kontrollkästchen deaktivieren, wird die Skalierung ignoriert und das Tool sucht nur
nach einem Modell, dessen Skalierung in [Nominal] angegeben ist.
Standardmäßig ist die Skalierungssuche deaktiviert.
Handelt es sich um ein untergeordnetes Tool eines anderen Locator-Tools, geben Sie den Bereich im
Verhältnis zum gefundenen Ergebnis des übergeordneten Tools an.

DOF - Aspect (DOF-Seitenverhältnis)


Geben Sie den zu durchsuchenden Bereich für die Seitenverhältnisse an. Beträgt das Verhältnis des
eingelernten Modells 100%, sucht das Tool nach einem Modell, das um das in [Minimum] und
[Maximum] angegebene Verhältnis abgeflacht ist. Es kann sowohl bei [Minimum] als auch bei
[Maximum] ein Bereich von 50% bis 100% angegeben werden. Der Suchprozess wird umso schneller
durchgeführt, je schmaler der Bereich für das Seitenverhältnis ist.
Wenn Sie dieses Kontrollkästchen deaktivieren, wird das Seitenverhältnis ignoriert und das Tool sucht
nur nach einem Modell, dessen Seitenverhältnis in [Nominal] angegeben ist.
Standardmäßig ist die Seitenverhältnissuche deaktiviert.
Handelt es sich um ein untergeordnetes Tool eines anderen Locator-Tools, geben Sie den Bereich im
Verhältnis zum gefundenen Ergebnis des übergeordneten Tools an.

Time-out (Zeitüberschreitung)
Benötigt der Lokalisierungsprozess länger als die hier angegebene Dauer, beendet das Tool den Prozess,
ohne dass alle Werkstücke gefunden wurden.

- 230 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Result Plotting Mode (Ergebnisdarstellungsmodus)


Stellen Sie hier ein, wie die gefundenen Ergebnisse auf dem Bild dargestellt werden sollen, nachdem der
Prozess durchgeführt wurde.

Plot Everything (Alles anzeigen)


Ursprung, Merkmale und Rechteckprofil des Modells werden angezeigt.

Plot Edges (Kanten anzeigen)


Nur Ursprung und Merkmale des Modells werden angezeigt.

Plot Bounding Box (Zeichenbox anzeigen)


Nur Ursprung und Rechteckprofil des Modells werden angezeigt.

Plot Only Origin (Nur Ursprung anzeigen)


Nur der Modellursprung wird angezeigt.

Plot Nothing (Nichts anzeigen)


Es wird nichts angezeigt.

Image Display Mode (Bildanzeigemodus)


Wählt den Bildanzeigemodus für das Einrichtungsfenster.

Image (Bild)
Nur das Kamerabild wird angezeigt.

Image+Results (Bild+Ergebnisse)
Das Kamerabild und die gefundenen Ergebnisse werden angezeigt.

Image+Edges (Bild+Kanten)
Kamerabild und Merkmale des Bilds werden angezeigt.

Pattern (Muster)
Das eingelernte Modellmuster wird angezeigt.
Die Merkmale werden in grün und der Hervorhebungsbereich in blau dargestellt.

Pattern+Mask+EA (Muster+Maske+Hervorhebungsbereich)
Das eingelernte Modellmuster mit einem überlagerten Bereich, der als Hervorhebungsbereich
maskiert ist, wird angezeigt.

Show Almost Found (Beinahe gefundene Ergebnisse anzeigen)


Sind Werkstücke vorhanden, die nicht gefunden werden konnten oder nur geringfügig Wertigkeit,
Kontrast, Ausrichtung, Skalierung bzw. andere Bedingungen verfehlt haben, können diese Prüfergebnisse
angezeigt werden. Das Ergebnis wird im Bild in einem roten Rechteck angezeigt.

- 231 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.1.3 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Werkstücke
korrekt findet.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Almost Found (Beinahe gefunden)


Die Anzahl der Werkstücke, die nicht gefunden wurden, da sie geringfügig außerhalb des angegebenen
Bereichs lagen, werden angezeigt. Wenn das Kontrollkästchen [Show Almost Found] nicht aktiviert ist,
wird 0 angezeigt.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

- 232 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

Row, Column (Zeile, Spalte)


Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Musters (Einheit: Pixel).

Score (Wertigkeit)
Wertigkeit des gefundenen Musters.

EA Score (Wertigkeit des Hervorhebungsbereichs)


Wertigkeit nur für den Hervorhebungsbereich. Sie wird nur dann angezeigt, wenn das
Kontrollkästchen für den Hervorhebungsbereich aktiviert ist.

Contrast (Kontrast)
Kontrast des gefundenen Musters.

Fit Error (Übereinstimmungsfehler)


Abweichung des gefundenen Musters vom Modellmuster (Einheit: Pixel).

Angle (Winkel)
Ausrichtung des gefundenen Musters (Einheit: Grad).
Sie wird nur dann angezeigt, wenn das Kontrollkästchen für Ausrichtungssuche aktiviert ist.

Scale (Skalierung)
Skalierung des gefundenen Musters (Einheit: %).
Sie wird nur dann angezeigt, wenn das Kontrollkästchen für die Skalierungssuche aktiviert ist.

Aspect (Seitenverhältnis)
Seitenverhältnis des gefundenen Musters (Einheit: %).
Er wird nur dann angezeigt, wenn das Kontrollkästchen für die Seitenverhältnissuche aktiviert ist.

Skew (Schrägstellung)
Schrägstellungswinkel des gefundenen Musters (Einheit: Grad).
Er wird nur dann angezeigt, wenn das Kontrollkästchen für die Seitenverhältnissuche aktiviert ist.

- 233 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.1.4 Übersteuerbare Parameter


Dieses Befehlstool hat folgende Parameter, die mit Vision Override übersteuert werden können.
Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Score Threshold (Schwellenwert der Wertigkeit)


Geben Sie eine Zahl zwischen 10 und 100 an.

Contrast Threshold (Kontrast-Schwellenwert)


Geben Sie eine Zahl zwischen 1 und 250 an.

Elasticity (Elastizität)
Geben Sie eine Zahl zwischen 1 und 5 an.

DOF Angle (DOF-Winkel)


Auswahl aktiviert/deaktiviert, Mindestwinkel, Maximalwinkel und Nennwinkel können angegeben
werden. Geben Sie 0 für Deaktivieren oder 1 für Aktivieren an. Geben Sie für Mindestwinkel,
Maximalwinkel und Nennwinkel eine Zahl zwischen −360 und 360 an.

DOF Scale (DOF-Skalierung)


Auswahl aktiviert/deaktiviert, Mindestskalierung, Maximalskalierung und Nennskalierung können
angegeben werden. Geben Sie 0 für Deaktivieren oder 1 für Aktivieren an. Geben Sie für
Mindestskalierung, Maximalskalierung und Nennskalierung eine Zahl zwischen 25 und 400 an.

DOF Aspect Ratio (DOF-Bildseitenverhältnis)


Auswahl aktiviert/deaktiviert, Mindestseitenverhältnis, Maximalseitenverhältnis und
Nennseitenverhältnis können angegeben werden. Geben Sie 0 für Deaktivieren oder 1 für Aktivieren an.
Geben Sie für Mindestseitenverhältnis, Maximalseitenverhältnis und Nennseitenverhältnis eine Zahl
zwischen 50 und 100 an.

- 234 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.1.5 Richtlinien zum Einrichten


Diese Richtlinien vermitteln Ihnen ein tieferes Verständnis der Funktionsweise des GPM Locator Tools.

7.1.5.1 Übersicht und Funktionen


Dieser Abschnitt gibt Ihnen einen Überblick über das GPM Locator Tool und beschreibt, wie Sie
vorgehen können und wie Objekte mit diesem Tool dargestellt werden.

Einsatzmöglichkeiten des GPM Locator Tools


Das GPM Locator Tool bietet Möglichkeiten der Bildverarbeitung für mit der Kamera aufgenommene
Prozessbilder, kann das gleiche Muster wie das vorher eingelernte Muster in einem Bild auffinden, und
Position und Ausrichtung des gefundenen Musters ausgeben. Das vorher eingelernte Muster wird als
Modellmuster oder einfach nur Modell bezeichnet.

Wenn sich Position und Ausrichtung des im Kamerasichtbereich platzierten Objekts verändern, ändert
sich Position und Ausrichtung der Abbildung des mit der Kamera aufgenommenen Objekts entsprechend.
Das GPM Locator Tool findet, wo sich das gleiche Muster wie das Modellmuster im von der Kamera
eingespeisten Bild befindet.

Hat die Abbildung des Objekts im Bild das gleiche Muster wie das Modellmuster, kann es auch dann vom
Locator Tool gefunden werden, wenn folgende Unterschiede vorhanden sind:
• Lineare Bewegung: Die Position der Figur im Bild unterscheidet sich von der im Modellbild.
• Rotation: Die offensichtliche Ausrichtung der Figur im Bild unterscheidet sich von
der im Modellbild.
• Expansion/Reduktion: Die offensichtliche Größe der Figur im Bild unterscheidet sich von der im
Modellbild.

Model pattern
Modellmuster

(1) Linear
(1) Lineare Bewegung
movement (2) (2) Rotation
Rotation (3) (3) Expansion / Reduktion
Expansion/Reduction

Abb. 7.1.5.1 (a) Musterbewegung

- 235 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Definition von gleichen Mustern


Was wird vom GPM Locator Tool als das „gleiche Muster“ wie das Modellmuster betrachtet?
Das GPM Locator Tool wendet zwei Kriterien an, um zu bestimmen, ob es sich bei einem Muster um das
„gleiche Muster“ handelt wie das Modellmuster. Wenn das Muster beide Kriterien erfüllt, betrachtet das
GPM Locator Tool es als das „gleiche Muster“.

• Die Figur hat die gleiche Geometrie.


• Die Figur hat die gleiche Polarität Dunkel/Hell.

Wenn Sie nachvollziehen können, was vom GPM Locator Tool als das gleiche Muster betrachtet wird,
sind Sie besser in der Lage, es so einzustellen, dass entsprechende Muster mit erhöhter Zuverlässigkeit
gefunden werden.

Figur mit der gleichen Geometrie


Zunächst wird die „Figur mit der gleichen Geometrie“ erläutert.
Angenommen man sieht z.B. einen Kreiszylinder durch die Kamera wie in Abb. 7.1.5.1(b) dargestellt.
Obwohl die Figuren in Abb. 7.1.5.1 (b) (i) und Abb. 7.1.5.1 (b) (ii) in ihrer Position im Bild
unterschiedlich sind, werden sie als „mit der gleichen Geometrie“ betrachtet, da beide als scheinbar
perfekte Kreisfigur erscheinen. Dagegen erscheint die Figur in Abb. 7.1.5.1 (b) (iii) als Ellipse im Bild, da
das Objekt von der Kamera schräg erfasst wird, während es sich tatsächlich um einen Kreiszylinder wie
die Gegenstände in Abb. 7.1.5.1 (b) (i) und Abb. 7.1.5.1 (b) (ii) handelt.
Daher betrachtet das Tool die Figur in der Abbildung 7.1.5.1 (b) (iii) als eine Figur mit einer „anderen
Geometrie“ als die in Abb. 7.1.5.1 (b) (i) und Abb. 7.1.5.1 (b) (ii).

(i) (ii) (iii)


Abb. 7.1.5.1 (b) Von der Kamera aus betrachtet

Anders ausgedrückt, wenn die tatsächlichen Gegenstände eine unterschiedliche Geometrie haben, aber
ihre von der Kamera erfasste Figur erscheint geometrisch identisch, betrachtet das GPM Locator Tool sie
als „von gleicher Geometrie“.

- 236 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Bildverzerrung
Bei der Beurteilung, ob eine Figur im Bild geometrisch identisch ist, muss ein weiterer Faktor
berücksichtigt werden. Dieser Faktor ist die „Bildverzerrung“.

Es gibt kein von der Kamera erfasstes Bild, das gegen Verzerrung gefeit ist. Verzerrung tritt aufgrund
einer Vielzahl von Faktoren einschließlich der Verzerrung der Kameralinse selbst auf, etwa dem Mangel
an Parallelität zwischen der Linse und der belichteten Oberfläche des Elements, dem
Digitalisierungsfehler und schlechter Ausleuchtung des Werkstücks. Aufgrund der durch diese Probleme
resultierenden Verzerrung kann etwa die Figur eines quadratischen Werkstücks, das von der Kamera
erfasst wird, auf unterschiedliche Art verzerrt sein und damit die Figur nicht genau quadratisch
erscheinen. Auch wenn ein Bild des gleichen Gegenstands mehrmals aufgenommen wird, kann jedes
resultierende Bild aufgrund eines geringen Unterschieds bei der Beleuchtung oder einem anderen Faktor
leicht unterschiedlich verzerrt sein.

Ein Hindernis für das GPM Locator Tool beim Erkennen des gleichen Musters wie das Modellmuster im
Bild sind die „Unterschiede in der Verzerrung zwischen dem Modellmuster und dem Muster im Bild“, die
aus diesen Bildverzerrungen resultieren. Das Modellmuster ist verzerrt und deshalb auch das Muster im
Bild. Das Problem ist, dass die beiden Modelle unterschiedlich verzerrt sind.

Das GPM Locator Tool ist so ausgelegt, dass es einen „gewissen Grad an geometrischer Abweichung“
zwischen zwei Mustern toleriert. In Abb. 7.1.5.1 (c) ist ein etwas übertriebenes Beispiel dafür dargestellt,
in dem die punktierte Linie das als Modell eingelernte Muster, und die durchgezogene Linie das im Bild
gefundene Muster darstellt. Liegt die Abweichung der beiden Muster im zulässigen Bereich, betrachtet
das GPM Locator Tool sie als geometrisch identisch.

Ist ein Teil vorhanden, bei dem die Abweichung den zulässigen Bereich überschreitet, wird der Teil vom
GPM Locator Tool als „im Muster des Bilds nicht vorhanden“ betrachtet und so die Schlussfolgerung
gezogen, dass seine Geometrie nur in diesem bestimmten Teil abweicht.

Allowable
Zulässiger Bereich
range

Abb. 7.1.5.1 (c) Geometrische Abweichung

Auch das Phänomen des Kreiszylinders, der wie in Abb. 7.1.5.1 (b) als Ellipse dargestellt wird, ist
möglicherweise auf eine Bildverzerrung zurückzuführen, die entsteht, weil die optische Achse der
Kamera nicht senkrecht zur Oberfläche des Kreiszylinders liegt. Daher, auch wenn der Gegenstand leicht
geneigt ist, wird er als von gleicher Geometrie betrachtet, wenn die resultierende Verzerrung innerhalb
des zulässigen Bereichs liegt.

- 237 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Die Figur hat die gleiche Polarität Dunkel-Hell


Im Folgenden wird die „Figur mit der gleichen Polarität Dunkel-Hell“ erläutert.

Angenommen man hat zwei Bilder, wie in Abb. 7.1.5.1 (d) (i) und Abb. 7.1.5.1 (d) (ii) dargestellt. Die
Figuren in Abb. 7.1.5.1 (d) (i) und Abb. 7.1.5.1 (d) (ii) haben die gleiche Geometrie, da beide quadratisch
und gleich groß sind. Jedoch ist in Abb. 7.1.5.1 (d) (i) ein dunkles Quadrat auf einem hellen Hintergrund
dargestellt, während in Abb. 7.1.5.1 (d) (ii) ein helles Quadrat auf einem dunklen Hintergrund dargestellt
ist. Die Unterschiede zwischen den beiden beziehen sich auf die „Helligkeit, das Werkstück (Quadrat)
oder den Hintergrund“, d. h. Unterschiede in der Polarität Dunkel-Hell. Unterscheiden sich die Muster in
der Polarität Dunkel-Hell, betrachtet das Locator Tool sie als unterschiedlich, auch wenn sie in ihrer
Geometrie gleich sind.

Wenn Sie also ein Modellmuster wie das in Abb. 7.1.5.1 (d) (i) einlernen, kann das Tool kein Muster wie
das in Abb. 7.1.5.1 (d) (b) finden.

(i) (ii)
Abb. 7.1.5.1 (d) Polarität Dunkel-Hell

Nehmen wir nun an, dass Sie das in Abb. 7.1.5.1 (d) (i) dargestellte Muster als das Modellmuster
einlernen und dann Bilder mit den in Abb. 7.1.5.1 (e) dargestellten Mustern erhalten.
Das Bild in Abb. 7.1.5.1 (e) (i) hat im Hintergrund eine ungleiche Helligkeit und das Bild in
Abb. 7.1.5.1 (e) (ii) hat ungleiche Helligkeit im Werkstück (Viereck). Das Bild in Abb. 7.1.5.1 (e) (iii)
weist ungleiche Helligkeit sowohl im Hintergrund als auch beim Werkstück auf.

Diese drei Muster haben alle die gleiche Polarität Dunkel-Hell wie in Abb. 7.1.5.1 (d) (i) in der oberen
Hälfte des Quadrats und in Abb. 7.1.5.1 (d) (ii) in der unteren Hälfte des Quadrats. Dies bedeutet, dass die
Polarität Dunkel-Hell die Gleiche ist wie bei dem Modellmuster, jedoch nur für die Hälfte des Musters.
Daher betrachtet das Tool das Muster als zur Hälfte gleich und zur Hälfte unterschiedlich.

(i) (ii) (iii)


Abb. 7.1.5.1 (e) Polarität Dunkel-Hell

Es ist zu beachten, dass das menschliche Auge relativ unsensibel gegenüber der Polarität Dunkel-Hell ist.
In Abb. 7.1.5.1 (d) und Abb. 7.1.5.1 (e) sind nur Beispiele dargestellt, bei denen die Polarität Dunkel-Hell
sehr leicht zu erkennen ist. In den meisten tatsächlichen Bildern kann der Unterschied zwischen hell und
dunkel nur mit wesentlich höherer Aufmerksamkeit festgestellt werden. Kann das Tool ein Muster nicht
finden, ist es eventuell erforderlich, zu überprüfen, ob die Polarität Dunkel-Hell eventuell umgekehrt ist.

- 238 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Fehlende oder zusätzliche Merkmale


Nehmen wir nun an, dass Sie das in Abb. 7.1.5.1 (f) (i) dargestellte Muster als das Modellmuster
einlernen und dann mit der Kamera ein Bild mit dem in Abb. 7.1.5.1 (f) (ii) dargestellten Muster
aufnehmen. Das Muster in Abb. 7.1.5.1 (f) (b) enthält keinen weißen Kreis, welcher aber im
Modellmuster in Abb. 7.1.5.1 (f) (i) vorhanden ist.

Wird im Modellmuster ein Merkmal gefunden, das im Muster im Bild nicht vorhanden ist, nimmt das
Locator Tool an, dass das Muster sich mindestens durch dieses fehlende Merkmal unterscheidet. In
diesem Fall wird von dem Muster in Abb. 7.1.5.1 (f) (ii) angenommen, dass es sich vom Modellmuster in
Abb. 7.1.5.1 (f) (i) dahingehend unterscheidet, als dass der weiße Kreis fehlt.

Nehmen wir nun umgekehrt an, dass Sie das in Abb. 7.1.5.1 (f) (ii) dargestellte Muster als Modellmuster
einlernen und dann mit der Kamera ein Bild mit dem in Abb. 7.1.5.1 (f) (i) dargestellten Muster
aufnehmen.

Das GPM Locator Tool stellt fest, dass das Muster im Bild „von gleicher Geometrie“ ist, auch wenn es
noch ein zusätzliches Merkmal aufweist, das nicht im Modellmuster vorhanden ist. Daher wird vom
Muster in Abb. 7.1.5.1 (f) (i) angenommen, dass es „von gleicher Geometrie“ wie das Modellmuster in
Abb. 7.1.5.1 (f) (ii) ist.

(i) (ii)
Abb. 7.1.5.1 (f) Fehlendes oder zusätzliches Merkmal

Musterähnlichkeit
Es wurden nun bereits einige Kriterien bezüglich Faktoren wie etwa Geometrie, Bildverzerrung und
Polarität Hell-Dunkel sowie fehlende Merkmale erläutert. Dennoch müssen nicht alle dieser Kriterien
vollständig erfüllt sein. Es ist schier unmöglich, den Einfluss der erläuterten Faktoren komplett
auszuschließen. Das GPM Locator Tool ist so ausgelegt, dass es den Einfluss dieser Faktoren bis zu
einem gewissen Grad zulässt. Anders ausgedrückt, dient das Tool dazu, vielmehr „ähnliche Muster“ als
„gleiche Muster“ zu finden.

Ein Maß für die Ähnlichkeit ist die Bewertung, wie ähnlich das im Bild gefundene Muster dem
Modellmuster ist. Während dies gemeinhin als „Ähnlichkeitsgrad“ bezeichnet wird, wird dieser Wert
beim Locator Tool als „Wertigkeit“ („Score“) bezeichnet. Die Wertigkeit ist ein numerischer Wert im
Bereich von 0 bis 100 Punkten. Stimmen die Muster vollständig überein, wird die Wertigkeit mit 100
Punkten angegeben. Besteht gar keine Übereinstimmung, ist die Wertigkeit 0. Hat das Muster im Bild
einen Teil, der „Objektivverzeichnung“, „Parallaxenfehler“, eine „unterschiedliche Polarität Dunkel-
Hell“, ein „fehlendes Merkmal“ aufweist oder aus anderen Gründen dem Muster nicht entspricht, wird die
Wertigkeit von 100 Punkten entsprechend reduziert. Machen solche Teile 30% des Modellmuster aus,
beträgt die Wertigkeit 70 Punkte.

Wenn Sie das GPM Locator Tool dazu einstellen, ein übereinstimmendes Muster in einem Bild zu finden,
geben Sie einen Schwellenwert der Wertigkeit an, sodass das Tool Muster findet, deren Wertigkeit über
dem angegebenen Schwellenwert liegt.

- 239 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.1.5.2 Modellmuster
Zuerst muss das zu suchende Objekt in das GPM Locator Tool als Modellmuster eingelernt werden.
In diesem Abschnitt werden die Richtlinien zum Einlernen eines Modellmusters beschrieben.

Ein Modellmuster einlernen


Die Werkstückgeometrie muss als Modellmuster so eingelernt werden, wie die Kamera das Werkstück
sieht. Um ein Modellmuster einzulernen, lesen Sie das von der Kamera gewonnene Bild des Werkstücks
ein und umschließen Sie den Bildteil, den Sie als Modellmuster registrieren möchten, mit einem
Rechteck. Es ist wichtig, dass das Werkstück so platziert wird, dass es in der Mitte des Bilds liegt. Beim
Betrachten durch die Kamera unterliegt das Bild verschiedenen Arten von Verzerrung, wie z.B. der
Objektivverzeichnung. Solche Verzerrungen werden in der Nähe der Bildmitte auf ein Minimum
reduziert. Platzieren Sie deshalb das Werkstück beim Einlernen eines Modellmusters so, dass es so nahe
an der Bildmitte platziert ist wie möglich.

Geometrien, deren Position nicht bestimmt werden kann


Es gibt einige Arten von Geometrien, bei denen die Position, Ausrichtung oder weitere Attribute nicht
bestimmt werden können. Kann die Position oder Ausrichtung der als Modellmuster eingelernten
Geometrie nicht bestimmt werden, kann das GPM Locator Tool das Muster nicht einwandfrei finden.
Nachstehend sind solche Geometrien aufgeführt.

<1> Geometrien, deren Position nicht bestimmt werden kann

Für die Geometrien, die in Abb. 7.1.5.2 (a) (i) und Abb. 7.1.5.2 (a) (ii) dargestellt sind, kann die Position
parallel zur Linie nicht bestimmt werden. Es sollte vermieden werden, solche Muster als Modellmuster zu
verwenden, außer Sie legen keinen Wert darauf, welchen Teil des Musters das Tool findet, solange es das
Muster überhaupt findet.

In diesen Fällen sehen die von der Kamera erfassten Bilder für das menschliche Auge vollständig
identisch aus, während jedoch die vom GPM Locator Tool gefundene Position für jedes Muster anders ist.
Dies liegt daran, dass die Bilder der Verzerrung unterliegen, wie bereits weiter oben erläutert wurde.
Obwohl der Mensch das Muster als gerade Linie sieht, sind jedoch sowohl das Modellmuster als auch das
Muster im Bild verzogene, ungleich gebogene Linien. Das Tool sucht nach der Position, an der die
Übereinstimmung der beiden ungleich gebogenen Linien miteinander am Größten ist. Auch wenn Sie
mehrere Bilder nacheinander aufnehmen und sich das Werkstück fest an der gleichen Stelle befindet, ist
die Position, an der die Ungleichheit übereinstimmt, bei allen Bildern verschieden, da alle Bilder auf
leicht unterschiedliche Weise verzogen sind.

(i) Gerade Linie (ii) Parallele Linien (iii) Identische Merkmale im gleichen Abstand
Abb. 7.1.5.2 (a) Geometrien mit nicht genau bestimmbarer Position

Vorsicht ist auch dann geboten, wenn identische Merkmale im gleichen Abstand angeordnet sind, wie in
Abb. 7.1.5.2 (a) (iii) dargestellt. Wenn z.B. drei der fünf schwarzen Kreise als Modellmuster eingelernt
worden sind, kann das Tool nicht unterscheiden, welche drei Kreise gefunden werden sollen. Aus diesem
Grund sollten solche Geometrien nicht als Modellmuster verwendet werden.
Auch wenn alle fünf Kreise als Modellmuster eingelernt werden, erhält ein Muster eine solch hohe
Wertigkeit von 80 Punkten, wenn es vier der schwarzen Kreisen entspricht. Dadurch wird das gefundene
Ergebnis unzuverlässig, wenn die Wertigkeit weniger als 90 Punkte beträgt.

- 240 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS
<2> Geometrien, deren Ausrichtung nicht bestimmt werden kann

Die Ausrichtung des in Abb. 7.1.5.2 (b) (i) dargestellten Kreises kann nicht bestimmt werden, da die
Ausrichtung des Musters im Bild der des Modellmusters entspricht, gleich, wie das Modellmuster gedreht
wird. Geben Sie in dem Falle an, dass die Ausrichtung bei der Suche ignoriert werden soll.

Da die Ausrichtung des in Abb. 7.1.5.2 (b) (ii) dargestellten Rechtecks sowohl bei 0 als auch 180 Grad
perfekt übereinstimmt, ist nicht bekannt, welche Ausrichtung das Tool ermitteln wird. In diesem Fall
kann der Suchbereich der Ausrichtung wie in den Winkeln von −90 Grad bis +90 Grad eingegrenzt
werden. Dies gilt ebenfalls bei gleichschenkligen Dreiecken und Vielecken.

(i) Kreis (ii) Rechteck


Abb. 7.1.5.2 (b) Geometrische Formen mit nicht bestimmbarer Ausrichtung

<3> Geometrien, deren Skalierung nicht bestimmt werden kann

Für eine Ecke wie in Abb. 7.1.5.2 (c) dargestellt kann die Skalierung nicht bestimmt werden, da das
Muster im Bild komplett dem Modellmuster entspricht, gleich, wie viel Mal seine Form expandiert wird.
Geben Sie in dem Falle an, dass die Skalierung bei der Suche ignoriert werden soll.

Abb. 7.1.5.2 (C) Geometrische Formen mit nicht bestimmbarer Skalierung

Modellmuster maskieren
Fehlt ein beim Modellmuster vorhandenes Merkmal im Bildmuster, so nimmt das Locator Tool - wie
bereits vorher im Absatz „Fehlendes oder zusätzliches Merkmal“ erläutert, an, dass das Muster sich
mindestens durch dieses fehlende Merkmal unterscheidet. Andererseits jedoch ignoriert das Tool
zusätzliche Merkmale. Gibt es daher ein zusätzliches Merkmal, das im Bild vorhanden ist, während das
Modellmuster eingelernt wird, ist es wünschenswert, dieses nicht im Modellmuster zu berücksichtigen.

Das GPM Locator Tool bietet die Möglichkeit, solche spezifischen Teile eines Bildes nach dem Einlernen
zu maskieren und so aus dem Modellmuster zu entfernen. Dieses Verfahren wird als „Maskieren des
Modellmusters“ bezeichnet. Enthält das Bild, das als Modellmuster eingelernt wird, Teile wie die unten
beschriebenen, können Sie diese Teile maskieren und aus dem Modellmuster entfernen.

<1> Teil, bei dem der Abstand zur Kamera unterschiedlich ist

Betrachten Sie einen Gegenstand durch eine Kamera, tritt der „Parallaxeneffekt“ auf. Auch wenn ein
Gegenstand linear um denselben Betrag im tatsächlichen Raum verschoben wird, variiert der durch die
Kamera beobachtete Verschiebeweg im Bild, wenn der Abstand von der Kamera zum Gegenstand
unterschiedlich ist. Dieser Unterschied im Verschiebeweg wird als Parallaxe bezeichnet.

- 241 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Wird ein Gegenstand einer bestimmten Höhe verschoben, variiert der Abstand des Objekts von der
Kamera oben und unten am Objekt und der durch die Kamera beobachtete Verschiebeweg variiert
aufgrund des Parallaxeneffekts. Das heißt, dass die Verschiebung des Gegenstands nicht nur zu
Veränderungen in der Position sondern auch der Geometrie im Bild führt.

Nehmen wir z. B. ein Glas wie in Abb. 7.1.5.2 (d) (i) dargestellt an. Wenn Sie das Glas so platzieren, dass
es in ungefähr in der Mitte des Bildes liegt, erfasst die Kamera das Bild von rechts oben und das
resultierende Muster ist ein konzentrischer Doppelkreis wie in Abb. 7.1.5.2 (d) (ii) dargestellt. Wenn Sie
das Glas so platzieren, dass es in der Ecke des Bildes liegt, so ist das resultierende Muster ein
exzentrischer Doppelkreis aufgrund des Parallaxeneffekts wie in Abb. 7.1.5.2 (d) (iii) dargestellt.
Da sich die Muster in Abb. 7.1.5.2 (d) (ii) und Abb. 7.1.5.2 (d) (iii) hinsichtlich ihrer Geometrie
unterscheiden, kann das Muster in Abb. 7.1.5.2 (d) (iii) nicht gefunden werden, auch wenn das Muster in
Abb. 7.1.5.2 (d) (ii) als Modellmuster eingelernt wird.

(i) (ii) (iii)


Abb. 7.1.5.2 (d) Parallaxeneffekt

Um dieses Problem zu vermeiden, müssen alle Teile, bei denen der Abstand zur Kamera ein anderer ist,
maskiert und aus dem Modellmuster entfernt werden. Im Fall des Glases sollte daher entweder der äußere
oder der innere Kreis maskiert werden.

Wie bereits oben beschrieben, toleriert das GPM Locator Tool einen Verzug zwischen dem Modellmuster
und dem Muster im Bild, solange die Verzerrung innerhalb des zulässigen Bereichs liegt. Sind die
Abweichungen in der Geometrie durch den Parallaxenfehler innerhalb des zulässigen Bereichs der
Verzerrung, kann das GPM Locator Tool das Muster finden.
Wenn der Abstand zwischen Kamera und Werkstück vergrößert wird, kann der Parallaxeneffekt
gemildert werden.

<2> Teil, das bei jedem Werkstück anders aussieht

Wenn Sie mit der Kamera ein Bild eines Werkstücks aufnehmen, kann das Bild manchmal ein Merkmal
wie etwa eine Fehlstelle enthalten, die bei jedem Werkstück oder auch jedes Mal, wenn die Position des
Werkstück verändert wird, anders aussieht. Das GPM Locator Tool berücksichtigt solche Merkmale auch,
wenn es das Bild nach einem dem eingelernten Modellmuster identischen Merkmal durchsucht. Daher
kann das Entfernen solcher Merkmale aus dem Modellmuster dazu beitragen, dass das Tool
übereinstimmende Muster präziser finden kann.

Maskieren Sie die folgenden Teile, um sie aus dem Modellmuster zu entfernen:
• Fehlstellen auf dem Werkstück
• Unebenheiten auf der Werkstückoberfläche (z. B. Oberfläche eines Gussteils)
• Teil, das scheinbar glühend aussieht
• Schatten
• Handgeschriebene Buchstaben und Markierungen
• Aufkleber

- 242 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS
<3> Teil, bei dem die Polarität dunkel/hell ungleichmäßig ist

Wird Position oder Ausrichtung eines Gegenstands verändert und ändert sich auch die Art, wie der
Gegenstand beleuchtet ist oder wie Schatten darauf fallen, so ändert sich dadurch die Polarität dunkel/hell
der Figur im Bild. Wie bereits weiter oben beschrieben, betrachtet das GPM Locator Tool ein Muster als
unterschiedlich, wenn dessen Polarität dunkel/hell unterschiedlich ist.

Wenn Sie Bilder von tatsächlichen Werkstücken aufnehmen, kommt es oft vor, dass die Polarität
dunkel/hell in einigen Teilen des Musters umgekehrt erscheint, obwohl insgesamt die Polarität
dunkel/hell des Musters unverändert geblieben ist. Solche Teile sehen bei jedem Werkstück wie unter
<2> beschrieben unterschiedlich aus, das Entfernen solcher Merkmale aus dem Modellmuster kann dazu
beitragen, dass das Tool übereinstimmende Muster präziser findet.

Weitere zu berücksichtigende Punkte


Grundsätzlich kann gesagt werden, dass das Ergebnis umso zuverlässiger gefunden wird, je komplexer
die als Modellmuster eingelernte Geometrie ist. So ist etwa ein kleiner Kreis häufig schwer von einer
Fehlstelle zu unterscheiden. Hat das Modellmuster eine komplexe Geometrie, ist es sehr
unwahrscheinlich, dass ein unbeabsichtigtes Objekt diesem ähnlich sieht.

Exzessives Maskieren des Modellmusters kann Sie in die oben beschriebene Falle tappen lassen.
Maskieren Sie zu viele Teile des Modellmusters, bleibt am Ende ein Muster mit einer sehr einfachen
Geometrie übrig, sodass das Tool ein „unbeabsichtigtes Objekt“ findet, das sich zufällig im Bild befindet.
Es kann auch vorkommen, dass das einzulernende Modellmuster eine „geometrische Form mit nicht
bestimmbarer Position oder Ausrichtung“ aufweist.

7.1.5.3 Gefundenes Muster


In diesem Absatz werden die gefundenen Muster des Locator-Tools erläutert.

Position des gefundenen Musters


Findet das GPM Locator Tool ein mit dem Modellmuster identisches Muster im Bild, gibt es die
Koordinaten des „Modellursprungs“ dieses gefundenen Musters als die „Position des Musters“ aus.

Die Position des Modellursprungs kann an einer beliebigen Stelle gesetzt werden. Wenn Sie das
Modellmuster erstmalig einlernen, ist der Modellursprung in der Mitte des Rechtecks angeordnet, das Sie
zum Einlernen des Modellmusters verwenden. Gleich, wo der Modellursprung angeordnet wird, die
Wahrscheinlichkeit des Findens und die Lokalisierungsgenauigkeit des GPM Locator Tools werden nicht
beeinflusst.

Wenn die Position des Modellursprungs geändert wird, gibt das Tool unterschiedliche Koordinaten aus,
selbst wenn ein Muster an der gleichen Position im Bild erkannt wird. Nach der Veränderung der Position
des Modellursprungs nach dem Festlegen der Sollposition kann auf normale Weise keine Verschiebung
der Roboterposition mehr durchgeführt werden. Es ist zu beachten, dass nach einer Änderung des
Modellursprungs die Sollposition und die eingelernte Roboterposition ebenfalls entsprechend geändert
werden müssen.

Ausrichtung und Skalierung des gefundenen Musters


Findet das GPM Locator Tool ein dem Modellmuster identisches Muster im Bild, gibt es die Ausrichtung
und Skalierung des gefundenen Muster in Relation zum Modellmuster als „Ausrichtung“ und
„Skalierung“ aus.

Die Ausrichtung des gefundenen Musters zeigt an, um wie viel Grad es im Bezug auf das Modellmuster
gedreht ist. Die Skalierung des gefundenen Musters zeigt an, wie oft es im Bezug auf das Modellmuster
vergrößert wurde.

- 243 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Wertigkeit des gefundenen Musters


Das GPM Locator Tool gibt in Form einer Bewertung an, wie ähnlich das im Bild gefundene Muster dem
Modellmuster ist. Diese Bewertung wird als „Wertigkeit“ bezeichnet. Die Wertigkeit ist ein numerischer
Wert im Bereich von 0 bis 100 Punkten. Stimmen die Muster vollständig überein, wird die Wertigkeit mit
100 Punkten angegeben. Besteht gar keine Übereinstimmung, ist die Wertigkeit 0.

Eine Wertigkeit von 70 Punkten gibt zum Beispiel an, dass das Muster im Bild sich zu 30% vom
Modellmuster unterscheidet, das bei ihm Teile vorhanden sind, die „unter anderen Objekten versteckt
sind“, die aufgrund von Lichthofbildung nicht sichtbar sind, oder „Objektivverzeichnung“, einen
„Parallaxenfehler“, „unterschiedliche Polarität Dunkel-Hell“ usw. aufweisen.

Für die Beurteilung, ob einwandfreie Werte ermittelt wurden, sollte der Suchtestlauf wiederholt werden,
während Position und Ausrichtung des Werkstücks im Bild verändert werden. Zielsituation ist die
konstante Erzielung von über 70 Punkten oder besser noch 80 oder mehr Punkten bei der Wertigkeit.

Ist dies nicht der Fall, sollte Folgendes überprüft werden:


• Ist die Linse verschmutzt?
• Ist die Linse fokussiert?
• Ist die Objektivblende korrekt eingestellt?
• Ist die Art der Beleuchtung angemessen?
• Ist die Lichthelligkeit korrekt eingestellt?
• Wurden die in „Maskieren des Modellmusters“ beschriebenen Punkte beachtet?

Elastizität des gefundenen Musters


Das GPM Locator Tool gibt in Form einer Bewertung an, wie stark das im Bild gefundene Muster im
Vergleich mit dem Modellmuster verzerrt ist. Diese Bewertung wird als „Elastizität“ bezeichnet. Die
Elastizität beträgt 0 Pixel, wenn das gefundene Muster dem Modellmuster vollständig entspricht. Der
Wert beträgt 0,4 Pixel, wenn einige Teile des gefundenen Muster vollständig übereinstimmen und einige
Teile um 1 Pixel mit einer mittleren Abweichung von 0,4 Pixel abweichen. Je kleiner der Wert ist, umso
weniger Verzerrungen weist das gefundene Muster gegenüber dem Modellmuster auf.

Für die Beurteilung, ob einwandfreie Werte ermittelt wurden, sollte der Suchtestlauf wiederholt werden,
während Position und Ausrichtung des Werkstücks im Bild verändert werden. Zielsituation ist die
konstante Erzielung eines Elastizitätswerts von unter 1,0 Pixel, vorzugsweise aber 0,5 Pixel oder weniger.

Ist dies nicht der Fall, sollte Folgendes überprüft werden:


• Ist die Linse fokussiert?
• Ist die Objektivblende korrekt eingestellt?
• Ist die Art der Beleuchtung angemessen?
• Ist die Lichthelligkeit korrekt eingestellt?
• Wurden die in „Maskieren des Modellmusters“ beschriebenen Punkte beachtet?

- 244 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Kontrast des gefundenen Musters


Zusätzlich zur Wertigkeit und Elastizität gibt es einen weiteren Bewertungsparameter, den das GPM
Locator Tool ermitteln kann: den Kontrast. Dieser Wert gibt an, wie deutliche das im Bild gefundene
Muster gesehen werden kann. Der Wert für den Kontrast liegt zwischen 1 und 255. Umso größer der
Wert, desto deutlicher das Muster.

Der Kontrast spielt keine Rolle bei der Ermittlung, ob das Muster identisch mit dem Modellmuster ist.
Als Beispiel betrachten wir die Ellipse in Abb. 7.1.5.3 (i) und Abb. 7.1.5.3 (ii).
Da die Ellipse in Abb. 7.1.5.3 (i) deutlich erkennbar ist, hat sie einen höheren Kontrastwert als diejenige
in Abb. 7.1.5.3 (ii). Dennoch haben die beiden Ellipsen die gleiche Wertigkeit, da ihre Geometrie und
Polarität Dunkel-Hell gleich sind. Ist jedoch ein Teil der Ellipse in Abb. 7.1.5.3 (ii) aufgrund eines
niedrigen Kontrasts unsichtbar, wird die Wertigkeit des Musters entsprechend reduziert.

(i) Hoher Kontrast (ii) Niedriger Kontrast


Abb. 7.1.5.3 Kontrast

Für die Beurteilung, ob einwandfreie Werte ermittelt wurden, sollte der Suchtestlauf wiederholt werden,
während Position und Ausrichtung des Werkstücks im Bild verändert werden. Zielsituation ist die
konstante Erzielung eines Kontrastwerts von 50 oder mehr. Der Bildkontrast unterliegt ebenfalls starken
Schwenkungen abhängig von den Wetterbedingungen und der Tageszeit. Stellen Sie sicher, dass
Kontrastwerte von 50 oder mehr während unterschiedlicher Zeitzonen innerhalb des Tages erzielt werden.

Ist dies nicht der Fall, sollte Folgendes überprüft werden:


• Ist die Linse verschmutzt?
• Ist die Linse fokussiert?
• Ist die Objektivblende korrekt eingestellt?
• Ist die Art der Beleuchtung angemessen?
• Ist die Lichthelligkeit korrekt eingestellt?
• Ist Umgebungslicht vorhanden?

- 245 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.1.5.4 Lokalisierungsparameter
In diesem Abschnitt sind die Richtlinien zum Anpassen der Parameter des GPM Locator Tools
aufgeführt.

Search Window (Suchfenster)


Gibt den nach dem Muster zu durchsuchenden Bereich des mit der Kamera aufgenommenen Bilds an.
Als Standardwert ist das ganze Bild eingestellt.

Die Größe des Suchfensters wird durch die Anwendung bestimmt, die das GPM Locator Tool verwendet.
Wenn etwa das Werkstück wahrscheinlich irgendwo im Bild auftaucht, sollte das gesamte Bild gewählt
werden. Wenn das Werkstück wahrscheinlich immer ungefähr an der gleichen Stelle in jeder Aufnahme
erscheint, kann das Suchfenster schmaler gewählt werden.

Der Lokalisierungsprozess wird umso schneller durchgeführt, je schmaler das Suchfenster ist.

Wird eine Objektivart gewählt, mit der ein weiterer Kameraerfassungsbereich möglich ist, kann das
Suchfenster schmaler gewählt werden. Diese Vorgehensweise wird jedoch nicht empfohlen, da sich
dadurch die Lokalisierungsgenauigkeit verschlechtert. Bestimmen Sie die Skalierung des
Kameraerfassungsbereichs entsprechend der Größe der Abweichung vom gefundenen Werkstück und
geben Sie dann die Größe des Suchfensters im Bild auf der Grundlage dieser Skalierung an.

Run-Time Mask (Laufzeitmaske)


Innerhalb des als Suchfenster bestimmten Bereichs können Masken gesetzt werden.
Verwenden Sie diese Funktion, wenn Sie eine kreisförmige oder andere nicht-rechteckige Geometrie als
Suchbereich angeben möchten.

Ausrichtungsbereich
Wählen Sie, ob die Ausrichtung bei der Suche ignoriert werden soll.

<1> Ausrichtung bei der Suche ignorieren


<2> Ausrichtung bei der Suche innerhalb des Bereichs berücksichtigen, der durch Ober- und Untergrenze
bestimmt wird.

Wenn Sie zum Beispiel die in Abb. 7.1.5.4 (a) (i) dargestellte Geometrie einlernen und das von der
Kamera erfasste Bild zeigt das Werkstück mit der gleichen Geometrie, jedoch um 5 Grad gedreht.

Wenn Sie <1> angeben, wird die Ausrichtung bei der Suche ignoriert.
Das Tool beachtet nur die durch den Sollwert vorgegebene Ausrichtung und findet solche Muster, die
nicht wie dasjenige in Abb. 7.1.5.4 (a) (ii) gedreht sind. Jegliche Abweichung von der Ausrichtung wird
als geometrische Verzerrung betrachtet und die Wertigkeit wird entsprechend reduziert.

Wenn Sie <2> angeben, wird die Ausrichtung bei der Suche innerhalb des Bereichs berücksichtigt, der
durch Ober- und Untergrenze bestimmt wird. Daher kann auch ein in Abb. 7.1.5.4 (a) (iii) dargestelltes
Muster als ein vollständig übereinstimmendes Muster gefunden werden.

Im Fall <2> muss beachtet werden, dass ein Muster nicht gefunden wird, wenn seine Ausrichtung auch
nur geringfügig außerhalb des durch die Ober- und Untergrenze bestimmten Ausrichtungsbereichs liegt.
Wenn Sie z. B. ein gleichschenkliges Dreieck als Modellmuster eingelernt haben, ist das Tool
mathematisch in der Lage, jedes Dreieck zu finden, wenn Sie den Ausrichtungsbereich von −60 Grad bis
+60 Grad angeben. Tatsächlich jedoch kann es jedoch vorkommen, dass einige Dreiecke nicht in diesem
Bereich liegen, wie etwa bei −60,3 Grad und +60,2 Grad. Um diese Problem zu vermeiden, muss der
Ausrichtungsbereich mit geringen Toleranzen wie etwa von −63 Grad bis +63 Grad gesetzt werden.

- 246 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS
Die Dauer des Lokalisierungsprozess ist bei <1> kürzer als bei <2>. Wenn Sie <2> angeben, benötigt der
Lokalisierungsprozess bei einem schmaleren Ausrichtungsbereich weniger Zeit.

(i) Modellmuster (ii) Sollausrichtung 0° (iii) Ausrichtungsbereich ± 180°


Abb. 7.1.5.4 (a) Ausrichtungsbereich

Skalierungsbereich
Wählen Sie, ob die Skalierung bei der Suche ignoriert werden soll.

<1> Skalierung bei der Suche ignorieren


<2> Skalierung bei der Suche innerhalb des Bereichs berücksichtigen, der durch Ober- und Untergrenze
festgelegt ist.

Lernen Sie zum Beispiel die in Abb. 7.1.5.4 (b) (i) dargestellte Geometrie ein, und das von der Kamera
erfasste Bild zeigt das Werkstück mit der gleichen Geometrie, jedoch um 3% vergrößert an.

Wenn Sie <1> angeben, wird die Skalierung bei der Suche ignoriert. Das Tool beachtet nur die durch den
Sollwert vorgegebene Skalierung und findet Muster, die nicht wie dasjenige in Abb. 7.1.5.4 (b) (ii)
vergrößert sind. Jegliche Abweichung von der Skalierung wird als geometrische Verzerrung betrachtet
und die Wertigkeit wird entsprechend reduziert.

Wenn Sie <2> angeben, wird die Skalierung bei der Suche innerhalb des durch Ober- und Untergrenze
vorgegebenen Bereichs berücksichtigt. Daher kann auch ein Muster wie in Abb. 7.1.5.4 (b) (iii) als
vollständig übereinstimmendes Muster gefunden werden. Im Fall <2> muss beachtet werden, dass ein
Muster nicht gefunden wird, wenn seine Skalierung auch nur geringfügig außerhalb des durch Ober- und
Untergrenze bestimmten Bereichs liegt.

Die Dauer des Lokalisierungsprozess ist bei <1> kürzer als bei <2>. Wenn Sie <2> angeben, benötigt der
Lokalisierungsprozess weniger Zeit, wenn der Skalierungsbereich schmaler ist.

(i) Modellmuster (ii) Sollskalierung 100% (iii) Skalierungsbereich ± 10%


Abb. 7.1.5.4 (b) Skalierungsbereich

- 247 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Hinweis zur Skalierung


Eine Änderung der Skalierung oder der Größe der Figur im von der Kamera erfassten Bilds bedeutet, dass
sich der Abstand zwischen der Kamera und dem Werkstück verändert hat. Wenn sich, wie bereits für die
Parallaxe gesagt, der Abstand zwischen Kamera und Werkstück ändert, ändert sich der tatsächliche
Verschiebeweg des Objekts auch dann, wenn der offensichtliche Verschiebeweg im Bild gleich bleibt.
Daher ist das Tool durch eine Änderung des Abstands zwischen Kamera und Werkstück nicht mehr in der
Lage, den tatsächlichen Verschiebeweg des Objekts korrekt aus dem Verschiebeweg des Gegenstands im
Bild zu berechnen. Dadurch kann die präzise Verschiebung der Roboterposition verhindert werden.

Wurde die offensichtliche Skalierung verändert, obwohl der Abstand zwischen Kamera und Werkstück
sich nicht verändert hat, kann eine Veränderung des Zooms oder des Fokus des Objektivs die Ursache
sein. In einem solchen Fall können Sie durch eine ebenfalls durchgeführte Skalierungssuche das GPM
Locator Tools veranlassen, dass der Lokalisierungsprozess selbst abgeschlossen werden kann. Dadurch
jedoch ist das Tool nicht mehr in der Lage, den tatsächlichen Verschiebeweg des Objekts korrekt aus dem
Verschiebeweg des Gegenstands im Bild zu berechnen und dadurch wird die genaue Verschiebung der
Roboterposition verhindert.

Stellen Sie bei Verwendung der Skalierungssuche sicher, dass nicht nur das GPM Locator Tool, sondern
auch die gesamte Anwendung einschließlich der Verschiebung der Roboterposition, für solche Fälle
vorbereitet werden, bei denen Muster mit verschiedenen Skalierungen gefunden werden.

Schwellenwert der Wertigkeit


Geben Sie den Schwellenwert der Wertigkeit für ein zu findendes Muster an. Ein Muster im Bild wird
nicht gefunden, wenn seine Wertigkeit niedriger als der angegebene Schwellenwert ist. Standardmäßig
sind 70 Punkte eingestellt.

Zur Bestimmung des Schwellenwerts sollte der Suchtestlauf wiederholt werden, während Position und
Ausrichtung des Werkstücks im Bild verändert werden. Ermitteln Sie die schlechteste Wertigkeit, ziehen
Sie von dieser 5 bis 10 Punkte ab und setzen Sie den so ermittelten Wert.

Wird der Schwellenwert der Wertigkeit herabgesetzt, wird das GPM Locator Tool gezwungen, viele Teile
des Bilds zu untersuchen, bei denen potentiell ein Muster gefunden werden kann, woraus ein längerer
Lokalisierungsprozess resultiert. Umgekehrt kann das Erhöhen des Schwellenwerts der Wertigkeit zu
einer Eingrenzung der zu untersuchenden Teile führen, woraus eine kürzere Lokalisierungsdauer
resultiert.

Muss der Schwellenwert der Wertigkeit auf weniger als 60 herabgesetzt werden, ist häufig die Einstellung
des Objektivs oder Lichts nicht angemessen. Bevor ein niedriger Schwellenwert gesetzt wird, sollte
Folgendes überprüft werden:
• Ist die Linse verschmutzt?
• Ist die Linse fokussiert?
• Ist die Objektivblende korrekt eingestellt?
• Ist die Art der Beleuchtung angemessen?
• Ist die Lichthelligkeit korrekt eingestellt?
• Wurden die in „Maskieren des Modellmusters“ beschriebenen Punkte beachtet?
• Wurde die Objektiveinstellung sei dem Einlernen des Modellmusters verändert?
• Wurde der Abstand zwischen Kamera und Werkstück seit dem Einlernen des Modellmusters
verändert?

- 248 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Kontrastschwellenwert
Geben Sie den Kontrastschwellenwert für ein zu findendes Muster an. Ein Muster im Bild wird nicht
gefunden, wenn sein mittlerer Kontrast niedriger ist als der angegebene Schwellenwert.
Der Kontrastschwellenwert liegt im Bereich von 10 bis 255. Der Standardwert ist 50.

Zur Bestimmung des Schwellenwerts sollte der Suchtestlauf wiederholt werden, während Position und
Ausrichtung des Werkstücks im Bild verändert werden. Ermitteln Sie den niedrigsten Kontrastwert und
setzen Sie den Wert, nachdem Sie davon etwa 10 abgezogen haben. Der Kontrast unterliegt starken
Schwankungen abhängig von Tageszeit, Wetterbedingungen, usw. Führen Sie Versuche in verschiedenen
Zeitzonen an verschiedenen Tagen durch, um den Schwellenwert zu validieren.

Eine höhere Kontrastschwelle verkürzt den Lokalisierungsprozess.


Falls es erforderlich sein sollte, den Kontrastschwellenwert auf weniger als 20 herabzusetzen, ist häufig
die Einstellung von Objektiv oder Licht nicht angemessen. Bevor ein niedriger Schwellenwert gesetzt
wird, sollte Folgendes überprüft werden:
• Ist die Linse verschmutzt?
• Ist die Linse fokussiert?
• Ist die Objektivblende korrekt eingestellt?
• Ist die Art der Beleuchtung angemessen?
• Ist die Lichthelligkeit korrekt eingestellt?
• Wurden die in „Maskieren des Modellmusters“ beschriebenen Punkte beachtet?

Zulässige Elastizität
Geben Sie die Elastizitätsobergrenze in Relation zum Modellmuster für ein zu findendes Muster an.
Die zulässige Elastizität muss in Pixel angegeben werden. Der Standardwert ist 1,5 Pixel.

Dieser Standardwert muss nur selten geändert werden. Es ist nicht ratsam, einen großen Wert für die
zulässige Elastizität zu setzen, außer im Fall eines taschenförmigen Werkstücks, dessen Geometrie
veränderlich ist.

Im Folgenden wird unter Verwendung eines recht extremen Beispiels erläutert, welcher Unterschied
besteht, wenn ein kleiner oder ein großer Wert für die zulässige Elastizität gesetzt wird. Angenommen
Sie haben einen Kreis wie den in Abb. 7.1.5.4 (c) (i) als Modellmuster eingelernt, und Sie haben ein
Fünfeck im Bild, wie in Abb. 7.1.5.4 (c) (ii) dargestellt. Wird für die zulässige Elastizität ein kleiner Wert
gesetzt, wird das Muster in Abb. 7.1.5.4 (c) (ii) nicht gefunden, da seine Geometrie als unterschiedlich
eingestuft wird. Wird für die zulässige Elastizität ein großer Wert gesetzt, wird jedoch sogar das Muster
in Abb. 7.1.5.4 (c) (iii) als von gleicher Geometrie eingestuft und gefunden.

Allowable
Zulässiger Allowable
Zulässiger

range
Bereich range
Bereich

(i) Modellmuster (ii) Zulässiger Bereich ±1,5 Pixel (iii) Zulässiger Bereich ±4,0 Pixel
Abb. 7.1.5.4 (c) Zulässiger Elastizitätsbereich

Wird für die zulässige Elastizität ein großer Wert gesetzt, muss das GPM Locator Tool viele verzerrte
Geometrien berücksichtigen und das Finden eines Musters dauert länger. Umgekehrt verkürzt das Setzen
eines kleinen Werts die Lokalisierungszeit.

- 249 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Wird für die zulässige Elastizität ein großer Wert gesetzt, scheint es, dass Muster mit hohen Wertigkeiten
gefunden werden können. Diese Einstellung ist jedoch anfällig für falsche Lokalisierung oder ein
übereinstimmendes Muster kann nicht gefunden werden.
Das kann auch aus dem Beispiel in Abb. 7.1.5.4 (c) (iii) geschlossen werden. Denken Sie daran, dass das
Einstellen eines großen Werts für die zulässige Elastizität generell zu häufig falsch gefundenen Zielstellen
führen kann.

Einen Hervorhebungsbereich verwenden


Nach dem Einlernen eines Modellmusters können Sie angeben, dass ein bestimmter Teil des
Modellmusters beachtet werden soll. Solch ein Teil wird als Hervorhebungsbereich bezeichnet. In den im
Folgenden beschriebenen Fällen ermöglicht die Angabe eines Hervorhebungsbereichs eine stabile
Musterlokalisierung.

<1> Wenn die Position nicht ohne Beachtung eines kleinen Bereichs bestimmt werden kann

Position und Ausrichtung der beiden Muster in Abb. 7.1.5.4 (d) können eindeutig bestimmt werden.
Ohne die von den Kästen mit der gestrichelten Line eingeschlossenen Teile würden sie als „geometrische
Formen mit nicht bestimmbarer Position oder Ausrichtung“ klassifiziert werden. Was die von den Kästen
mit der gestrichelten Line eingeschlossenen Teile unterscheidet ist, dass sie relativ klein im Vergleich mit
dem gesamten Modellmuster sind.

In solchen Fällen wird die Ausrichtung oder Position von dem Tool nicht korrekt gefunden, da das Muster
als Ganzes gut zu entsprechen scheint, obwohl der von dem Kasten mit der gestrichelten Line
eingeschlossene Teil nicht erkannt werden kann.

Geben Siethese
Specify solcheparts
Teile als
as
Hervorhebungsbereich an.
emphasis areas.

(i) Federnut in einem Kreis (ii) Linie und kleiner Kreis


Abb. 7.1.5.4 (d) Hervorhebungsbereich

Der Mensch achtet unbewusst auf solche kleinen Teile, während das GPM Locator Tool dazu eingelernt
werden muss. Solche kleinen Teile, die besonderer Beachtung bedürfen, werden als
„Hervorhebungsbereich“ bezeichnet. Durch Einlernen von Hervorhebungsbereichen kann das GPM
Locator Tool in die Lage versetzt werden, Position und Ausrichtung präziser zu finden.

Kann der als Hervorhebungsbereich angegebene Teil nicht im Bild erkannt werden, wird das Muster nicht
gefunden, da das Tool nicht verifizieren kann, dass das richtige Muster gefunden wurde.

<2> Wenn ein falsches Muster gefunden wird, obwohl eine kleiner Bereich beachtet wird

Angenommen Sie haben zwei Muster wie in den Abb. 7.1.5.4 (e) (i) und (ii), die im Bild vermischt sind,
und das Tool soll nur das Muster in Abb. 7.1.5.4 (e) (ii) finden. Sie lernen das Muster in Abb. 7.1.5.4 (e)
(ii) als Modellmuster ein. Obwohl das Muster in Abb. 7.1.5.4 (e) (i) im Grunde genommen außer dem
Fehlen des weißen Kreises die gleiche Geometrie aufweist und damit eine Wertigkeit von 90 Punkten
oder mehr erhält, ist es für das Tool schwierig, nur das Muster in Abb. 7.1.5.4 (e) (ii) zu finden. Geben
Sie in einem solchen Fall den weißen Kreis, der nur im Muster in Abb. 7.1.5.4 (e) (ii) enthalten ist, als
Hervorhebungsbereich an. Dadurch kann das Tool nur das Muster in Abb. 7.1.5.4 (e) (ii) mit dem weißen
Kreis zuverlässiger finden.

- 250 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS
Kann der als Hervorhebungsbereich angegebene Teil nicht im Bild erkannt werden, wird das Muster nicht
gefunden, da das Tool nicht verifizieren kann, dass das richtige Muster gefunden wurde.

Wenn Sie dagegen wollen, dass nur das Muster in Abb. 7.1.5.4 (e) (i) gefunden wird, ist es für das
Locator Tool allein unmöglich, diese Unterscheidung zu treffen. In diesem Fall können Sie ein Hilfstool,
wie z. B. ein Blob-Tool verwenden, um den weißen Kreis zu finden und gleichzeitig ein Conditional
Execution Tool, das das gefundene Muster verwirft, wenn der weiße Kreis vorhanden ist.

(i) (ii)
Abb. 7.1.5.4 (e) Hervorhebungsbereich

Schwellenwert des Hervorhebungsbereichs


Zusätzlich zur Wertigkeit für das gesamte Modellmuster kann ein Schwellenwert angegeben werden, der
bestimmt, wie viel des Hervorhebungsbereichs übereinstimmen muss, damit das Muster gefunden wird.
Standardmäßig sind 70 Punkte eingestellt.

Genau wie beim Schwellenwert der Wertigkeit ist es auch hier nicht empfehlenswert, einen niedrigen
Wert für diesen Schwellenwert einzustellen (der Wert sollte mindestens 50 Punkte sein). Durch das
Setzen eines zu kleinen Wertes wird die Verwendung eines Hervorhebungsbereichs nutzlos.

Eine Positionsabweichung des Hervorhebungsbereichs zulassen


Wenn Sie einen Hervorhebungsbereich für die Lokalisierung verwenden, können Sie angeben, dass ein
Hervorhebungsbereich auch dann erlaubt ist, wenn seine Position um zwei oder drei Pixel im Bezug auf
die Position des gesamten Modellmusters abweicht.

Angenommen Sie lernen das Muster in Abb. 7.1.5.4 (f) (i) als Modellmuster ein und geben das weiße
Dreieck als Hervorhebungsbereich an. Ohne das Dreieck kann das Tool nur nach dem Muster eines
Rechtecks bei ±90 Grad suchen. Mit dem Dreieck jedoch kann das Tool die Suche mit ±180 Grad
durchführen. Das bedeutet, dass das Dreieck verwendet wird, um zwischen 0 und 180 Grad zu
unterscheiden.

(i) (ii)
Abb. 7.1.5.4 (f) Schwebender Hervorhebungsbereich

Um nun jedoch die Sache zu komplizieren, handelt es sich bei dem Dreieck um eine Markierung auf
einem auf dem Verpackungskarton befestigten Aufkleber. Nehmen wir nun an, dass der Aufkleber bei
den meisten Paketen an der gleichen Stelle angebracht ist; bei manchen aber woanders. Im letzteren Fall
stimmt der Hervorhebungsbereich im Modellmuster nicht mit dem Dreieck im Bild überein, wie durch die
gepunktete Linie in Abb. 7.1.5.4 (f) (ii) dargestellt, und das Tool kann das Muster nicht finden, da es
annimmt, dass der Hervorhebungsbereich nicht übereinstimmt. Das Muster kann nun gefunden werden,
indem dem Tool die Positionsabweichung des Hervorhebungsbereichs eingelernt wird. Dann kann auch
eine dem Hervorhebungsbereich identische Figur gefunden werden, die um zwei oder drei Pixel abweicht.
Wird diese Funktion verwendet, benötigt das Tool länger, um ein Muster zu finden. Je nach Art des Bilds
(insbesondere bei komplexen Bildern mit starkem Rauschen), kann eine falsche Lokalisierung auftreten.
Bevor diese Funktion eingesetzt wird, sollte ihre Wirksamkeit gründlich getestet werden.

- 251 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Area Overlap (Bereichsüberlappung)


Wenn die im Bild gefundenen Muster sich mehr als um das angegebene Verhältnis überlappen, lässt das
GPM Locator Tool nur das Muster mit der höchsten Wertigkeit zu und löscht die anderen.

Wird z. B. ein gleichschenkliges Dreieck wie dasjenige in Abb. 7.1.5.4 (g) (i) als Modellmuster eingelernt
und der Ausrichtungsbereich liegt zwischen −180 Grad bis +180 Grad, erkennt das GPM Locator Tool,
dass ein Muster in drei verschiedenen Ausrichtungen übereinstimmt, wie in Abb. 7.1.5.4 (f) (ii)
dargestellt. Da sich diese drei Muster jedoch überlappen, lässt das Tool nur dasjenige mit der höchsten
Wertigkeit zu und ignoriert die anderen.

(i) (ii)
Abb. 7.1.5.4 (g) Überlappungseinschränkung

Ob sich zwei Muster überlappen wird dadurch bestimmt, ob der Bereich, in dem sich die rechteckigen
Rahmen des Musters überlappen, größer ist als das für die Überlappungseinschränkung angegebene
Verhältnis. Ist das Verhältnis des Überlappungsbereichs größer als der angegebene Wert, werden die
Muster als sich überlappend eingestuft. Geben Sie nun 100% als Überlappungseinschränkung an, löscht
das Tool die sich überlappenden Muster nicht, außer, sie überlappen einander komplett (d. h. sie haben
eine vollständig identische Geometrie).

Beinahe gefundene Muster anzeigen


Sie können vorgeben, dass das GPM Locator Tool diejenigen Muster anzeigt, die beinahe gefunden
wurden und den gesetzten Schwellenwert oder Bereich knapp verfehlt haben. Diese Funktion steht nur
beim Testlauf des GPM Locator Tools zur Verfügung.

Das Aktivieren dieser Funktion informiert Sie darüber, dass Muster vorhanden sind, die aus den unten
aufgeführten Gründen nicht erkannt wurden, was für Sie eine Hilfe beim Einstellen der
Lokalisierungsparameters darstellt.

• Muster, dessen Wertigkeit knapp unter dem Schwellenwert liegt


• Muster, dessen Kontrast knapp unter dem Schwellenwert liegt
• Muster, dessen Hervorhebungsbereich knapp unter dem Schwellenwert liegt
• Muster, dessen Ausrichtung knapp außerhalb des Bereichs liegt
• Muster, dessen Skalierung knapp außerhalb des Bereichs liegt

Es muss beachtet werden, dass diese Funktion keine Garantie dafür darstellt, dass das Tool alle Muster,
„deren Wertigkeit um einen gewissen Prozentsatz niedriger ist als der Schwellenwert“ oder solche mit
ähnlichen weiteren Kriterien anzeigt. Diese Funktion dient nur dazu, dass das Tool Muster anzeigt, von
denen eine Übereinstimmung mit den aktuellen Einstellungen bezüglich Schwellenwert oder Bereich
nicht festgestellt werden konnte, die aber die obengenannten Kriterien bei der Mustersuche aufwiesen.

- 252 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.2 LOCATOR TOOL FÜR GERUNDETE OBERFLÄCHEN


Das Locator Tool für gerundete Oberflächen ist ein Bildverarbeitungstool, das Abstufungen (Wechsel
Hell-Dunkel oder umgekehrt) erkennt. Es überprüft ein von der Kamera erfasstes Bild für das gleiche
Muster, wie ein vorher eingelerntes Modellmuster und gibt dessen Lage aus. Wenn Sie das Locator Tool
für gerundete Oberflächen in der Verzeichnisstruktur der Einrichtungsseite des Bilderkennungsprozesses
auswählen, erscheint ein Bildschirm wie unten dargestellt.

Input Image (Eingabebild)


Wählen Sie das Bild aus, das für Programmierung und Erkennung eines Modells verwendet wird. Verfügt
der Bilderkennungsprozess über ein Image Filter Tool (Bildfiltertool) oder ein Color Extraction Tool
(Farbextraktionstool), können Sie ein gefiltertes Bild als Eingabebild für das Locator Tool für gerundete
Oberflächen anstelle des von der Kamera aufgenommenen Originalbilds auswählen.
Weitere Informationen finden Sie in den Abschnitten 7.25 „Image Preprocess Tool“, 7.26
„Image Filter Tool“ und 7.27 „Color Extraction Tool“.

- 253 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.2.1 Ein Modell einrichten


Lernen Sie das Modellmuster des zu findenden Werkstücks ein.

Modellmuster einlernen
Lernen Sie das Modellmuster wie folgt ein:

1 Drücken Sie F2 LIVE, um in die Live-Kamerabildanzeige zu wechseln.


2 Platzieren Sie das Werkstück nahe der Mitte des Kameraerfassungsbereichs.
3 Drücken Sie F2 STOP und dann F3 SNAP, um das Bild des Werkstücks aufzunehmen.
4 Wählen Sie in [Image Display Mode] die Option [Image + Image Feature] und stellen Sie den Wert
in [Contrast Threshold] für die Ausführung (unter [Score Threshold]) ein, um die für das Modell
geeignete Kontrastschwelle zu bestimmen.
5 Geben Sie den festgelegten Schwellenwert in [Next] als [Contrast Threshold] zum Einlernen des
Modells (über der Taste [Teach Pattern]), und setzen Sie [Contrast Threshold] für die Ausführung
(unter [Score Threshold]) auf seinen ursprünglichen Wert zurück.
6 Tippen Sie auf die Taste [Teach].
7 Platzieren Sie das Werkstück im angezeigten roten Rechteck und drücken Sie dann F4 OK.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

- 254 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Training Stability (Programmierzuverlässigkeit)


Die Ergebnisse der Auswertung für die Optionen [Location], [Orientation] und [Scale] des eingelernten
Modells werden als eine der folgenden drei Bewertungsstufen angezeigt:

Good (Gut): Kann zuverlässig gefunden werden.


Poor (Schlecht): Kann nicht sehr zuverlässig gefunden werden.
None (Nicht vorhanden): Kann nicht gefunden werden.

Programmierungsmaske
Sind bei dem eingelernten Modellmuster unnötige Dinge im Hintergrund oder unerwünschte oder falsche
Merkmale vorhanden, die nicht bei allen anderen Teilen gefunden werden oder auch Fehlstellen, können
Sie diese aus dem Muster entfernen, indem Sie diesen Teil mit roter Farbe ausfüllen.

Um eine Programmierungsmaske zu editieren, tippen Sie auf die Taste [Edit] auf der Linie [Training
Mask]. Wenn eine vergrößerte Ansicht des Modellmusters auf der Bildanzeigesteuerung angezeigt wird,
füllen Sie die unnötigen Teile des Modellmusters mit roter Farbe. Ausführliche Informationen zur
Verfahrensweise finden Sie in Abschnitt 3.7.10 „Maskenbearbeitung“.

- 255 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Model Origin (Modellursprung)


Der Modellursprung ist der Punkt, der numerisch den Ort des gefundenen Musters darstellt.
Die Koordinaten (Zeile, Spalte) des Orts des gefundenen Musters geben den Ort des Modellursprungs an.
Bei der Bildanzeige der gefundenen Ergebnisse wird der Modellursprung durch angezeigt.
Um den Modellursprung manuell zu verschieben, tippen Sie auf die Taste [Set Org]. Eine vergrößerte
Ansicht des Modellmusters wird auf der Bildanzeigesteuerung angezeigt und erscheint an der
aktuellen Position des Modellursprungs. Verschieben Sie mit der Maus, um den Modellursprung zu
verschieben. Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.8 „Punkte
festlegen“.

Model ID (Modell-ID)
Wenn Sie zwei oder mehr Locator Tools für gerundete Oberflächen eingelernt haben und erkennen
möchten, welchem Tool das gefundene Werkstück entspricht, weisen Sie einem jeden Tool eine
eindeutige Modell-ID zu. Die Modell-ID des gefundenen Modellmusters wird zusammen mit den Offset-
Daten an die Robotersteuerung gesendet. Dadurch kann das Roboterprogramm den Typ des gefundenen
Modells erkennen.

7.2.2 Lokalisierungsparameter einstellen


Stellen Sie die Lokalisierungsparameter ein.

Score Threshold (Schwellenwert der Wertigkeit)


Die Genauigkeit der gefundenen Ergebnisse wird durch eine Wertigkeit ausgedrückt, wobei die höchste
100 ist. Das Zielobjekt wird erfolgreich gefunden, wenn seine Wertigkeit gleich oder höher als dieser
Schwellenwert ist. Liegt die Wertigkeit darunter, wird das Zielobjekt nicht gefunden. Stellen Sie einen
Wert zwischen 10 und 100 ein. Der Standardwert lautet 50. Wird ein kleinerer Wert gesetzt, kann dies zu
ungenauer Lokalisierung führen.

Contrast Threshold (Kontrast-Schwellenwert)


Gibt die Kontrastschwelle für die Suche an. Der Standardwert ist 10. Wird ein kleinerer Wert eingestellt,
ist das Tool in der Lage, das Ziel auch in undeutlichen Bildern zu finden, jedoch dauert der
Lokalisierungsprozess länger. Der Minimalwert ist 1. Neigt das Tool dazu, unangemessenerweise
Fehlstellen und andere unerwünschte Kanten mit niedrigem Kontrast zu finden, sollte versucht werden,
einen größeren Wert zu setzen. Die Bildmerkmale, deren Kontrast niedriger als der Schwellenwert ist,
werden ignoriert. Wenn Sie [Image+Image Feature] in [Image Display Mode] wählen, können Sie die mit
dem aktuellen Schwellenwert extrahierten Bildmerkmale prüfen.
Area Overlap (Bereichsüberlappung)
Ist das Verhältnis der Überlappung des gefundenen Objekts größer als das hier angegebene Verhältnis,
wird das gefundene Ergebnis für das Werkstück mit der niedrigeren Wertigkeit gelöscht und nur das mit
der höheren Wertigkeit bleibt übrig. Das Überlappungsverhältnis wird durch den Bereich bestimmt, in
dem sich die äußeren rechteckigen Rahmen der Modelle überlappen. Wenn Sie 100% als Grenzwert
angeben, werden die gefundenen Ergebnisse nicht gelöscht, auch wenn sich die Werkstücke überlappen.

Search Window (Suchfenster)


Gibt den zu durchsuchenden Bereich des Bildbereichs an. Der Lokalisierungsprozess wird umso schneller
durchgeführt, je kleiner das Suchfenster ist. Als Standardwert ist das ganze Bild eingestellt. Tippen Sie
auf die Taste [Set], um das Suchfenster zu verändern. Erscheint ein Rechteck im Bild, stellen Sie dessen
Geometrie wie beim Einlernen eines Modells ein. Ausführliche Informationen zur Verfahrensweise
finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

- 256 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Run-Time Mask (Laufzeitmaske)


Geben Sie einen Bereich des Suchfensters an, das Sie von der Verarbeitung ausschließen wollen. Dies
kann z. B. eine beliebige Geometrie sein. Verwenden Sie diese Funktion, wenn Sie ein willkürlich
geformtes Suchfenster, wie etwa ein kreis- oder ringförmiges Fenster angeben möchten. Der ausgefüllte
Bereich wird im als Suchfenster angegebenen Rechteck maskiert und bei der Bildverarbeitung nicht
berücksichtigt. Tippen Sie auf die Taste [Edit], um die Laufzeitmaske zu ändern. Ausführliche
Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.10 „Maskenbearbeitung“.

Freiheitsgrad der Ausrichtung


Geben Sie den zu durchsuchenden Ausrichtungsbereich an. Das Tool sucht nach einem Modell, das im
angegebenen Bereich zwischen [Minimum] und [Maximum] gedreht ist, wobei die Ausrichtung des
eingelernten Modells 0 Grad beträgt. Es kann sowohl bei [Minimum] als auch bei [Maximum] ein
Bereich von -360 bis +360 Grad angegeben werden. Der Suchprozess wird umso schneller durchgeführt,
je schmaler der Bereich für die Ausrichtung ist. Wird ein Bereich über 360 Grad angegeben, wird der
Bereich automatisch auf 360 Grad korrigiert, während der Bilderkennungsprozess durchgeführt wird.

Wenn Sie dieses Kontrollkästchen deaktivieren, wird die Ausrichtung ignoriert und das Tool sucht nur
nach einem Modell, dessen Ausrichtung in [Nominal] angegeben ist.

Standardmäßig ist die Ausrichtungssuche aktiviert und der Bereich beträgt -180 bis +180 Grad.

Freiheitsgrad der Skalierung


Geben Sie den zu durchsuchenden Bereich für die Skalierung an. Beträgt die Größe des eingelernten
Modells 100%, sucht das Tool nach einem Modell, das um das in [Minimum] und [Maximum]
angegebene Verhältnis reduziert ist. Es kann sowohl bei [Minimum] als auch bei [Maximum] ein Bereich
von 30% bis 160% angegeben werden. Der Suchprozess wird umso schneller durchgeführt, je schmaler
der Abmessungsbereich ist.

Wenn Sie dieses Kontrollkästchen deaktivieren, wird die Skalierung ignoriert und das Tool sucht nur
nach einem Modell, dessen Skalierung in [Nominal] angegeben ist.

Standardmäßig ist die Skalierungssuche deaktiviert.

Time-out (Zeitüberschreitung)
Benötigt der Lokalisierungsprozess länger als die hier angegebene Dauer, beendet das Tool den Prozess,
ohne dass alle Werkstücke gefunden wurden.

- 257 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Result Plotting Mode (Ergebnisdarstellungsmodus)


Stellen Sie hier ein, wie die gefundenen Ergebnisse auf dem Bild dargestellt werden sollen, nachdem der
Prozess durchgeführt wurde.

Plot Everything (Alles anzeigen)


Ursprung, Merkmale und Rechteckprofil des Modells werden angezeigt.

Plot Edges (Kanten anzeigen)


Nur Ursprung und Merkmale des Modells werden angezeigt.

Plot Bounding Box (Zeichenbox anzeigen)


Nur Ursprung und Rechteckprofil des Modells werden angezeigt.

Plot Only Origin (Nur Ursprung anzeigen)


Nur der Modellursprung wird angezeigt.

Plot Nothing (Nichts anzeigen)


Es wird nichts angezeigt.

Image Display Mode (Bildanzeigemodus)


Wählt den Bildanzeigemodus für das Einrichtungsfenster.

Image (Bild)
Nur das Kamerabild wird angezeigt.

Image+Results (Bild+Ergebnisse)
Das Kamerabild und die gefundenen Ergebnisse werden angezeigt.

Image+Gradiations
Kamerabild und Merkmale des Bilds werden angezeigt.

Muster
Das eingelernte Modellmuster wird angezeigt.

Pattern+T.Mask
Das eingelernte Modellmuster mit einem überlagerten Bereich, der als Hervorhebungsbereich
maskiert ist, wird angezeigt.

Show Almost Found (Beinahe gefundene Ergebnisse anzeigen)


Sind Werkstücke vorhanden, die nicht gefunden werden konnten oder nur geringfügig Wertigkeit,
Kontrast, Ausrichtung, Skalierung bzw. andere Bedingungen verfehlt haben, können diese Prüfergebnisse
angezeigt werden. Das Ergebnis wird im Bild in einem roten Rechteck angezeigt.

- 258 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.2.3 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Werkstücke
korrekt findet.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Almost Found (Beinahe gefunden)


Die Anzahl der Werkstücke, die nicht gefunden wurden, da sie geringfügig außerhalb des angegebenen
Bereichs lagen, werden angezeigt. Wenn das Kontrollkästchen [Show Almost Found] nicht aktiviert ist,
wird 0 angezeigt.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

Row, Column (Zeile, Spalte)


Koordinaten des Modellursprungs des gefundenen Musters (Einheit: Pixel).

Angle (Winkel)
Ausrichtung des gefundenen Musters (Einheit: Grad).
Sie wird nur dann angezeigt, wenn das Kontrollkästchen für die Ausrichtungssuche aktiviert ist.

Scale (Skalierung)
Skalierung des gefundenen Musters (Einheit: %).
Sie wird nur dann angezeigt, wenn das Kontrollkästchen für die Skalierungssuche aktiviert ist.

Score (Wertigkeit)
Wertigkeit des gefundenen Musters.

- 259 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.2.4 Übersteuerbare Parameter


Dieses Befehlstool hat folgende Parameter, die mit Vision Override übersteuert werden können.
Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Score Threshold (Schwellenwert der Wertigkeit)


Geben Sie eine Zahl zwischen 10 und 100 an.

Contrast Threshold (Kontrast-Schwellenwert)


Geben Sie eine Zahl zwischen 1 und 250 an.

DOF Angle (DOF-Winkel)


Auswahl aktiviert/deaktiviert, Mindestwinkel, Maximalwinkel und Nennwinkel können angegeben
werden. Geben Sie 0 für Deaktivieren oder 1 für Aktivieren an. Geben Sie für Mindestwinkel,
Maximalwinkel und Nennwinkel eine Zahl zwischen −360 und 360 an.

DOF Scale (DOF-Skalierung)


Auswahl aktiviert/deaktiviert, Mindestskalierung, Maximalskalierung und Nennskalierung können
angegeben werden. Geben Sie 0 für Deaktivieren oder 1 für Aktivieren an. Geben Sie für
Mindestskalierung, Maximalskalierung und Nennskalierung eine Zahl zwischen 25 und 400 an.

- 260 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.2.5 Richtlinien zum Einrichten


Diese Richtlinien vermitteln Ihnen ein tieferes Verständnis der Funktionsweise des Locator Tools für
gerundete Oberflächen.

7.2.5.1 Übersicht und Funktionen


Dieser Abschnitt gibt Ihnen einen Überblick über das Locator Tool für gerundete Oberflächen und
beschreibt, wie Sie vorgehen können und wie Objekte mit diesem Tool dargestellt werden.

Einsatzmöglichkeiten des Locator Tools für gerundete Oberflächen


Das Locator Tool für gerundete Oberflächen bietet Möglichkeiten der Bildverarbeitung für mit der
Kamera aufgenommene Prozessbilder, kann das gleiche Muster wie das vorher eingelernte Muster in
einem Bild auffinden, und Position und Ausrichtung des gefundenen Musters ausgeben. Das vorher
eingelernte Muster wird als Modellmuster oder einfach nur Modell bezeichnet.

Wenn sich Position und Ausrichtung des im Kamerasichtbereich platzierten Objekts verändern, ändert
sich Position und Ausrichtung der Abbildung des mit der Kamera aufgenommenen Objekts entsprechend.
Das Locator Tool für gerundete Oberflächen findet, wo sich das gleiche Muster wie das Modellmuster im
von der Kamera eingespeisten Bild befindet.
Hat die Abbildung des Objekts im Bild das gleiche Muster wie das Modellmuster, kann es auch dann vom
Locator Tool für gerundete Oberflächen gefunden werden, wenn folgende Unterschiede vorhanden sind:

• Lineare Bewegung: Die Position der Figur im Bild unterscheidet sich von der im Modellbild.
• Rotation: Die offensichtliche Ausrichtung der Figur im Bild unterscheidet sich von
der im Modellbild.
• Expansion / Reduktion: Die offensichtliche Größe der Figur im Bild unterscheidet sich von der im
Modellbild.

Modellmuster
Model pattern

(1) Lineare Bewegung (2) Rotation (3) Expansion/Reduktion

- 261 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Definition von gleichen Mustern


Was wird vom Locator Tool für gerundete Oberflächen als das „gleiche Muster“ wie das Modellmuster
betrachtet? Das Locator Tool für gerundete Oberflächen die folgenden zwei Kriterien an, um zu
bestimmen, ob es sich bei einem Muster um das „gleiche Muster“ handelt wie das Modellmuster. Wenn
das Muster beide Kriterien erfüllt, betrachtet das Locator Tool für gerundete Oberflächen es als das
„gleiche Muster“.

• Die Figur hat die gleiche Geometrie der Verteilung der Abstufung.
• Die Figur hat die gleiche Ausrichtung der Abstufung.

Wenn Sie nachvollziehen können, was vom Locator Tool für gerundete Oberflächen als das gleiche
Muster betrachtet wird, sind Sie besser in der Lage, es so einzustellen, dass entsprechende Muster mit
erhöhter Zuverlässigkeit gefunden werden.

Figur mit der gleichen Geometrie der Verteilung der Abstufung


Zunächst wird die „Figur mit der gleichen Geometrie der Verteilung der Abstufung“ erläutert.

Wenn Sie einen Kreiszylinder durch eine Kamera mit koaxialer Beleuchtung wie im linken unteren Bild
dargestellt betrachten, erkennen Sie eine Hell-Dunkel-Verteilung wie in der mittleren Abbildung unten.
Die Figur mit der gleichen Geometrie der Verteilung der Abstufung fokussiert auf den Teil, an dem die
Farbtiefe von Hell nach Dunkel wechselt oder umgekehrt, d. h. auf die Abstufung. In der rechten
Abbildung unten kennzeichnet der schraffierte Bereich die Verteilung der Abstufung.

Dunkel Hell Dunkel

In der untenstehenden Abbildung haben die drei linken Figuren die gleiche Geometrie der Verteilung der
Abstufung, obwohl sie unterschiedliche Rotationswinkel und Skalierungen aufweisen und die Figur ganz
rechts hat eine andere Geometrie. Ob Figuren die gleiche Geometrie der Verteilung der Abstufung
aufweisen, ist davon abhängig, ob die ursprünglichen Gegenstände die gleiche Geometrie haben.

Anders ausgedrückt, wenn die ursprünglichen Gegenstände eine unterschiedliche Geometrie haben, aber
ihre von der Kamera erfasste Verteilung der Abstufung erscheint geometrisch identisch, betrachtet das
Locator Tool für gerundete Oberflächen sie als „von gleicher Geometrie“.

- 262 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Figur mit der gleichen Ausrichtung der Abstufung


Im Folgenden wird die „Figur mit der gleichen Ausrichtung der Abstufung“ erläutert.

Nehmen wir ein Bild wie dasjenige in der Abbildung unten an. Zwei Kreiszylinder sind nebeneinander
platziert und man kann die Verteilung der Abstufung um die Mitte eines jeden Kreiszylinders erkennen,
und die Vertiefung zwischen den Kreiszylindern.

In der Abbildung unten ist diese Verteilung der Abstufung durch die schraffierten Bereiche dargestellt.
Wenn man nur die Geometrie betrachtet, sind die drei Verteilungen der Abstufung ähnlich.

Wenn Sie jedoch die Ausrichtung der Abstufung betrachten, erscheinen sie nicht ähnlich. In der
Abbildung unten ist die Ausrichtung der Abstufung von Hell nach Dunkel durch einen Pfeil (→)
gekennzeichnet. Während in den Abstufungsbereichen rechts und links Pfeile von innen ausgehen, zeigen
sie in der Mitte des Abstufungsbereichs nach innen. Wenn Sie so nur die Ausrichtung der Abstufung
betrachten, unterscheiden sich die Abstufungsbereiche rechts und links vollständig vom
Abstufungsbereich in der Mitte. Sind die Muster unterschiedliche im Bezug auf die
Abstufungsausrichtung, betrachtet das Locator Tool für gerundete Oberflächen sie als unterschiedliche,
auch wenn ihre Abstufungsverteilungen geometrisch identisch sind.
Dunkel Hell Dunkel Hell Dunkel

In der Einrichtungsseite des Locator Tools für gerundete Oberflächen können insgesamt acht Farben
(Magentarot, Zyanblau, Grün, Gelb sowie deren Mischfarben) verwendet werden, um die
Abstufungsausrichtung leicht überprüfen zu können.
Zyan Gelb

Grün Magenta

- 263 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Fehlender oder zusätzlicher Abstufungsbereich


Nehmen wir die in der untenstehenden Abbildung dargestellten Bilder der Abstufungsbereiche rechts und
links an. Wenn Sie das linke Abstufungsbild als Modellmuster einlernen und es mit dem Locator Tool für
gerundete Oberflächen mit dem rechten Abstufungsbild vergleichen, beurteilt das Tool das rechte Muster
als vom Modellmuster abweichend, da das rechte Muster nicht so viele Abstufungsbereiche im
Modellmuster hat. Wenn Sie dagegen das rechte Abstufungsbild als Modellmuster einlernen und es mit
dem Locator Tool für gerundete Oberflächen mit dem linken Abstufungsbild vergleichen, beurteilt das
Tool das linke Muster als identisch mit dem Modellmuster, da das linke Muster alle Abstufungsbereiche
im Modellmuster aufweist. Das Locator Tool für gerundete Oberflächen berücksichtigt keine zusätzlichen
Abstufungsbereiche.

Musterähnlichkeit
Es wurden bereits die Kriterien hinsichtlich der Verteilungsgeometrie, Ausrichtung und fehlende sowie
zusätzliche Bereiche im Bezug auf die Abstufung in Mustern besprochen. Dennoch müssen nicht alle
dieser Kriterien vollständig erfüllt sein. Es ist schier unmöglich, die Unterschiede zwischen Mustern zu
eliminieren. Das Locator Tool für gerundete Oberflächen ist so ausgelegt, dass es Unterschiede zwischen
Mustern bis zu einem gewissen Grad zulässt. Anders ausgedrückt, dient das Tool dazu, vielmehr
„ähnliche Muster“ als „gleiche Muster“ zu finden.

Ein Maß für die Ähnlichkeit ist die Bewertung, wie ähnlich das im Bild gefundene Muster dem
Modellmuster ist. Während dies gemeinhin als „Ähnlichkeitsgrad“ bezeichnet wird, wird dieser Wert
beim Locator Tool für gerundete Oberflächen als „Wertigkeit“ („Score“) bezeichnet. Die Wertigkeit ist
ein numerischer Wert im Bereich von 0 bis 100 Punkten. Stimmen die Muster vollständig überein, wird
die Wertigkeit mit 100 Punkten angegeben. Besteht gar keine Übereinstimmung, ist die Wertigkeit 0. Hat
das Muster im Bild einen Teil, der „Objektivverzeichnung“, „Parallaxenfehler“, eine „unterschiedliche
Polarität Dunkel-Hell“, ein „fehlendes Merkmal“ aufweist oder aus anderen Gründen dem Muster nicht
entspricht, wird die Wertigkeit von 100 Punkten entsprechend reduziert. Machen solche Teile 30% des
Modellmusters aus, beträgt die Wertigkeit 70 Punkte.

Wenn Sie das Locator Tool für gerundete Oberflächen dazu einstellen, ein übereinstimmendes Muster in
einem Bild zu finden, geben Sie einen Schwellenwert der Wertigkeit an, sodass das Tool Muster findet,
deren Wertigkeit über dem angegebenen Schwellenwert liegt.

- 264 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.2.5.2 Beleuchtungsumgebung
Die Beleuchtungsumgebung spielt für das Locator Tool für gerundete Oberflächen eine wichtige Rolle,
da das Tool die vom Licht erzeugte Abstufung auf der Oberfläche eines Gegenstands verwendet.
Idealerweise wird farbige, Koaxialbeleuchtung und ein Bandpassfilter verwendet, welcher nur die Farbe
überträgt. Mit Koaxialbeleuchtung ist ein Zusammenpassen von Beleuchtung und Sichtrichtungen
möglich, wo auch immer der Gegenstand platziert wird. Mit der Kombination von farbiger Beleuchtung
und einem Bandpassfilter kann der Einfluss des Umgebungslichts soweit wie möglich ausgeschlossen
werden.

Camera (Kamera)

Linsenfilter

Ringlicht

- 265 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.2.5.3 Modellmuster
Zuerst muss das zu suchende Objekt in das Locator Tool für gerundete Oberflächen als Modellmuster
eingelernt werden. In diesem Abschnitt werden die Richtlinien zum Einlernen eines Modellmusters
beschrieben.

Ein Modellmuster einlernen


Die Werkstückgeometrie muss als Modellmuster so eingelernt werden, wie die Kamera das Werkstück
sieht. Um ein Modellmuster einzulernen, nehmen Sie das Bild des Werkstücks mit der Kamera auf
programmieren Sie den Bildteil innerhalb des Rechtecks, den Sie als Modellmuster registrieren möchten.
Es ist wichtig, dass das Werkstück nahe am Mittelpunkt des Kamerabildes platziert wird. Beim
Betrachten durch die Kamera unterliegt das Bild verschiedenen Arten von Verzerrung, wie z.B. der
Objektivverzeichnung. Solche Verzerrungen werden in der Nähe der Bildmitte auf ein Minimum
reduziert. Platzieren Sie deshalb das Werkstück beim Einlernen eines Modellmusters so, dass es so nahe
an der Bildmitte platziert ist wie möglich.

Modellmuster maskieren
Fehlt ein beim Modellmuster vorhandener Abstufungsbereich im Bildmuster, so nimmt das Locator Tool
für gerundete Oberflächen - wie bereits vorher im Absatz „Fehlender oder zusätzlicher
Abstufungsbereich“ erläutert, an, dass das Muster sich mindestens durch diesen fehlenden
Abstufungsbereich unterscheidet. Andererseits jedoch ignoriert das Tool zusätzliche Abstufungsbereiche.
Gibt es daher ein zusätzliches Merkmal, das im Bild vorhanden ist, während das Modellmuster eingelernt
wird, ist es wünschenswert, dieses nicht im Modellmuster zu berücksichtigen.

Das Locator Tool für gerundete Oberflächen bietet die Möglichkeit, solche spezifischen Teile eines
Bildes nach dem Einlernen zu maskieren und so aus dem Modellmuster zu entfernen. Dieses Verfahren
wird als „Maskieren des Modellmusters“ bezeichnet. Enthält das Bild, das als Modellmuster eingelernt
wird, Teile wie die unten beschriebenen, können Sie diese Teile maskieren und aus dem Modellmuster
entfernen.

<1> Teil, bei dem die Abstufungsausrichtung ungleichmäßig ist

Wird Position, Ausrichtung oder Hintergrund eines Gegenstands verändert, kann sich auch die
Abstufungsausrichtung der Figur im Bild verändern. Wie bereits weiter oben beschrieben, betrachtet das
Locator Tool für gerundete Oberflächen ein Muster als unterschiedlich, wenn dessen
Abstufungsausrichtung unterschiedlich ist. Daher kann das Maskieren und Entfernen der Teile aus dem
Modellmuster, bei denen die Abstufungsausrichtung unregelmäßig ist, dazu beitragen, dass das Tool
übereinstimmende Muster präziser findet.

Ein charakteristisches Beispiel ist der Zustand der losen Beladung, wenn die Helligkeit des Hintergrunds
eines Gegenstands sich erheblich verändert. Zum Beispiel ist in der untenstehenden Abbildung die
Hintergrundfarbe des linken Gegenstands weiß und die des rechten Gegenstands schwarz.

- 266 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS
Weiter ist in der Abbildung unten die Abstufungsausrichtung entlang dem Umfang des Gegenstands links
entgegengesetzt der entlang dem Umfang des Gegenstands rechts. Ist so der Umfang des Gegenstands im
Modellmuster vorhanden, finden das Tool übereinstimmende Muster weniger zuverlässig.

Maskieren Sie deshalb den Abstufungsbereich am Umfang des Gegenstands beim Einlernen des
Modellmusters und lassen Sie nur den Abstufungsbereich in der Objektmitte übrig, der unabhängig vom
Hintergrund ist und so kann das Tool übereinstimmende Muster präziser finden.

<2> Teil, das bei jedem Werkstück anders aussieht

Wenn Sie mit der Kamera ein Bild eines Werkstücks aufnehmen, kann das Bild manchmal ein Merkmal
wie etwa eine Fehlstelle enthalten, die bei jedem Werkstück oder auch jedes Mal, wenn die Position des
Werkstück verändert wird, anders aussieht. Das Locator Tool für gerundete Oberflächen berücksichtigt
solche Merkmale auch, wenn es das Bild nach einem dem eingelernten Modellmuster identischen
Merkmal durchsucht. Daher kann das Entfernen solcher Merkmale aus dem Modellmuster dazu beitragen,
dass das Tool übereinstimmende Muster präziser finden kann.

Maskieren Sie die folgenden Teile, um sie aus dem Modellmuster zu entfernen:
• Fehlstellen auf dem Werkstück
• Bereiche, die wie erleuchtet erscheinen
• Schatten
• Handgeschriebene Buchstaben und Markierungen
• Aufkleber

- 267 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.3 Blob Locator Tool


Das Blob Locator Tool führt eine Bildverarbeitung durch, bei der ein binarisiertes Bild nach einer Region
(im Folgenden als „Blob“ bezeichnet) durchsucht wird, die die gleichen Merkmale wie etwa Bereich und
Umfang hat, wie das angegebene Modell. Wenn Sie das Blob Locator Tool in der Verzeichnisstruktur der
Einrichtungsseite des Bilderkennungsprozesses auswählen, erscheint ein Bildschirm wie unten dargestellt.

Input Image (Eingabebild)


Wählen Sie das Bild aus, das für Programmierung und Erkennung eines Modells verwendet wird. Verfügt
der Bilderkennungsprozess über ein Image Filter Tool (Bildfiltertool) oder ein Color Extraction Tool
(Farbextraktionstool), können Sie ein gefiltertes Bild als Eingabebild für das Blob Locator Tool anstelle
des von der Kamera aufgenommenen Originalbilds auswählen. Weitere Informationen finden Sie in den
Abschnitten 7.25 „Image Preprocess Tool“, 7.26 „Image Filter Tool“ und 7.27 „Color Extraction Tool“.

- 268 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.3.1 Bildbinarisierung
Das Blob Locator Tool konvertiert einen Bildeingang in Graustufen in ein binarisiertes Schwarz-Weiß-
Bild, bevor die Bildverarbeitung durchgeführt wird. Zunächst müssen die Bedingungen für die
Bildbinarisierung eingestellt werden.

Threshold Mode (Schwellenwertmodus)


Wählen Sie den Threshold Mode in zwei Dropdown-Feldern aus.
Wählen Sie im linken Dropdown-Feld eine der folgenden Einstellungen aus:

Fixed (Fest)
Binarisiert das Bild unter Verwendung des in [Threshold value] gesetzten Schwellenwerts als
solchen.

Auto (Automatisch)
Führt eine automatische Schwellenwertberechnung für ein einzelnes Bild durch, je nachdem, wie
sich die Helligkeit auf der Grundlage des vorgegebenen Schwellenwerts des für die Programmierung
verwendeten Bilds verändert.

Wählen Sie im rechten Dropdown-Feld eine der folgenden Einstellungen aus:

Single (Einzelner Wert)


Verwendet für die Binarisierung des Bilds einen einzelnen Schwellenwert. Pixel, die dunkler als der
Schwellenwert sind, werden schwarz und Pixel, die heller als der Schwellenwert sind, weiß.

Dual (Doppelter Wert)


Verwendet für die Binarisierung des Bilds zwei Schwellenwerte (oberer und unterer Wert). Pixel,
die dunkler als der untere Schwellenwert sind und Pixel, die heller als der obere Schwellenwert sind,
werden schwarz, und Pixel, die heller als der untere Schwellenwert sind und Pixel, die dunkler als
der obere Schwellenwert sind, weiß.

Threshold (Schwellenwert)
Diese Option ist der Schwellenwert für den Modus „Single“. Setzen Sie als diesen Schwellenwert einen
ganzzahligen Wert zwischen 0 bis 255. Geben Sie einen neuen Wert in das Feld ein oder ändern Sie den
vorhandenen Wert mit den Tasten , sodass eine klare Schwarz-Weiß-Unterscheidung
zwischen dem Gegenstand und dem Hintergrund vorliegt.

Unterer Schwellenwert
Diese Option ist der untere Schwellenwert für den Modus „Dual“. Legen Sie als Schwellenwert für die
Binarisierung einen ganzzahligen Wert von 0 bis [Upper Threshold] fest. Geben Sie einen neuen Wert in
das Feld ein oder ändern Sie den vorhandenen Wert mit den Tasten , sodass eine klare
Schwarz-Weiß-Unterscheidung zwischen dem Gegenstand und dem Hintergrund vorliegt.

Oberer Schwellenwert
Diese Option ist der obere Schwellenwert für den Modus „Dual“. Legen Sie als Schwellenwert für die
Binarisierung einen ganzzahligen Wert von [Lower Threshold] bis 255 fest. Geben Sie einen neuen Wert
in das Feld ein oder ändern Sie den vorhandenen Wert mit den Tasten , sodass eine klare
Schwarz-Weiß-Unterscheidung zwischen dem Gegenstand und dem Hintergrund vorliegt.

- 269 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Morphology Operator (Morphologie-Operator)


Wählen Sie den auf das binarisierte Bild anzuwendenden Filter aus den unten aufgeführten Optionen aus
und geben Sie die Filtergröße im Textfeld rechts an.

None (Keine)
Kein Morphing durchführen.

Erode (Auswaschen)
Wäscht schwarze Flächen aus.
Trägt zur Reduzierung des Rauscheffekts schwarzer Pixel bei.

Dilate (Weiten)
Dehnt schwarze Flächen aus.
Trägt zur Reduzierung des Rauscheffekts weißer Pixel bei.

Open (Öffnen)
Wäscht die schwarze Fläche aus und weitet sie anschließend.
Hierdurch werden weiße Blobs, die sich fast berühren, miteinander verbunden und schwarze Blobs,
die sich leicht berühren, voneinander getrennt.

Close (Schließen)
Weitet die weiße Fläche und wäscht sie anschließend aus.
Hierdurch werden schwarze Blobs, die sich fast berühren, miteinander verbunden und weiße Blobs,
die sich leicht berühren, voneinander getrennt.

- 270 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.3.2 Ein Modell einlernen


Lernen Sie das zu findende Werkstück als Modell ein.

Polarity (Polarität)
Wählen Sie die Farbe des zu findenden Blobs aus den folgenden Optionen aus:

White on Black (Weiß auf Schwarz)


Sucht einen weißen Blob.

Black on White (Schwarz auf Weiß)


Sucht einen schwarzen Blob.

Train Model (Modell programmieren)


Lernen Sie das Modell wie folgt ein:

1 Drücken Sie F2 LIVE, um in die Live-Kamerabildanzeige zu wechseln.


2 Platzieren Sie das Werkstück nahe der Mitte des Kameraerfassungsbereichs.
3 Drücken Sie F2 STOP und dann F3 SNAP, um das Bild des Werkstücks aufzunehmen.
4 Stellen Sie die Polarität auf [Black on White].
5 Tippen Sie auf die Taste [Teach].
6 Platzieren Sie das Werkstück im angezeigten roten Rechteck und drücken Sie dann F4 OK.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

Model ID (Modell-ID)
Wenn Sie mehr als ein Blob Locator Tool einlernen und erkennen möchten, welches Blob Locator Tool
das Werkstück gefunden hat, setzen Sie eine unterschiedliche Modell-ID für jedes der Blob Locator
Tools. Da die Modell-ID des Blob Locator Tools, das das Werkstück gefunden hat, zusammen mit den
Offset-Daten an das Bilderkennungsregister gesendet wird, kann das Roboterprogramm die Modell-ID
des gefundenen Werkstücks identifizieren.

Trained model info. (Info des programmierten Modells)


Die Informationen über die Merkmale des programmierten Modells werden angezeigt. Zusammen mit
dem vom Rechteck umschlossenen Bild beim Einlernen des Modells wird die Information über die
Merkmale des programmierten Blobs angezeigt.

- 271 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.3.3 Lokalisierungsparameter einstellen


Stellen Sie die Lokalisierungsparameter ein.

Use Computed RT Mask (Berechnete Laufzeitmaske verwenden)


Diese Option ist nur verfügbar, wenn dieses Blob Locator Tool ein untergeordnetes Tool eines anderen
Blob Locator Tools ist. Ist dieses Kontrollkästchen aktiviert, wird ein vom übergeordneten Blob Locator
Tool gefundenes Blob als Suchfenster und die Laufzeitmaske dieses Blob Locator Tools verwendet.
Normalerweise ist diese Option deaktiviert.

Search Window (Suchfenster)


Gibt den zu durchsuchenden Bereich des Bildbereichs an. Der Lokalisierungsprozess wird umso schneller
durchgeführt, je schmaler der Bereich ist. Als Standardwert ist das ganze Bild eingestellt. Tippen Sie auf
die Taste [Set], um das Suchfenster zu verändern. Erscheint ein Rechteck im Bild, stellen Sie dessen
Geometrie wie beim Einlernen eines Modells ein. Ausführliche Informationen zur Verfahrensweise
finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

Runtime Mask (Laufzeitmaske)


Geben Sie einen Bereich des Suchfensters an, das Sie von der Verarbeitung ausschließen wollen. Dies
kann z. B. eine beliebige Geometrie sein. Verwenden Sie diese Funktion, wenn Sie ein willkürlich
geformtes Suchfenster, wie etwa ein kreis- oder ringförmiges Fenster angeben möchten. Der ausgefüllte
Bereich wird im als Suchfenster angegebenen Rechteck maskiert und bei der Bildverarbeitung nicht
berücksichtigt. Tippen Sie auf die Taste [Edit], um die Laufzeitmaske zu ändern. Ausführliche
Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.10 „Maskenbearbeitung“.

Calculate the Angle (Winkel berechnen)


Geben Sie an, ob die Ausrichtung des gefundenen Blobs berechnet werden soll.
Wenn dieses Kontrollkästchen aktiviert ist, wird die Ausrichtung des Blobs berechnet.
Das Blob Locator Tool ist in der Lage, Ausrichtungen im Bereich von −90 bis +90 Grad zu erkennen.

Wenn Sie dieses Kontrollkästchen deaktivieren, werden die Länge der langen Achse, die Länge der
kurzen Achse und die Dehnung des gefundenen Blobs nicht berechnet.

Angle Calc. Methode (Methode der Winkelberechnung)


Geben Sie die Winkelberechnungsmethode mit den folgenden Optionen an:

Axis of Inertia (Trägheitsachse)


Die Trägheitsachse des gefundenen Blobs wird berechnet und die Richtung der Achse wird als
Winkel des gefundenen Blobs verwendet.

Minimum Rectangle (Mindestmaß des Rechtecks)


Das Mindestmaß des Rechtecks, das das gefundene Blob umschließt, wird berechnet und die
Richtung des Rechtecks wird als Winkel des gefundenen Blobs verwendet.

- 272 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Find if Touching Win. (Kontakt mit Suchfenster prüfen)


Das Blob Locator Tool gibt den Mittelpunkt der Masse des Blobs als Fundstelle aus. Hat das Blob
Kontakt mit dem Suchfenster, ist es unmöglich festzustellen, wie weit sich das Blob noch über das
Suchfenster hinaus erstreckt und in einem solchen Falle kann der Mittelpunkt der Masse nicht korrekt
berechnet werden. Deshalb ignoriert das Blob Locator Tool standardmäßig jedes Blob, das das
Suchfenster berührt. Wird dieses Kontrollkästchen jedoch aktiviert, findet das Tool auch Blobs, die das
Suchfenster berühren. Verwenden Sie diese Funktion ehr dann, wenn Sie die Fläche des schwarzen
Bereichs im Bild messen möchten und ehr nicht, um den Ort eines Blobs zu finden.

ACHTUNG
Deaktivieren Sie dieses Kontrollkästchen, wenn Sie den Ort eines Werkstücks
mit dem Blob Locator Tool finden möchten. Standardmäßig ist dieses
Kontrollkästchen deaktiviert.

DOF – Area (DOF-Bereich)


Geben Sie einen Bereich von Flächenwerten an, um zu bewerten, ob das Blob mit dem Modell
übereinstimmt. Liegt der Bereich des gefundenen Blobs innerhalb des durch [Minimum] und [Maximum]
vorgegebenen Bereichs, ist die Lokalisierung erfolgreich. Wenn Sie das Kontrollkästchen deaktivieren,
wird der Bereich nicht überprüft.

DOF – Perimeter (DOF-Umfang)


Geben Sie einen Bereich von Umfangswerten an, um zu bewerten, ob das Blob mit dem Modell
übereinstimmt. Liegt der Umfang des gefundenen Blobs innerhalb des durch [Minimum] und [Maximum]
vorgegebenen Bereichs, ist die Lokalisierung erfolgreich. Wenn Sie das Kontrollkästchen deaktivieren,
wird der Umfang nicht überprüft.

DOF – Circularity (DOF-Rundheit)


Der Rundheitsgrad wird durch Division des 4π-Bereichs durch das Quadrat des Umfangs berechnet und
gibt an, zu welchen Grad das gefundene Blob einem Kreis ähnelt. Ist das Blob ein perfekter Kreis, lautet
dieser Wert 1,0. Je komplexer die Geometrie des Blobs ist, umso kleiner wird der Wert.
Geben Sie einen Bereich von Rundheitsgraden an, um zu bewerten, ob das Blob mit dem Modell
übereinstimmt. Liegt der Rundheitsgrad des gefundenen Blobs innerhalb des durch [Minimum] und
[Maximum] vorgegebenen Bereichs, ist die Lokalisierung erfolgreich. Wenn Sie das Kontrollkästchen
deaktivieren, wird der Rundheitsgrad nicht überprüft.

DOF – Semi Major (DOF große Halbachse)


Geben Sie einen Bereich der Längenwerte der großen Halbachse an, um zu bewerten, ob das Blob mit
dem Modell übereinstimmt. Liegt die Länge der großen Halbachse des gefundenen Blobs innerhalb des
durch [Minimum] und [Maximum] vorgegebenen Bereichs, ist die Lokalisierung erfolgreich. Wenn Sie
das Kontrollkästchen deaktivieren, wird die Länge der großen Halbachse nicht überprüft.

DOF – Semi Minor (DOF kleine Halbachse)


Geben Sie einen Bereich der Längenwerte der kleinen Halbachse an, um zu bewerten, ob das Blob mit
dem Modell übereinstimmt. Liegt die Länge der kleinen Halbachse des gefundenen Blobs innerhalb des
durch [Minimum] und [Maximum] vorgegebenen Bereichs, ist die Lokalisierung erfolgreich. Wenn Sie
das Kontrollkästchen deaktivieren, wird die Länge der kleinen Halbachse nicht überprüft.

- 273 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

DOF – Elongation (DOF-Dehnung)


Die Dehnung wird berechnet, indem die Länge der großen Halbachse durch die Länge der kleinen
Halbachse dividiert wird. Sie gibt an, wie schmal das gefundene Blob ist. Je länger das Blob ist, umso
größer wird der Wert. Geben Sie einen Bereich von Dehnungswerten an, um zu bewerten, ob das Blob
mit dem Modell übereinstimmt. Liegt die Dehnung des gefundenen Blobs innerhalb des durch
[Minimum] und [Maximum] vorgegebenen Bereichs, ist die Lokalisierung erfolgreich. Wenn Sie das
Kontrollkästchen deaktivieren, wird die Dehnung nicht überprüft.

Display Mode (Anzeigemodus)


Stellen Sie hier ein, wie das gefundene Ergebnis im Bild dargestellt werden soll, nachdem der Prozess
durchgeführt wurde.

Found Position (Gefundene Position)


Nur der Masseschwerpunkt des Blobs wird angezeigt.

Contour (Kontur)
Nur die Kontur des Blobs wird angezeigt.

All (Alle)
Sowohl der Masseschwerpunkt als auch die Kontur des Blobs werden angezeigt.

Image Display Mode (Bildanzeigemodus)


Wählt den Bildanzeigemodus für das Einrichtungsfenster.

Grayscale Image (Bild in Graustufen)


Das Kamerabild wird wie im Original angezeigt.

Grayscale Im.+Results (Bild in Graustufen+Ergebnisse)


Das Kamerabild und die gefundenen Ergebnisse werden angezeigt.

Binary Image (Binäres Bild)


Das Kamerabild wird beim Anzeigen binarisiert.

Binary Image+Results (Binärbild+Ergebnisse)


Das Kamerabild und die gefundenen Ergebnisse werden beim Anzeigen binarisiert.

Model Image (Modellbild)


Das eingelernte Modellmuster wird angezeigt.

- 274 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.3.4 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Blobs korrekt
findet.

Found (Gefunden)
Die Anzahl der gefundenen Blobs wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

Row, Column (Zeile, Spalte)


Koordinatenwerte des Masseschwerpunks des gefundenen Blobs (Einheit: Pixel).

Score (Wertigkeit)
Wertigkeit des gefundenen Blobs.

Angle (Winkel)
Ausrichtung des gefundenen Blobs.
Sie wird nur dann angezeigt, wenn das Kontrollkästchen [Calculate the angle] aktiviert ist.

Area (Fläche)
Fläche des gefundenen Blobs (Einheit: Pixel).

Perimeter (Umfang)
Umfang des gefundenen Blobs (Einheit: Pixel).

Circularity (Rundheit)
Rundheitsgrad des gefundenen Blobs.

Semi-major (Große Halbachse)


Länge der langen Achse des gefundenen Blobs (Einheit: Pixel).
- 275 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Semi-minor (Kleine Halbachse)


Länge der kurzen Achse des gefundenen Blobs (Einheit: Pixel).

Elongation (Dehnung)
Dehnung des gefundenen Blobs.

ANMERKUNG
Wenn das Tool das Objekt nicht findet, deaktivieren Sie alle Kontrollkästchen für
den Suchbereich und führen Sie dann den Suchlauf durch. Dadurch wird der
Prozess verlangsamt, kann aber erkennen, welche Option die Lokalisierung
verhindert. Sind alle DOF-Parameter deaktiviert, werden alle Blobs im Bild
gefunden. Stellen Sie die Parameter auf einen angemessenen Bereich ein, bis
nur die gewünschten Blobs erkannt werden.

7.3.5 Übersteuerbare Parameter


Dieses Befehlstool hat folgende Parameter, die mit Vision Override übersteuert werden können.
Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Area (Bereich)
Auswahl aktiviert/deaktiviert für Flächenprüfung. Minimal- und Maximalfläche können angegeben
werden. Geben Sie 0 für die Deaktivierung der Prüfung oder 1 für die Aktivierung an. Für die Minimal-
und Maximalfläche geben Sie eine Zahl größer oder gleich 0 an.

Perimeter (Umfang)
Auswahl aktiviert/deaktiviert für Umfangsprüfung. Minimal- und Maximalumfang können angegeben
werden. Geben Sie 0 für die Deaktivierung der Prüfung oder 1 für die Aktivierung an. Für den Minimal-
und Maximalumfang geben Sie eine Zahl größer oder gleich 0 an.

Circularity (Rundheit)
Auswahl aktiviert/deaktiviert für Rundheitsprüfung. Minimal- und Maximalrundheit können angegeben
werden. Geben Sie 0 für die Deaktivierung der Prüfung oder 1 für die Aktivierung an. Geben Sie für
Minimal- und Maximalrundheit eine Zahl zwischen 0 und 1 an.

Semi Major (Große Halbachse)


Auswahl aktiviert/deaktiviert für Längenprüfung der großen Halbachse. Minimal- und Maximallänge der
großen Halbachse können angegeben werden. Geben Sie 0 für die Deaktivierung der Prüfung oder 1 für
die Aktivierung an. Für die Minimal- und Maximallänge der großen Halbachse geben Sie eine Zahl
größer oder gleich 0 an.

Semi Minor (Kleine Halbachse)


Auswahl aktiviert/deaktiviert für Längenprüfung der kleinen Halbachse. Minimal- und Maximallänge der
kleinen Halbachse können angegeben werden. Geben Sie 0 für die Deaktivierung der Prüfung oder 1 für
die Aktivierung an. Für die Minimal- und Maximallänge der kleinen Halbachse geben Sie eine Zahl
größer oder gleich 0 an.

Elongation (Dehnung)
Auswahl aktiviert/deaktiviert für Dehnungsprüfung. Minimal- und Maximaldehnung können angegeben
werden. Geben Sie 0 für die Deaktivierung der Prüfung oder 1 für die Aktivierung an.
Für die Minimal- und Maximaldehnung geben Sie eine Zahl größer oder gleich 0 an.

- 276 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.4 LINE LOCATOR TOOL


Das Line Locator Tool ist ein Bildverarbeitungstool, das ein Liniensegment mit der vorher eingelernten
Länge innerhalb eines von der Kamera aufgenommenen Bild finden und Position und Richtung der Linie
ausgeben kann. Wenn Sie das Line Locator Tool in der Verzeichnisstruktur der Einrichtungsseite des
Bilderkennungsprozesses auswählen, wird ein Einrichtungsfenster wie unten dargestellt angezeigt.

Input Image (Eingabebild)


Wählen Sie das Bild aus, das für Programmierung und Erkennung eines Modells verwendet wird.
Verfügt der Bilderkennungsprozess über ein Image Filter Tool oder ein Color Extraction Tool, können
Sie ein gefiltertes Bild als Eingabebild für dieses Line Locator Tool anstelle des von der Kamera
aufgenommenen Originalbilds auswählen. Weitere Informationen finden Sie in den Abschnitten 7.25
„Image Preprocess Tool“, 7.26 „Image Filter Tool“ und 7.27 „Color Extraction Tool“.

- 277 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.4.1 Ein Modell einrichten


Lernen Sie Art und Länge des zu findenden Liniensegments ein. Im Gegensatz zum GPM Locator Tool
werden Merkmale in einem Bild nicht als Modell eingelernt.

Line Type (Linienart)


Wählen Sie die Art des zu findenden Liniensegments.

Single (Einzelner Wert)


Es wird eine Randlinie zwischen einem dunklen und einem hellen Bereich erkannt.
Ein 0-Grad-Modell wird als eine grade, vertikale Linie mit einem dunklen Bereich links und einem
hellen Bereich rechts von der Linie erzeugt.

Double (Step) (Doppelte Linie (Abstufung))


Zwei parallele Linien werden als eine einzelne dicke Linie durch die Mitte der beiden Linien
betrachtet.
Ein 0-Grad-Modell wird als eine grade, vertikale Linie mit Helligkeit zwischen der Helligkeit des
linken und rechten Bereichs der Linie erzeugt, wobei der linke Bereich dunkler und der rechte
Bereich heller als die Linie ist.

Double (Dark) (Doppelte Linie (Dunkel))


Zwei parallele Linien werden als eine einzelne dicke Linie durch die Mitte der beiden Linien
betrachtet.
Mit dieser Linienart wird eine grade, dunkle Linie gefunden. Ein 0-Grad-Modell wird als eine grade,
vertikale Linie mit Helligkeit, die dunkler ist als die Helligkeit der linken und rechten Bereiche der
Linie, erzeugt.

Double (Light) (Doppelte Linie (Hell))


Zwei parallele Linien werden als eine einzelne dicke Linie durch die Mitte der beiden Linien
betrachtet.
Mit dieser Linienart wird eine grade Linie gefunden. Ein 0-Grad-Modell wird als eine grade,
vertikale Linie mit Helligkeit, die heller ist als die Helligkeit der linken und rechten Bereiche der
Linie, erzeugt.

Single
Single Double(Step)
Double (Step)
(Einzelner Wert) (Doppelte Linie
(Abstufung))

Double (Dark)
Double (Dark) Double
Double(Light)
(Light)
(Doppelte Linie (Doppelte Linie
(Dunkel)) (Hell))

- 278 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Einlernen der Länge der Modelllinie


Lernen Sie die Länge der Modelllinie wie folgt ein:

1 Drücken Sie F2 LIVE, um in die Live-Kamerabildanzeige zu wechseln.


2 Platzieren Sie das Werkstück nahe der Mitte des Kameraerfassungsbereichs.
3 Drücken Sie F2 STOP und dann F3 SNAP, um das Bild des Werkstücks aufzunehmen.
4 Tippen Sie auf die Taste [Train].
5 Platzieren Sie das Werkstück im angezeigten roten Rechteck und drücken Sie dann F4 OK.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

Die Länge des rechteckigen Fensters in Querrichtung zum Ziehpunkt für die Rotation ist die Länge der
als Modellmuster eingelernten Linie.

Line Width (Linienbreite)


Wird eine der Doppellinienarten als [Line Type] gewählt, wird die Breite der zu findenden Linie in Pixel
angegeben. Geben Sie einen Wert zwischen 1 und 50 an.

Adjust Width (Breite einstellen)


Wird eine der Doppellinienarten als [Line Type] gewählt, wird die Linienbreite automatisch durch Tippen
der Taste [Adjust] auf die gefundene Linie eingestellt.

ANMERKUNG
1 Die Linienbreite wird automatisch durch das Finden des Linieninneren
eingestellt. Geben Sie vor der Ausführung in [Line Width] eine ungefähre Breite
zur tatsächlichen Breite an.
2 Der Modellursprung wird automatisch in der Mitte des programmierten
Liniensegments gesetzt und kann nicht geändert werden. Die Koordinatenwerte
(Zeile, Spalte) des gefundenen Ergebnisses geben den Ort des Modellursprungs
an. Bei der Bildanzeige der gefundenen Ergebnisse wird der Modellursprung
durch ein Pluszeichen (+) angezeigt.

- 279 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.4.2 Lokalisierungsparameter einstellen


Stellen Sie die Lokalisierungsparameter ein.

Score Threshold (Schwellenwert der Wertigkeit)


Die Genauigkeit der gefundenen Ergebnisse wird durch eine Wertigkeit ausgedrückt, wobei die höchste
100 ist. Die Ziellinie wird erfolgreich gefunden, wenn ihre Wertigkeit gleich oder höher als dieser
Schwellenwert ist. Liegt die Wertigkeit darunter, wird die Ziellinie nicht gefunden. Stellen Sie einen Wert
zwischen 10 und 100 ein. Der Standardwert lautet 70. Wird ein kleinerer Wert gesetzt, kann dies zu
ungenauer Lokalisierung führen.

Contrast Threshold (Kontrast-Schwellenwert)


Gibt die Kontrastschwelle für die Suche an. Geben Sie einen Wert zwischen 1 und 200 an. Der
Standardwert ist 50. Wird ein kleinerer Wert eingestellt, ist das Tool in der Lage, das Ziel auch in
undeutlichen Bildern zu finden, jedoch dauert der Lokalisierungsprozess länger. Neigt das Tool dazu,
unangemessenerweise Fehlstellen und andere unerwünschte Kanten mit niedrigem Kontrast zu finden,
sollte versucht werden, einen größeren Wert zu setzen. Die Bildmerkmale, deren Kontrast niedriger als
der Schwellenwert ist, werden ignoriert. Wenn Sie [Pattern] in [Image Display Mode] wählen, können Sie
die mit dem aktuellen Schwellenwert extrahierten Bildmerkmale prüfen.

Area Overlap (Bereichsüberlappung)


Ist das Verhältnis der Überlappung der gefundenen Linien größer als das hier angegebene Verhältnis,
wird das gefundene Ergebnis für die Linie mit der niedrigeren Wertigkeit gelöscht und nur das mit der
höheren Wertigkeit bleibt übrig. Das Überlappungsverhältnis wird durch den Bereich bestimmt, in dem
sich die äußeren rechteckigen Rahmen der Modelle überlappen. Geben Sie einen Wert zwischen 10 und
100 an. Der Standardwert ist 75. Wenn Sie 100% als Grenzwert angeben, werden die gefundenen
Ergebnisse nicht gelöscht, auch wenn sich die Linien überlappen.

Elasticity (Elastizität)
Geben Sie einen Wert in Pixel an, um vorzugeben, wie stark das Muster im Bild in seiner Geometrie vom
eingelernten Modell abweichen (verzogen sein) darf. Geben Sie einen Wert zwischen 0.1 und 5.0 an. Der
Standardwert ist 1,5. Wird ein großer Wert eingestellt, ist das Tool in der Lage, das Ziel auch in Bildern
zu finden, die geometrisch stark abweichen. Je größer der Wert jedoch ist, desto größer wird die Gefahr
der ungenauen Lokalisierung.

Search Window (Suchfenster)


Gibt den zu durchsuchenden Bereich des Bildbereichs an. Der Lokalisierungsprozess wird umso schneller
durchgeführt, je schmaler der Bereich ist. Wenn das Modell durch Tippen der Taste [Train] eingelernt
wird, wird das Suchfenster automatisch auf die Länge der Linie mit der Breite von 100 Pixel gesetzt,
wobei die Mitte des Fensters am Modellursprung der Linie liegt. Tippen Sie die Taste [Edit], um das
Suchfenster zu verändern. Erscheint ein Rechteck im Bild, stellen Sie dessen Geometrie wie beim
Einlernen eines Modells ein. Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt
3.7.9 „Fenster einrichten“.

- 280 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Ausrichtung
Geben Sie den zu durchsuchenden Ausrichtungsbereich an. Das Tool sucht nach einem Modell, das im
angegebenen Bereich zwischen [Minimum] und [Maximum] gedreht ist, wobei die Ausrichtung des
eingelernten Modells (vertikale Linie im Bild) 0 Grad beträgt. Es kann sowohl bei [Minimum] als auch
bei [Maximum] ein Bereich von −360 bis +360 Grad angegeben werden. Der Suchprozess wird umso
schneller durchgeführt, je schmaler der Bereich für die Ausrichtung ist. Wird ein Bereich über 360 Grad
angegeben, wird der Bereich automatisch auf 360 Grad korrigiert, während der Bilderkennungsprozess
durchgeführt wird.

Wenn Sie dieses Kontrollkästchen deaktivieren, wird die Ausrichtung ignoriert und das Tool sucht nur
nach einem Modell, dessen Ausrichtung in [Nominal] angegeben ist.

Standardmäßig ist die Ausrichtungssuche aktiviert und der Bereich beträgt −180 bis +180 Grad.

Result Plotting Mode (Ergebnisdarstellungsmodus)


Stellen Sie hier ein, wie die gefundenen Ergebnisse auf dem Bild dargestellt werden sollen, nachdem der
Prozess durchgeführt wurde.

Line (Linie)
Die gefundene Linie wird angezeigt.

Line and Model Origin (Linie und Modellursprung)


Linie und Ursprung werden angezeigt.

Edges (Kanten)
Übereinstimmende Kanten werden in Grün und nicht übereinstimmende Kanten in Rot dargestellt.

Edges and Model Origin (Kanten und Modellursprung)


Die Kanten und der Ursprung werden angezeigt.

Image Display Mode (Bildanzeigemodus)


Wählt den Bildanzeigemodus für das Einrichtungsfenster.

Image (Bild)
Nur das Kamerabild wird angezeigt.

Image+Edges (Bild+Kanten)
Kamerabild und Merkmale innerhalb des Suchfensters werden angezeigt.
Ist das Suchfenster nicht eingelernt, werden das Bild und die Merkmale innerhalb des Bilds
angezeigt.

Image+Results (Bild+Ergebnisse)
Das Kamerabild und die gefundenen Ergebnisse werden angezeigt.

- 281 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Show Almost Found (Beinahe gefundene Ergebnisse anzeigen)


Sind Linien vorhanden, die nicht gefunden werden konnten oder nur geringfügig Wertigkeit, Kontrast,
Ausrichtung bzw. andere Bedingungen verfehlt haben, können diese Prüfergebnisse angezeigt werden.
Das Ergebnis wird im Bild in einem roten Rechteck angezeigt.

Part of Interest (Teil von Interesse)


Handelt es sich bei dem Line Locator Toll um ein untergeordnetes Tool eines anderen Locator-Tools, und
das übergeordnete Locator Tool findet mehrere Ergebnisse, kann das auf der Bildanzeige anzuzeigende
Ergebnis ausgewählt werden. Findet ein übergeordnetes Locator Tool nur ein Ergebnis oder ist das
übergeordnete Tool kein Locator Tool, wird diese Option nicht angezeigt.

All (Alle)
Die Ergebnisse aller Ergebnisse der übergeordneten Tools und des entsprechenden Line Locator
Tools werden angezeigt. Diese Option ist standardmäßig aktiviert.

Pn
Ergebnisse übergeordneter Locator Tools werden in der Bildanzeige mit einem „P“ gefolgt von einer
Indexnummer angezeigt. Das „n“ steht für die Indexnummer und wird angezeigt, gleich wie viele
Ergebnisse übergeordneter Tools auch gefunden werden. Findet das übergeordnete Locator Tool
mehrere Ergebnisse, wird, wenn diese Option aktiviert ist, nur das entsprechende Ergebnis des
übergeordneten Tools und die Ergebnisse der Locator Tools auf der Grundlage des Ergebnis des
übergeordneten Tools angezeigt.

- 282 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.4.3 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Linien korrekt
findet.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

Num Found (Anz. gefunden)


Die Anzahl der gefundenen Linien wird angezeigt.

Num Almost Found (Anz. beinahe gefundener Ergebnisse)


Die Anzahl der Linien, die nicht gefunden wurden, da sie geringfügig außerhalb des angegebenen
Bereichs lagen, werden angezeigt. Wenn das Kontrollkästchen [Show Almost Found] nicht aktiviert ist,
wird 0 angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

Row(V), Column(H) (Zeile(V), Spalte(H))


Koordinatenwerte des Modell-Ursprungspunkts der gefundenen Linie (Einheit: Pixel).

Score (Wertigkeit)
Wertigkeit der gefundenen Linie.

Contrast (Kontrast)
Kontrast der gefundenen Linie.

Fit Error (Übereinstimmungsfehler)


Abweichung der gefundenen Linie von der Modelllinie (Einheit: Pixel).

Angle (Winkel)
Ausrichtung der gefundenen Linie (Einheit: Grad). Sie wird nur dann angezeigt, wenn das
Kontrollkästchen für Ausrichtungssuche aktiviert ist.

- 283 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.4.4 Übersteuerbare Parameter


Dieses Befehlstool hat folgende Parameter, die mit Vision Override übersteuert werden können.
Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Score Threshold (Schwellenwert der Wertigkeit)


Geben Sie eine Zahl zwischen 10 und 100 an.

Contrast Threshold (Kontrast-Schwellenwert)


Geben Sie eine Zahl zwischen 1 und 250 an.

Elasticity (Elastizität)
Geben Sie eine Zahl zwischen 1 und 5 an.

DOF Angle (DOF-Winkel)


Auswahl aktiviert/deaktiviert, Mindestwinkel, Maximalwinkel und Nennwinkel können angegeben
werden. Geben Sie 0 für Deaktivieren oder 1 für Aktivieren an. Geben Sie für Mindestwinkel,
Maximalwinkel und Nennwinkel eine Zahl zwischen −360 und 360 an.

7.4.5 Richtlinien
Diese Richtlinien vermitteln Ihnen ein tieferes Verständnis der Funktionsweise des Line Locator Tools.

Einsatzmöglichkeiten des Line Locator Tools


Das Line Locator Tool bietet Möglichkeiten der Bildverarbeitung für mit der Kamera aufgenommene
Prozessbilder, kann die vorher eingelernte Linie als Muster und die vorher eingelernte Länge (oder
länger) in einem Bild auffinden, und Position und Ausrichtung der gefundenen Linie ausgeben. Das
vorher eingelernte Muster wird als Modellmuster oder einfach nur Modell bezeichnet. Im Gegensatz zum
GPM Locator Tool, das ein Modellmuster auf der Grundlage des im Bild aufgenommenen Gegenstands
erzeugt, erzeugt und speichert das Line Locator Tool ein Modellmuster auf der Grundlage der
angegebenen Linienart und -länge.

Eine gefundene Länge hat keine endliche Länge, sondern vielmehr ein Segment mit einer unendlichen
Länge in Richtung der gefundenen Ausrichtung. Dieses Merkmal kann in Anwendungen verwendet
werden, bei denen der Schnittpunkt zweier Linien oder der aus zwei Linien gebildete Winkel gefunden
werden soll.

Ergebnis des Line Locator Tools


Das Ergebnis eines Line Locator Tools ist die Position des Modellursprungs (Vt, Hz) und die Ausrichtung
der Linie. Dennoch kann die Position des Modellursprungs entlang der Linienlänge variieren.

Die von einem Line Locator Tool ausgegebenen Positionsinformationen haben eine andere Bedeutung als
die von GPM Locator Tools ausgegebenen Positionsinformationen. Während ein GPM Locator Tool die
Position als einen „Punkt“ im Bild ausgibt, gibt das Line Locator Tool die Position als eine „Linie“ aus
und iRVision unterscheidet zwischen ihnen als zwei Positionsarten.

Eigentlich enthält eine „Linie“ keine definierten Positionsinformationen. Für praktische Zwecks kann die
Position der „Linie“ dazu verwendet werden, den Offset zu berechnen oder das Suchfenster eines
untergeordneten Tools dynamisch zu verschieben. Dennoch muss bedacht werden, dass die Position einer
Linie nicht bestimmbar ist und sich irgendwo auf einer gegebenen Linie befinden könnte.

- 284 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.5 COMBINATION LOCATOR TOOL


Das Combination Locator Tool ist ein Locator Tool, mit dem die Ausgabeergebnisse durch die
Kombination der Ergebnisse mehrerer Locator Tools angepasst werden können. Dieses Locator Tool
arbeitet mit den untergeordneten Locator Tools zusammen und funktioniert als ein einziges Locator Tool.
Die untergeordneten Locator Tools erledigen die gesamte Bildverarbeitung und das Combination Locator
Tool gibt nur die angepassten Ergebnisse aus. Wenn Sie das Combination Locator Tool in der
Verzeichnisstruktur der Einrichtungsseite des Bilderkennungsprozesses auswählen, erscheint ein
Bildschirm wie unten dargestellt.

7.5.1 Einrichten
Richten Sie das Combination Locator Tool ein.

Untergeordnete Tools hinzufügen


Wird ein Combination Locator Tool angelegt, werden zwei Line Locator Tools und ein Position
Calculation Tool standardmäßig als seine untergeordneten Tools hinzugefügt. Die Ausgabeergebnisse
können durch Ändern der Kombination der untergeordneten Tools nach Bedarf angepasst werden.

Die folgende Verzeichnisstruktur wird verwendet, wenn [Line Locator 1] und [Line Locator 2] Linien
erkennen und [Position Calculation 1] die Schnittstelle der Linien berechnet und [Combination Locator
Tool 1] die Berechnungsergebnisse ausgibt.

Locator 1
Wählen Sie aus, welches Ergebnisse eines untergeordneten Position Calculation Tool als Ergebnisse des
Combination Locator Tools ausgegeben werden sollen. Das gefundene Ergebnis von Locator 1 wird in
dieser Reihenfolge ausgegeben. Die Ergebnisse anderer untergeordneter Tools, die nicht ausgewählt
wurden, werden nicht ausgegeben.
Weitere Informationen zum Line Locator Tool und dem Position Calculation Tool finden Sie in den
Abschnitten 7.4 „Line Locator Tool“ und 7.23 „Position Calculation Tool“.

- 285 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.5.2 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Ergebnisse des
ausgewählten Position Locator Tools korrekt ausgeben kann.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

Locator (Lokalisierungstool)
Name des Locator Tools, das das Ergebnis ausgibt.

Row, Column (Zeile, Spalte)


Koordinatenwerte des Modell-Ursprungspunkts des gefundenen Musters (Einheit: Pixel).

Angle (Winkel)
Ausrichtung des gefundenen Musters (Einheit: Grad).

Scale (Skalierung)
Skalierung des gefundenen Musters (Einheit: %).
Wenn das gewählte Ergebnis des Befehlstools nicht den Größenparameter hat, wird 100 angezeigt.

Aspect Ratio (Bildseitenverhältnis)


Seitenverhältnis des gefundenen Musters (Einheit: %).
Wenn das gewählte Ergebnis des Befehlstools nicht den Seitenverhältnisparameter hat, wird 100
angezeigt.

7.5.3 Übersteuerbare Parameter


Dieses Befehlstool hat keine Parameter, die mit Vision Override übersteuert werden können.

- 286 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.6 EDGE PAIR LOCATOR TOOL


Das Edge Pair Locator Tool findet zwei parallele Linie (Kantenpaar) in einem Bild, die mit dem
programmierten Modellmuster übereinstimmen und gibt die Mittenposition des Kantenpaars und den
Abstand zwischen den Kanten aus. Das Tool wird im Wesentlichen zur Längenmessung eingesetzt.
Wenn Sie das Edge Pair Locator Tool in der Verzeichnisstruktur der Einrichtungsseite des
Bilderkennungsprozesses auswählen, erscheint ein Bildschirm wie unten dargestellt.

Input Image (Eingabebild)


Wählen Sie das Bild aus, das für Programmierung und Erkennung eines Modells verwendet wird. Verfügt
der Bilderkennungsprozess über ein Image Filter Tool oder ein Color Extraction Tool, können Sie ein
gefiltertes Bild als Eingabebild für das Edge Pair Locator Tool anstelle des von der Kamera
aufgenommenen Originalbilds auswählen. Weitere Informationen finden Sie in den Abschnitten 7.25
„Image Preprocess Tool“, 7.26 „Image Filter Tool“ und 7.27 „Color Extraction Tool“.

- 287 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.6.1 Suchfenster einstellen


Stellen Sie den nach einem Kantenpaar zu durchsuchenden Bereich ein.

Search Area (Suchbereich)


Geben Sie den zu messenden Bereich des Bildbereichs an. Je kürzer der die Höhe des Messbereichs ist,
desto genauer wird die Position der Kanten gefunden. Tippen Sie die Taste [Set], um den Suchbereich zu
verändern. Wird im Bild ein rotes Rechteck angezeigt, umschließen Sie den Bereich, der das mit dem
angezeigten Rechteck zu suchende Kantenpaar enthält und drücken Sie F4 OK. Das Rechteck sollte so
platziert sein, das die Mittenlinie, die den Rotationswinkel des Rechtecks anzeigt, parallel zu der zu
messenden Länge - wie im Bild unten dargestellt - liegt. Ausführliche Informationen zur Verfahrensweise
finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

Length to measure
Zu messende Länge

Sollposition des übergeordneten Tools


Dies ist die Sollposition, die für die dynamische Fensterverschiebung verwendet wird. Dieser Abschnitt
zeigt die Position des Werkstücks, das vom übergeordneten Locator Tool zum Zeitpunkt des Einlernens
des Suchbereichs gefunden wurde.

- 288 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.6.2 Ein Modell einlernen


Lernen Sie das zu findende Kantenpaar als Modell ein.
Gehen Sie zum Einlernen des Modells wie folgt vor.

1 Tippen Sie auf die Taste [Train].


2 Die im Messbereich gefundene Kante wird im Fenster angezeigt. Verschieben Sie zuerst die linke
Spitze der roten Linie zur linken Kante des als Modell verwendeten Kantenpaars.
3 Verschieben Sie nun die rechte Spitze der roten Linie zur rechten Kante des als Modell verwendeten
Kantenpaars und drücken Sie F4 OK.

Wenn der Einlernprozeß des Modells abgeschlossen ist, werden die Informationen zum eingelernten
Modell angezeigt.

Model Image (Modellbild)


Das zu findende Kantenpaar und der Abstand zwischen den als Paar definierten Kanten werden angezeigt.
Die Polarität der zu findenden Kanten (von Weiß nach Schwarz oder Schwarz nach Weiß) wird deutlich.

Standard Length (Standardlänge)


Dies ist der Abstand zwischen den Kanten des Modell-Kantenpaars. Werden während der Laufzeit
mindestens zwei Kantenpaar-Kandidaten im Suchfenster gefunden und überlappen diese sich, wird das
Kantenpaar priorisiert, dessen Abstand zwischen den Kanten der Standardlänge am Nächsten kommt.

Left/Right Edge Contrast (Kantenkontrast links/rechts)


Dies ist der Kontrast der Kanten des Modell-Kantenpaars. Werden während der Laufzeit mindestens zwei
Kantenpaar-Kandidaten im Suchfenster gefunden und überlappen diese sich, wird das Kantenpaar
priorisiert, dessen Kontrast dem des Modell-Kantenpaars am Nächsten kommt.

- 289 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.6.3 Lokalisierungsparameter einstellen


Stellen Sie die Lokalisierungsparameter ein.

Model ID (Modell-ID)
Wenn Sie zwei oder mehr Edge Locator Tools eingelernt haben und erkennen möchten, welchem Tool
das gefundene Werkstück entspricht, weisen Sie einem jeden Tool eine eindeutige Modell-ID zu. Die
Modell-ID des gefundenen Modellmusters wird zusammen mit den Offset-Daten an die Robotersteuerung
gesendet. Dadurch kann das Roboterprogramm den Typ des gefundenen Modells erkennen.

Contrast Threshold (Kontrast-Schwellenwert)


Gibt die Kontrastschwelle für die Suche an. Der Standardwert ist 30. Wird ein kleinerer Wert eingestellt,
ist das Tool in der Lage, die Kanten auch mit einem geringeren Kontrast zu finden, jedoch dauert der
Lokalisierungsprozess länger. Der Minimalwert ist 1. Ist der Kontrast zu niedrig eingestellt, können
falsche Kanten gefunden werden. Erhöhen Sie in einem solchen Falle den Kontrast-Schwellenwert.
Die Kanten, deren Kontrast niedriger als der Schwellenwert ist, werden ignoriert.

Maximum Length to Search (Maximale zu suchende Länge)


Geben Sie die maximale Entfernung zwischen den Kanten des zu suchenden Kantenpaars an.
Beim Einlernen eines Modell-Kantenpaars wird ein Wert von 105% der Standardlänge als Standardwert
eingestellt.

Minimum Length to Search (Minimale zu suchende Länge)


Geben Sie die minimale Entfernung zwischen den Kanten des zu suchenden Kantenpaars an.
Beim Einlernen eines Modell-Kantenpaars wird ein Wert von 95% der Standardlänge als Standardwert
eingestellt.

Result Plotting Mode (Ergebnisdarstellungsmodus)


Wählt den Bildanzeigemodus für das Einrichtungsfenster.

Edge (Kante)
Der Suchbereich, der gemessene Abstand des Kantenpaars (grüner Pfeil) sowie die Mittenposition
des gefundenen Kantenpaars werden angezeigt.

Edges + Arrow (Kanten + Pfeil)


Die Abtastrichtung (blauer Pfeil), der gemessene Abstand des Kantenpaars (grüner Pfeil) sowie die
Mittenposition des gefundenen Kantenpaars werden angezeigt.

Edges + Proj. + Grad. (Kanten + Projektion + Skalierung)


Zusätzlich zu den im Kantenmodus dargestellten Informationen werden Diagramme der Änderungen
des Kontrasts und des Gradienten des Suchbereichs angezeigt.

Edges + Proj. + Grad.+ Arrow (Kanten + Projektion + Skalierung + Pfeil)


Zusätzlich zu den im „Edges + Arrow-Modus“ dargestellten Informationen werden Diagramme der
Änderungen des Kontrasts und des Gradienten des Suchbereichs angezeigt.

- 290 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Result Show Mode (Ergebnisanzeigemodus)


Wählen Sie den Ergebnisanzeigemodus im Einrichtungsfenster.

Found Results (Gefundene Ergebnisse)


Von den gefundenen Kantenpaaren wird dasjenige angezeigt, das als gefundenes Ergebnis
ausgegeben wird.

All Edge Pairs (Alle Kantenpaare)


Es werden alle Kantenpaare ohne Berücksichtigung der Länge dargestellt, deren Polarität (von Weiß
nach Schwarz oder Schwarz nach Weiß) derjenigen des Modell-Kantenpaars entspricht.

Result to Display (Anzuzeigendes Ergebnis)


Ist das Edge Pair Locator Tool als untergeordnetes Tool eines Locator Tools eingefügt und das
übergeordnete Locator Tool gibt mehrere gefundene Ergebnisse aus, kann das Ergebnis, das einem
spezifischen gefundenen Ergebnis des übergeordneten Tools entspricht, durch Auswahl der
Ergebnisnummer angezeigt werden. Bei Auswahl von [All] werden die Ergebnisse aller gefundenen
Ergebnisse des übergeordneten Locator Tools angezeigt.

7.6.4 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Werkstücke
korrekt findet.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.
Dies ist nur die Zeitdauer der Bildverarbeitung und enthält nicht die Zeit für die Bildaufnahme.

- 291 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Tabelle der Suchergebnisse - Suchergebnisse


Beim Edge Pair Locator Tool sind die Anzeigeergebnisse in der Tabelle der Suchergebnisse andere, als
diejenigen, die im [Result Show Mode] ausgewählt wurden. Ist [Found Results] ausgewählt, wird das als
Suchergebnis auszugebende gefundene Kantenpaar angezeigt.

Row(V), Column(H) (Zeile(V), Spalte(H))


Koordinaten des Masseschwerpunks des gefundenen Kantenpaars (Einheit: Pixel).

Score (Wertigkeit)
Wertigkeit des gefundenen Kantenpaars.

Angle (Winkel)
Rotationswinkel des Messbereichs zum Zeitpunkt, an dem der Lokalisierungsprozess ausgeführt
wird bezogen auf den Messbereich zum Einrichtzeitpunkt.

Length (Länge)
Abstand zwischen den Kanten des gefundenen Kantenpaars (Einheit: Pixel)

Contrast (Kontrast)
Mittlerer Kontrast des gefundenen Kantenpaars.

Edge 1 Row (Zeile Kante 1)


Koordinate in Vertikalrichtung der linken Kante des gefundenen Kantenpaars (Einheit: Pixel).

Edge 1 Col (Spalte Kante 1)


Koordinate in Horizontalrichtung der linken Kante des gefundenen Kantenpaars (Einheit: Pixel).

Edge 2 Row (Zeile Kante 2)


Koordinate in Vertikalrichtung der rechten Kante des gefundenen Kantenpaars (Einheit: Pixel).

Edge 2 Col (Spalte Kante 2)


Koordinate in Horizontalrichtung der rechten Kante des gefundenen Kantenpaars (Einheit: Pixel).

Tabelle der Suchergebnisse - All Edge Pairs (Alle Kantenpaare)


Wenn Sie [All Edge Pairs] auswählen, werden alle Kantenpaare ohne Berücksichtigung der Länge
dargestellt, deren Polarität (von Weiß nach Schwarz oder Schwarz nach Weiß) derjenigen des Modells
entspricht.

Length (Länge)
Abstand zwischen den gefundenen Kantenpaaren (Einheit: Pixel).

Contrast 1 (Kontrast 1)
Mittlerer Kontrast der linken Kante des gefundenen Kantenpaars.

Contrast 2 (Kontrast 2)
Mittlerer Kontrast der rechten Kante des gefundenen Kantenpaars.

- 292 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.6.5 Übersteuerbare Parameter


Dieses Befehlstool hat folgende Parameter, die mit Vision Override übersteuert werden können.
Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Contrast Threshold (Kontrast-Schwellenwert)


Geben Sie eine Zahl zwischen 1 und 250 an.

7.7 HISTOGRAM TOOL


Mit dem Histogram Tool wird die Helligkeit eines Bilds gemessen. Ist das Histogram Tool einem Locator
Tool untergeordnet, z. B. dem GPM Locator Tool, bewegt sich das Messfensters des Histogram Tools in
der Verzeichnisstruktur dynamisch in Abhängigkeit der gefundenen Ergebnisse des übergeordneten
Locator Tools.

Wenn Sie das Histogram Tool in der Verzeichnisstruktur der Einrichtungsseite des
Bilderkennungsprozesses auswählen, erscheint ein Bildschirm wie unten dargestellt.

Input Image (Eingabebild)


Wählen Sie das Bild aus, das für die Programmierung der Helligkeitsmessung verwendet wird. Verfügt
der Bilderkennungsprozess über ein Image Filter Tool oder ein Color Extraction Tool, können Sie ein
gefiltertes Bild als Eingabebild für das Histogram Tool anstelle des von der Kamera aufgenommenen
Originalbilds auswählen. Weitere Informationen finden Sie in den Abschnitten 7.25 „Image Preprocess
Tool“, 7.26 „Image Filter Tool“ und 7.27 „Color Extraction Tool“.

- 293 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.7.1 Messbereich einstellen


Use Computed RT Mask (Berechnete Laufzeitmaske verwenden)
Diese Option ist nur verfügbar, wenn dieses Histogram Tool ein untergeordnetes Tool eines Blob Locator
Tools ist. Ist dieses Kontrollkästchen aktiviert, wird ein vom übergeordneten Blob Locator Tool
gefundenes Blob als Messbereich und die Laufzeitmaske dieses Histogram Locator Tools verwendet.
Normalerweise ist dieses Kontrollkästchen nicht aktiviert.

Helligkeitsmessbereich
Der Bereich, in dem die Helligkeit gemessen werden soll, wird folgendermaßen eingestellt.

1 Drücken Sie F2 LIVE, um in die Live-Kamerabildanzeige zu wechseln.


2 Platzieren Sie das Werkstück nahe der Mitte des Kameraerfassungsbereichs.
3 Drücken Sie F2 STOP und dann F3 SNAP, um das Bild des Werkstücks aufzunehmen.
4 Tippen Sie auf die Taste [Set] für [Area to measure brightness].

Das übergeordnete Locator Tool wird automatisch ausgeführt und ein rotes Pluszeichen (+) erscheint auf
dem gefundenen Objekt. Schlägt die Lokalisierung fehl, wird eine entsprechende Alarmmeldung
angezeigt und das Einstellen des Messbereichs angehalten.

5 Wählen Sie den Messbereich im angezeigten roten Rechteck aus und drücken Sie dann F4 OK.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

Die in [Reference Position] angezeigten Werte geben die Position des Objekts an, die das übergeordnete
Locator Tool gefunden hat, als der Messbereich angegeben wurde.

Run-Time Mask (Laufzeitmaske)


Geben Sie einen Bereich des Messfensters an, den Sie von der Verarbeitung ausschließen wollen. Dies
kann z. B. eine beliebige Geometrie sein. Der ausgefüllte Bereich wird im als Messfenster angegebenen
Rechteck maskiert und bei der Bildverarbeitung nicht berücksichtigt. Tippen Sie auf die Taste [Edit], um
die Laufzeitmaske zu ändern. Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt
3.7.10 „Maskenbearbeitung“.

- 294 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Filter Type (Filterart)


Vor der Messung eines Histogramms können Sie das Bild filtern.

None (Kein)
Es wird kein Filter verwendet.

Blur (Schärfe reduzieren)


Es wird ein Filter angewendet, um die Schärfe des Bildes zu reduzieren. Die Reduzierung der
Schärfe eines Bildes verdeckt Helligkeitsunterschiede im Bild und trägt dazu bei, den Rauscheffekt
zu mindern.

Times (Häufigkeit)
Gibt die Häufigkeit an, mit der der Filter angewendet werden soll. Derzeit ist diese Option nur verfügbar,
wenn in [Filter Type] [Blur] eingestellt ist. Je höher die Zahl, umso stärker wird die Schärfe reduziert.
Es kann ein Wert von 1 bis 10 angegeben werden.

Range of Interest (Bereich von Interesse)


Stellen Sie den Bereich von Interesse für die Helligkeit von 0 (dunkel) bis 255 (hell) ein.
Bei der im Folgenden beschriebenen Option [Within Range (%)] wird der prozentuale Anteil der Pixel im
angegebenen Helligkeitsbereich angegeben.

Image Display Mode (Bildanzeigemodus)


Wählt den im Bildanzeigerahmen anzuzeigenden Bildtyp aus den beiden folgenden Arten aus:

Original Image (Originalbild)


Zeigt das Bild so an, wie es von der Kamera aufgenommen wurde.

Filtered Image (Gefiltertes Bild)


Zeigt das Bild nach Anwendung eines festgelegten Filters auf das Originalbild an.

7.7.2 Einen Test durchführen


Führen Sie einen Messtest durch, um festzustellen, ob das Tool die Helligkeit korrekt finden kann.

- 295 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Time to Find (Suchzeit)


Die Dauer der Histogrammmessung wird in Millisekunden angezeigt.

Tabelle der Messergebnisse


Folgende Werte werden angezeigt:

Pixels (Pixel)
Gesamtanzahl der Pixel im Messbereich.

Max.
Helligkeit des hellsten Pixels im Messbereich.

Min.
Helligkeit des dunkelsten Pixels im Messbereich.

Median (Halbwert)
Halbwert der Helligkeit des Messbereichs.

Mode (Modus)
Häufigste Helligkeit der Pixel im Messbereich.

Mean (Mittelwert)
Mittlere Helligkeit des Messbereichs.

Std. Dev. (Standardabweichung)


Standardabweichung der Helligkeit des Messbereichs.

In Range (%) (Innerhalb des Bereichs (%))


Verhältnis der Anzahl Pixel innerhalb des in [Range of Interest] vorgegebenen Helligkeitsbereichs
zur Gesamtanzahl der Pixel im Bereich, dessen Helligkeit gemessen wurde.

Out of Range (%) (Außerhalb des Bereichs (%))


Verhältnis der Anzahl Pixel außerhalb des in [Range of Interest] vorgegebenen Helligkeitsbereichs
zur Gesamtanzahl der Pixel im Bereich, dessen Helligkeit gemessen wurde.

7.7.3 Übersteuerbare Parameter


Dieses Befehlstool hat keine Parameter, die mit Vision Override übersteuert werden können.

- 296 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.8 EDGE HISTOGRAM TOOL


Das Edge Histogram Tool misst die Änderungen (Gradienten) der Helligkeit eines Bilds. Ist das Edge
Histogram Tool einem Locator Tool untergeordnet, z. B. dem GPM Locator Tool, bewegt sich das
Messfensters des Edge Histogram Tools in der Verzeichnisstruktur in Abhängigkeit der gefundenen
Ergebnisse des übergeordneten Locator Tools. Wenn Sie das Edge Histogram Tool in der
Verzeichnisstruktur der Einrichtungsseite des Bilderkennungsprozesses auswählen, erscheint ein
Bildschirm wie unten dargestellt.

Input Image (Eingabebild)


Wählen Sie das Bild aus, das für die Programmierung der Helligkeitsmessung verwendet wird. Verfügt
der Bilderkennungsprozess über ein Image Filter Tool oder ein Color Extraction Tool, können Sie ein
gefiltertes Bild als Eingabebild für das Edge Histogram Tool anstelle des von der Kamera
aufgenommenen Originalbilds auswählen. Weitere Informationen finden Sie in den Abschnitten 7.25
„Image Preprocess Tool“, 7.26 „Image Filter Tool“ und 7.27 „Color Extraction Tool“.

- 297 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.8.1 Messbereich einstellen


Use Computed RT Mask (Berechnete Laufzeitmaske verwenden)
Diese Option ist nur verfügbar, wenn dieses Edge Histogram Tool ein untergeordnetes Tool eines Blob
Locator Tools ist. Ist dieses Kontrollkästchen aktiviert, wird ein vom übergeordneten Blob Locator Tool
gefundenes Blob als Messbereich und die Laufzeitmaske dieses Edge Histogram Locator Tools
verwendet. Normalerweise ist diese Option deaktiviert.

Measurement Area (Messbereich)


Der Bereich, dessen Gradienten gemessen werden sollen, wird folgendermaßen eingestellt.

1 Drücken Sie F2 LIVE, um in die Live-Kamerabildanzeige zu wechseln.


2 Platzieren Sie das Werkstück nahe der Mitte des Kameraerfassungsbereichs.
3 Drücken Sie F2 STOP und dann F3 SNAP, um das Bild des Werkstücks aufzunehmen.
4 Tippen Sie auf die Taste [Set] für [Measurement area].
5 Das übergeordnete Locator Tool wird automatisch ausgeführt und ein rotes Pluszeichen (+) erscheint
auf dem gefundenen Objekt.
Schlägt die Lokalisierung fehl, wird eine entsprechende Alarmmeldung angezeigt und das Einstellen
des Messbereichs angehalten.
6 Platzieren Sie das Werkstück im angezeigten roten Rechteck und drücken Sie dann F4 OK.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

Die in [Reference Position] angezeigten Werte geben die Position des Objekts an, die das übergeordnete
Locator Tool gefunden hat, als der Messbereich angegeben wurde.

Run-Time Mask (Laufzeitmaske)


Geben Sie einen Bereich des Messfensters an, den Sie von der Messung durch das Edge Histogram Tool
ausschließen wollen. Der maskierte Bereich des Messfensters wird bei der Bildverarbeitung des Edge
Histogram Tools nicht berücksichtigt. Tippen Sie auf die Taste [Edit], um die Laufzeitmaske zu ändern.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.10 „Maskenbearbeitung“.

Mode (Modus)
Ein Gradient besteht aus zwei Elementen: Kontrast und Richtung. Geben Sie aus diesen das Element an,
dessen Verteilung gemessen werden soll.

- 298 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Contrast (Kontrast)
Die Verteilung der Gradientenkontraste wird gemessen. Der Kontrast eines Gradienten wird durch
einen Wert von 0 (schwach) bis 255 (stark) dargestellt. Wie am Beispiel der nachstehenden
Abbildung „Gradient Contrast Image“ dargestellt, wird der Wert in einem Bereich größer, in dem
der Kontrast zwischen Hell und Dunkel stärker ist.

[Original Image] [Contrast Image]

Direction (Richtung)
Die Verteilung der Richtungen des Gradienten wird gemessen. Die Richtung eines Gradienten wird
durch einen Wert von 0 bis 255 dargestellt. Die Werte auf dem Bildschirm werden im Uhrzeigersinn
größer. Welche Richtung durch jeden einzelnen Wert dargestellt wird, wird durch die Richtung des
Mittelwerts 128 bestimmt, der in [Center of histogram means] wie im Folgenden beschrieben gesetzt
wird.

[Original Image] [Direction Image]

- 299 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Bildvorbearbeitung
Als Vorbearbeitung vor der Messung der Verteilung des Gradienten kann ein Filter auf das Bild
angewendet werden. Dadurch wird die Störung der Verteilung des Gradienten durch feines Rauschen
unterdrückt. Folgende drei Einstellungen sind verfügbar:

None (Keine)
Messung der Verteilung des Gradienten mit dem Originalbild ohne Vorbearbeitung.

Gaussian (Gauß'scher Filter)


Anwendung eines Gauß'schen Filters für die Vorbearbeitung. Damit kann die ursprüngliche
Verteilung des Gradienten einfacher gespeichert werden als mit [Blur]. Diese Einstellung wird für
die Messung eines Werkstücks empfohlen, dessen ursprüngliche Verteilung des Gradienten relativ
stabil ist.

Blur (Schärfe reduzieren)


Zur Vorbearbeitung wird ein Filter angewendet, um die Schärfe des Bildes zu reduzieren. Hiermit ist
die Wirkung der Mittelwertbildung der ursprünglichen Verteilung des Gradienten größer als bei
[Gaussian]. Diese Einstellung wird für Bilder einer Gussoberfläche oder eines ähnlichen Materials
empfohlen, bei dem viele Gradienten vorhanden sind, die nicht die Art des Werkstücks getreu
wiedergeben.

Times (Häufigkeit)
Gibt die Häufigkeit an, mit der der Filter zur Vorbearbeitung angewendet werden soll. Wird der Filter
mehrfach angewendet, ist eine stärkere Reduzierung des Rauschens möglich, jedoch wird auch der
Kontrast des Gradienten reduziert. Es kann ein Wert von 1 bis 10 angegeben werden.

Range of Interest (Bereich von Interesse)


Geben Sie den Kontrast oder die Richtung des zu untersuchenden Bereichs in 256 Stufen von 0 bis 255
an. Bei der im Folgenden beschriebenen Option [Within Range (%)] wird der prozentuale Anteil der Pixel
im angegebenen Helligkeitsbereich angegeben.

Dir. at Middle Value (Richtung bei Mittelwert)


Dieses Element gilt nur dann, wenn [Direction] bei [Mode] ausgewählt wurde. Bei diesem Edge
Histogram Tool wird die Richtung in 256 Stufen von 0 bis 255 angegeben. Geben Sie an, welche
Richtung den Werten von 0 bis 255 zugewiesen werden soll. Wird z. B. [Upward] bei [Center of
histogram means] angegeben, sind die Richtungen des Gradienten von Hell nach Dunkel so zugewiesen,
dass die Aufwärtsrichtung am Bildschirm in der Mitte des Histogramms liegt (128). Legen Sie eine
Richtung fest, die die Eigenschaften des Messbereichs gut darstellt. Zur Erläuterung: die mittlere Mitte
des Histogramms wird für jede Richtung des folgenden Bilds dargestellt, wobei der vom roten Rechteck
umschlossene Bereich hervorgehoben ist und dort die Hell-Dunkel-Richtung der Rechts-Links-Richtung
auf dem Bildschirm entspricht. Hierfür wird das Kantenbild und das Kanten-Histogramm dieses Bereichs
verwendet.

- 300 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Upward (Aufwärts)
Den Richtungen des Gradienten von Hell nach Dunkel werden Werte von 0 bis 255 zugewiesen,
sodass die Aufwärtsrichtung auf dem Bildschirm in der Mitte des Histogramms liegt. In diesem
Beispiel sind sowohl die linke als auch die rechte Seite des Histogramms in Abwärtsrichtung
dargestellt.

Abwärts
Aufwärts
Nach Rechts

Nach Links
Abwärts

Leftward (Nach Links)


Den Richtungen des Gradienten von Hell nach Dunkel werden Werte von 0 bis 255 zugewiesen,
sodass die Richtung nach Links auf dem Bildschirm in der Mitte des Histogramms liegt. In diesem
Beispiel sind sowohl die linke als auch die rechte Seite des Histogramms in Richtung nach Rechts
dargestellt.
Nach Rechts

Nach Links

Nach Rechts
Aufwärts

Abwärts

Downward (Abwärts)
Den Richtungen des Gradienten von Hell nach Dunkel werden Werte von 0 bis 255 zugewiesen,
sodass die Abwärtsrichtung auf dem Bildschirm in der Mitte des Histogramms liegt. In diesem
Beispiel sind sowohl die linke als auch die rechte Seite des Histogramms in Aufwärtsrichtung
dargestellt.
Aufwärts

Nach Links

Abwärts
Abwärts

Nach Rechts

Aufwärts

- 301 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Rightward (Nach Rechts)


Den Richtungen des Gradienten von Hell nach Dunkel werden Werte von 0 bis 255 zugewiesen,
sodass die Richtung nach Rechts auf dem Bildschirm in der Mitte des Histogramms liegt. In diesem
Beispiel sind sowohl die linke als auch die rechte Seite des Histogramms in Richtung nach Links
dargestellt.

Nach Links
Nach Links

Abwärts
Abwärts

Nach Rechts

Aufwärts
Minimum Contrast (Mindestkontrast)
Dieses Element gilt nur dann, wenn [Direction] bei [Mode] ausgewählt wurde. Pixel, bei denen der
Gradientenkontrast niedriger als dieser Wert ist, werden nicht zur Messung der Gradientenrichtung
verwendet. Die Standardeinstellung ist 10 und kann ggf. nach Bedarf eingestellt werden.

Image Display Mode (Bildanzeigemodus)


Wählt den im Bildanzeigerahmen anzuzeigenden Bildtyp aus den beiden folgenden Arten aus:

Original Image (Originalbild)


Zeigt das Bild so an, wie es von der Kamera aufgenommen wurde.

Edge Image (Kantenbild)


Zeigt das Bild an, dessen Gradientenverteilung tatsächlich gemessen werden soll. Das anzuzeigende
Bild ist je nach den in [Mode] gewählten Einstellungen unterschiedlich. Weitere Informationen zu
dem anzuzeigenden Bild finden Sie in der Beschreibung von [Mode] weiter oben im Text.

Preprocessed Image (Vorbearbeitetes Bild)


Zeigt das Bild an, auf das der angegebene Filter für die Vorbearbeitung angewendet wurde.

- 302 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.8.2 Einen Test durchführen


Drücken Sie F4 FIND, um einen Messtest durchzuführen und zu überprüfen, ob das Tool die
Gradientenverteilung korrekt messen kann.

Time to Find (Suchzeit)


Die Dauer der Messung der Gradientenverteilung wird in Millisekunden angezeigt.

Tabelle der Messergebnisse


Folgende Werte werden angezeigt:

Pixels (Pixel)
Gesamtanzahl der Pixel im Bereich, in dem die Messung der Gradientenverteilung durchgeführt
wurde. Die Einheit lautet Pixel. Es ist zu beachten, dass Pixel, deren Kontrast unter dem
Kontrastminimalwert liegt, von der Messung der Gradientenverteilung ausgeschlossen werden und
diese nicht im Gesamtwert enthalten sind.

Max.
Maximalwert im Messbereich der Gradientenverteilung.

Min.
Minimalwert im Messbereich der Gradientenverteilung.

Median (Halbwert)
Halbwert im Messbereich der Gradientenverteilung.

Mode (Modus)
Am Häufigsten gefundener Wert im Messbereich der Gradientenverteilung.

Mean (Mittelwert)
Mittelwert im Messbereich der Gradientenverteilung.

Std. Dev. (Standardabweichung)


Standardabweichung der Werte im Messbereich der Gradientenverteilung.
- 303 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

In Range (%) (Innerhalb des Bereichs (%))


Verhältnis der Anzahl Pixel innerhalb des in [Range of Interest] vorgegebenen Bereichs zur
Gesamtanzahl der Pixel im Messbereich der Gradientenverteilung.

Out of Range (%) (Außerhalb des Bereichs (%))


Verhältnis der Anzahl Pixel außerhalb des in [Range of Interest] vorgegebenen Bereichs zur
Gesamtanzahl der Pixel im Messbereich der Gradientenverteilung.

Die Abbildung unten zeigt ein Beispiel eines Tests unter Verwendung von [Direction]. Da die gefundenen
Ergebnisse des übergeordneten Tools einen Einfluss auf die Richtungsberechnung haben, gibt es keine
wesentliche Änderung im Histogram; auch dann nicht, wenn das Werkstück gedreht wird.

Befindet sich jedoch ein anderer Gegenstand im Messbereich, ändert sich das Histogramm wie unten
dargestellt. Die Berücksichtigung dieser Änderung kann dazu beitragen, Überlappung oder andere
Bedingungen des Werkstücks zu erkennen.

7.8.3 Übersteuerbare Parameter


Dieses Befehlstool hat keine Parameter, die mit Vision Override übersteuert werden können.

- 304 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.9 CONDITIONAL EXECUTION TOOL


Das Conditional Execution Tool (Tool für bedingte Ausführung) kann das Ergebnis des Histogramm-
Tools oder eines anderen Tools unter angegebenen Bedingungen auswerten und die angegebene
Verarbeitung wird nur dann ausgeführt, wenn diese Bedingungen zutreffen.
Wenn Sie das Conditional Execution Tool in der Verzeichnisstruktur der Einrichtungsseite des
Bilderkennungsprozesses auswählen, erscheint ein Bildschirm wie unten dargestellt.

7.9.1 Parameter einstellen


Stellen Sie die auszuwertenden Bedingungen und die Verarbeitung ein, die dann ausgeführt werden
sollen, wenn die Bedingungen zutreffen.

Measurements (Messwerte)
Wählen Sie in [Measurements] den oder die mit bedingten Anweisungen auszuwertenden Werte aus.
Es können bis zu fünf Werte angegeben werden.

1 Wählen Sie im Dropdown-Feld links ein Tool aus. Das übergeordnete Tool oder das vorherige
Befehlstool, das auf derselben Ebene steht wie dieses Tool, kann ausgewählt werden.
2 Wählen Sie im Dropdown-Feld rechts einen Messwert aus.

Conditions (Bedingungen)
Geben Sie in [Conditions] eine oder mehrere bedingte Anweisungen an.
Es können bis zu fünf Bedingungen angegeben werden.

1 Aktivieren Sie das Kontrollkästchen.


2 Wählen Sie im Dropdown-Feld links einen Wert aus.
3 Wählen Sie im Dropdown-Feld in der Mitte einen Operator für die Auswertung aus.
4 Wählen Sie im Dropdown-Feld rechts [Const] oder in [Value X] einen beliebigen Wert aus.
5 Wenn Sie [Const] auswählen, geben Sie eine Konstante in das Textfeld rechts ein.

- 305 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Action (Maßnahme)
Wählen Sie die Maßnahme aus, die ausgeführt werden soll, wenn alle angegebenen Bedingungen erfüllt
sind.

Wählen Sie im ersten Kontrollkästchen die Logik aus, die die Maßnahme ausführen soll.

When all conditions pass


(Wenn alle Bedingungen erfüllt sind)
Führt die angegebene Maßnahme aus, wenn alle Bedingungen erfüllt sind.

When at least one condition is true


(Wenn mindestens eine Bedingung erfüllt ist)
Führt die angegebene Maßnahme aus, wenn mindestens eine Bedingung erfüllt ist.

When all conditions are false


(Wenn alle Bedingungen nicht erfüllt sind)
Führt die angegebene Maßnahme aus, wenn alle Bedingungen nicht erfüllt sind.

When at least one condition is false


(Wenn mindestens eine Bedingung nicht erfüllt ist)
Führt die angegebene Maßnahme aus, wenn mindestens eine Bedingung nicht erfüllt ist.

Wählen Sie im nächsten Kontrollkästchen eine Maßnahme aus, die ausgeführt werden soll.

Invalidate this result


(Diese Ergebnis unwirksam machen)
Macht diese Position unwirksam.

Add the following value to model ID:


(Folgenden Wert zur Modell-ID hinzufügen:)
Fügt den angegebenen Wert zur Modell-ID hinzu.

Change the found angle by this many degrees:


(Gefundenen Winkel um so viel Grad ändern:)
Den angegebenen Gradwert zum gefundenen Winkel hinzufügen.

When undetermined
(Nicht bestimmt)
Geben Sie in [When undetermined] die Maßnahme an, die ausgeführt werden soll, wenn die erfüllten
Bedingungen nicht ermittelt werden können. Dies kann vorkommen, wenn kein zu evaluierender
Messwert vorhanden ist, z. B. wenn das in [Value1] angegebene Locator Tool das Werkstück nicht finden
konnte. Wählen Sie eine der folgenden Option, um die durchzuführende Maßnahme festzulegen:

Invalidate this result


(Diese Ergebnis unwirksam machen)
Macht diese Position unwirksam.

Add the following value to model ID:


(Folgenden Wert zur Modell-ID hinzufügen:)
Fügt den angegebenen Wert zur Modell-ID hinzu.

- 306 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.9.2 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und zu überprüfen, ob das Tool die Bedingungen
ordnungsgemäß auswerten kann.

Result (Ergebnis)
In [Result] wird [TRUE] angezeigt, wenn alle angegebenen Bedingungen erfüllt sind, und [FALSE],
wenn eine der angegebenen Bedingungen nicht erfüllt ist.

Tabelle der Ausführungsergebnisse


Die Messwerte für [Value 1] bis [Value 5] und die Ergebnisse der Auswertung von PASS/FAIL für
[Condition 1] bis [Condition 5] werden angezeigt.

7.9.3 Übersteuerbare Parameter


Dieses Befehlstool hat folgende Parameter, die mit Vision Override übersteuert werden können.
Einzelheiten finden Sie in Abschnitt 8.1 „VISION OVERRIDE“ und 9.2.2.13
„OVERRIDE (Übersteuern)“.

Const 1 ~ 5 (Konstanter Wert 1 ~ 5)


Geben Sie eine Zahl zwischen -9999,999 und 9999,999 an.

- 307 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.10 MULTI-LOCATOR TOOL


Mit dem Multi-Locator Tool kann das auszuführende Locator Tool je nach dem in einem Roboterregister
gesetzten Wert geändert werden. Wenn Sie das Multi-Locator Tool in der Verzeichnisstruktur der
Einrichtungsseite des Bilderkennungsprozesses auswählen, erscheint ein Bildschirm wie unten dargestellt.

7.10.1 Untergeordnete Tools hinzufügen


Sie können die Locator Tools, die Sie verwenden möchten, gemäß dem Registerwert als untergeordnete
Tools des Multi-Locator Tools hinzufügen. In der Abbildung unten wird GPM Locator Tool 1 ausgeführt,
wenn der Registerwert 1 beträgt; GPM Locator Tool 2 wird ausgeführt, wenn der Wert 2 ist.

ACHTUNG
Das Multi-Locator Tool kann keine Locator Tools unterschiedlicher Art enthalten.
Sie können zum Beispiel unter dem Multi-Locator Tool kein Blob Locator Tool zu
einem GPM Locator Tool hinzufügen.

- 308 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.10.2 Das Register einstellen


Geben Sie das Register an, das Sie zur Änderung des Locator Tools verwenden möchten.

Tool Index Register


Geben Sie die Nummer des Registers an, das Sie zur Änderung des Tools verwenden möchten.

Register Value (Registerwert)


Der aktuell für das Register in [Location Tool Index Register] gesetzte Wert wird angezeigt.
Wird der Wert geändert, wird auch der Wert des Registers der Robotersteuerung automatisch aktualisiert.
Diese Funktion ist hilfreich, wenn Sie das Locator Tool ändern und einen Test durchführen möchten.

Register Comment (Registerkommentar)


Der aktuell für das Register in [Location Tool Index Register] gesetzte Kommentar wird angezeigt.

7.10.3 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Werkstücke
korrekt findet.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Die angezeigten Elemente unterscheiden sich in Abhängigkeit der Tools, die als untergeordnete Tools des
Multi-Locator Tools festgelegt wurden. Die Erläuterung der einzelnen Messwerte finden Sie in der
Beschreibung der festgelegten untergeordneten Tools.

7.10.4 Übersteuerbare Parameter


Dieses Befehlstool hat keine Parameter, die mit Vision Override übersteuert werden können.

- 309 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.11 MULTI-WINDOW TOOL


Mit dem Multi-Window Tool kann das zu verwendende Suchfenster je nach dem in einem
Roboterregister gesetzten Wert geändert werden. Wenn Sie das Multi-Window Tool in der
Verzeichnisstruktur der Einrichtungsseite des Bilderkennungsprozesses auswählen, erscheint ein
Bildschirm wie unten dargestellt.

7.11.1 Das Register einstellen


Geben Sie das Register an, das Sie zur Änderung des Fensters verwenden möchten.

Window Index Register (Fensterindex-Register)


Geben Sie die Nummer des Registers an, das Sie zur Änderung des Fensters verwenden möchten.

Register Value (Registerwert)


Der aktuell für das angegebene Register gesetzte Wert wird angezeigt. Wird der Wert geändert, wird auch
der Wert des Registers der Robotersteuerung automatisch aktualisiert. Diese Funktion ist hilfreich, wenn
Sie das Fenster ändern und einen Test durchführen möchten.

Register Comment (Registerkommentar)


Der aktuell für das angegebene Register gesetzte Kommentar wird angezeigt.

Add Index to M. ID (Index zur Modell-ID hinzufügen)


Geben Sie hier an, ob der Wert des angegebenen Registers zur Modell-ID hinzugefügt werden soll. Ist
dieses Kontrollkästchen aktiviert, wird der Wert des angegebenen Registers zur Modell-ID hinzugefügt.

- 310 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.11.2 Fenster einrichten


Erstellen Sie ein neues Fenster oder löschen oder ändern Sie ein Fenster.

Ein neues Fenster erstellen


Tippen Sie auf die Taste . Ein neues Fenster wird erstellt.

Ein Fenster löschen


Tippen Sie auf die Taste . Das Fenster wird gelöscht.

Nach oben verschieben


Tippen Sie auf die Taste . Sie können das Fenster nun ändern.

Nach unten verschieben


Tippen Sie auf die Taste . Sie können das Fenster nun ändern.

Search Window (Suchfenster)


Gibt den zu durchsuchenden Bereich des Bildbereichs an. Als Standardwert ist das ganze Bild eingestellt.
Tippen Sie auf die Taste [Set], um das Suchfenster zu verändern. Wenn ein Rechteck im Bild erscheint,
ändern Sie das Suchfenster.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.

Run-Time Mask (Laufzeitmaske)


Geben Sie einen Bereich des Suchfensters an, das Sie von der Verarbeitung ausschließen wollen. Dies
kann z. B. eine beliebige Geometrie sein. Verwenden Sie diese Funktion, wenn Sie ein willkürlich
geformtes Suchfenster, wie etwa ein kreis- oder ringförmiges Fenster angeben möchten. Der ausgefüllte
Bereich wird im als Suchfenster angegebenen Rechteck maskiert und bei der Bildverarbeitung nicht
berücksichtigt. Tippen Sie auf die Taste [Edit], um die Laufzeitmaske zu ändern.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.10 „Maskenbearbeitung“.

- 311 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.11.3 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Werkstücke
korrekt findet.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Die angezeigten Elemente unterscheiden sich in Abhängigkeit der Tools, die als untergeordnete Tools des
Multi-Window Tools festgelegt wurden. Die Erläuterung der einzelnen Messwerte finden Sie in der
Beschreibung der festgelegten untergeordneten Tools.

7.11.4 Übersteuerbare Parameter


Dieses Befehlstool hat keine Parameter, die mit Vision Override übersteuert werden können.

- 312 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.12 POSITION ADJUSTMENT TOOL


Mit dem Position Adjustment Tool kann eine Feineinstellung der durch das übergeordnete Locator Tool
gefundenen Position unter Verwendung des gefundenen Ergebnisses seiner untergeordneten Tools
durchgeführt werden. Sollte es schwierig sein, Position oder Winkel präzise für das gesamte Werkstück
zu finden, kann das gesamte Werkstück mit dem übergeordneten Locator Tool gesucht werden. Dann
können Teile gesucht werden, deren Position leicht mittels der untergeordneten Locator Tools erkannt
werden kann, z. B. Löcher, und dann die gesamte gefundene Position für präzisere Offset-Daten geändert
werden. Wenn Sie das Position Adjustment Tool in der Verzeichnisstruktur der Einrichtungsseite des
Bilderkennungsprozesses auswählen, erscheint ein Bildschirm wie unten dargestellt.

- 313 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.12.1 Parameter einstellen


Hier legen Sie die Parameter fest.

Adjust Mode (Einstellmodus)


Gibt die einzustellenden Werte an.

Position
Die gefundene Position (Zeile und Spalte) des übergeordneten Locator Tools wird eingestellt.

Reference
Sollposition des Position
untergeordneten Locator Tools
of the Child Gefundenes Found Result
Ergebnis des
Locator Tool untergeordneten Locator
of the Child Tools Tool
Locator

Found Position
Gefundene Position
desof
übergeordneten
the Parent
Locator Tools nach
derLocator Tool
Einstellung
after Adjustment
Sollposition
Reference des
Position Zeile
übergeordneten Locator Tools Column
Spalte Row
of the Parent Locator Tool

FoundGefundenes
Result Ergebnis des
übergeordneten
of the Locator
Parent Locator ToolTools

Die gefundene Position (Zeile und Spalte) des übergeordneten Locator Tools wird so eingestellt,
dass die relative Position des Ergebnisses des übergeordneten Locator Tools und der Ergebnisse der
untergeordneten Locator Tools der als Sollposition programmierten Position entspricht. Die
Einstellung der Zeile ist positiv, wenn sie zur Unterseite eingestellt wurde und die Einstellung der
Spalte ist positiv, wenn sie nach rechts eingestellt wurde.

Angle (Winkel)
Der durch das übergeordnete Locator Tool gefundene Fundwinkel wird eingestellt.
Gefundener WinkelAngle
Adjusted des
übergeordneten
of the ParentLocator
LocatorTools
Tool

Reference
Sollposition Position
des
untergeordneten
of the Child
Locator Tools
Locator Tool 11 Gefundenes
Found ResultErgebnis
des untergeordneten
of the Child
Locator
Locator ToolTools

Sollposition
Reference Position of Gefundenes Ergebnis
des übergeordneten Found Result
the Parent Locator Tool des übergeordneten
of the Parent
Locator Tools Locator ToolsTool
Locator

Der gefundene Winkel des übergeordneten Locator Tools wird so eingestellt, dass die relative
Position des Ergebnisses des übergeordneten Locator Tools und der Ergebnisse der untergeordneten
Locator Tools der als Sollposition programmierten Position entspricht. Der eingestellte Winkel ist
positiv, wenn er gegen den Uhrzeigersinn eingestellt wurde.

- 314 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Position and Angle (Position und Winkel)


Die gefundene Position (Zeile und Spalte) und der gefundener Winkel des übergeordneten Locator
Tools werden eingestellt.
Gefundenes
Found Result Ergebnis des
untergeordneten Locator
of the Child Locator Tool 1Tools 1

Reference Position
Sollposition des unter- Gefundene Position
geordneten Locator Tools 1
of the Child Found Position des
Locator Tool 1 of the Parent
übergeordneten
Locator
Locator Tool
Tools nach
derAdjustment
after Einstellung Gefundener
Adjusted Angle
Winkel
of des
the Parent
übergeordnete
Locator Tool

Reference Position
Sollposition des
of the Parent
übergeordneten Row
Zeile
Locator
Locator Tool
Tools
Spalte
Column
Sollposition des unter- Gefundenes
Found Ergebnis
Result
Reference
geordneten Position
Locator Tools 2 des übergeordneten
of the Parent
Locator Tools
of the Child Locator Tool 2
Locator Tool
Found des
Gefundenes Ergebnis Result
untergeordneten Locator
of theTools
Child 2Locator Tool 2
Die gefundene Position (Zeile und Spalte) und der gefundene Winkel des übergeordneten Locator
Tools werden so eingestellt, dass die relative Position des Ergebnisses des übergeordneten Locator
Tools und des Ergebnisses der untergeordneten Locator Tools der als Sollposition programmierten
Position entspricht. Die Einstellung der Zeile ist positiv, wenn sie zur Unterseite eingestellt wurde
und die Einstellung der Spalte ist positiv, wenn sie nach rechts eingestellt wurde. Der eingestellte
Winkel ist positiv, wenn er gegen den Uhrzeigersinn eingestellt wurde.

ACHTUNG
Um sowohl Position und Ausrichtung einzustellen, müssen mindesten zwei
untergeordnete Locator Tools angegeben werden. Wird nur ein untergeordnetes
Locator Tool festgelegt, kann nur entweder die Position oder die Ausrichtung
eingestellt werden.

Tools auswählen
Es können bis zu fünf Tools angegeben werden. Die vorausgehenden Locator Tools, die auf derselben
Ebene stehen wie dieses Tool, können ausgewählt werden. Wählen Sie aus der Dropdown-Liste ein Tool
aus, dessen Positionseinstellung des übergeordneten Locator Tools Sie verwenden möchten.

Sollposition einstellen
1 Drücken Sie F2 LIVE, um in die Live-Kamerabildanzeige zu wechseln.
2 Platzieren Sie das Werkstück in einer Position, an der sowohl das übergeordnete als auch das
untergeordnete Locator Tool es finden kann.
3 Drücken Sie F2 STOP und dann F3 SNAP, um das Bild des Werkstücks aufzunehmen.
4 Tippen Sie auf die Taste [Set].
5 Das übergeordnete als auch das untergeordnete Locator Tool findet das Werkstück und die von
jedem Tool gefundene Position wird als Sollposition eingestellt.

Fit Error Limit (Grenze Übereinstimmungsfehler)


Dies ist der Schwellenwert für den Kombinationsfehler (Einheit: Pixel) zwischen dem gefundenen Punkt
mit gesetzter Sollposition und dem Punkt, der bei der tatsächlichen Ausführung des Erkennungsprozesses
gefunden wurde. Überschreitet der Kombinationsfehler diesen Schwellenwert, wird das Werkstück nicht
gefunden. Ist dieses Kontrollkästchen nicht aktiviert, wird der Kombinationsfehler nicht geprüft.
- 315 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.12.2 Einen Test durchführen


Nehmen wir an, dass der Bilderkennungsprozess folgendermaßen programmiert wurde:

Programmierungsmodelle Tool1, Tool2 und Tool3

Drücken Sie F4 FIND, um einen Test durchzuführen und zu überprüfen, ob das Tool die Position
ordnungsgemäß einstellen kann.

- 316 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Ausführungsdauer der Rechenprozesse für den Betrag für die Lokalisierung und Positionseinstellung
wird in Millisekunden angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

Zeile
Einstellbetrag in virtueller Richtung im Fenster (Einheit: Pixel).

Spalte
Einstellbetrag in Horizontalrichtung im Fenster (Einheit: Pixel).

Angle (Winkel)
Einstellbetrag in Rotationsrichtung (Einheit: Grad).

Scale (Skalierung)
Einstellbetrag der Skalierung (Einheit: %).

Aspect (Seitenverhältnis)
Einstellbetrag des Seitenverhältnisses (Einheit: %).

Skew (Schrägstellung)
Einstellbetrag für die Richtung des Seitenverhältnisses (Einheit: Grad).

Fit Error (Übereinstimmungsfehler)


Kombinationsfehler zwischen dem gefundenen Punkt bei Sollposition (Einheit: Pixel).

7.12.3 Übersteuerbare Parameter


Dieses Befehlstool hat keine Parameter, die mit Vision Override übersteuert werden können.

- 317 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.13 MEASUREMENT OUTPUT TOOL


Das Measurement Output Tool (Tool für die Ausgabe von Messwerten) gibt die Messwerte von
Histogram Tools und anderen Tools zusammen mit den Offset-Daten in ein Bilderkennungsregister aus.

Werden Offset-Daten von einem Bilderkennungsprozess mit dem in Abschnitt 9.2


„PROGRAMMBEFEHLE“ beschrieben Befehl GET_OFFSET ermittelt, werden die hier angegebenen
Messwerte in einem Bilderkennungsregister zusammen mit den Offset-Daten gespeichert. Sie können die
ermittelten Messwerte zur Verwendung in einem Roboterprogramm in ein Roboterregister kopieren.

Wenn Sie das Tool für die Ausgabe der Messung in der Verzeichnisstruktur der Einrichtungsseite des
Bilderkennungsprozesses auswählen, erscheint ein Bildschirm wie unten dargestellt.

7.13.1 Messwerte einstellen


Wählen Sie die Werte, die Sie in einem Bilderkennungsregister einstellen wollen in [Measurements] aus.
Bis zu 10 Werte können angegeben werden.

1 Wählen Sie im Dropdown-Feld links ein Tool aus. Das übergeordnete Tool oder das vorherige
Befehlstool, das auf derselben Ebene steht wie dieses Tool, kann ausgewählt werden.
2 Wählen Sie im Dropdown-Feld rechts einen Messwert aus.

Bei einem Bilderkennungsprozess wie dem „2D-Bilderkennungsprozess mit Mehrfachansicht“ oder dem
„3D-Bilderkennungsprozess mit Mehrfachansicht“, bei denen mindestens zwei
Kameraerfassungsbereiche vorhanden sind, können Sie das Tool für die Ausgabe von Messwerten für
jeden Kameraerfassungsbereich wie in der untenstehenden Abbildung dargestellt einstellen.

- 318 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

In diesem Fall werden die Werte des Measurement Output Tool 1 und des Measurement Output Tool 2 an
das Bilderkennungsregister ausgegeben. Wird z. B. [Value 1] bis [Value 5] im Measurement Output Tool
1 und [Value 6] bis [Value 10] im Measurement Output Tool 2 angegeben, werden die in Measurement
Output Tool 1 angegebenen Messwerte in Messwerte 1 bis 5 des Bilderkennungsregisters, und die in
Measurement Output Tool 2 angegebenen Messwerte in Messwerte 6 bis 10 des Bilderkennungsregisters
geschrieben.

ACHTUNG
Werden die gleichen Messwerte in Measurement Output Tool 1 und
Measurement Output Tool 2 angegeben, werden die Werte von
Kameraerfassungsbereich 1 in das Bilderkennungsregister geschrieben.

7.13.2 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Messwerte korrekt
ausgeben kann.

Found (Gefunden)
Die Anzahl der gefundenen Werkstücke wird angezeigt.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

7.13.3 Übersteuerbare Parameter


Dieses Befehlstool hat keine Parameter, die mit Vision Override übersteuert werden können.

- 319 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.14 3DL PLANE COMMAND TOOL


Das 3DL Plane Command Tool (Befehlstool für die 3DL-Ebene) misst Position und Lage des Werkstücks
durch Laserbelichtung der ebenen Fläche des Werkstücks mit einem 3D-Lasersensor. Wenn Sie in der
Verzeichnisstruktur [3DL Plane Command Tool] auswählen, wird ein Bildschirm wie unten dargestellt
angezeigt.

7.14.1 Messbereich einstellen


Stellen Sie den mit dem Laser zu messenden Bereich wie folgt ein.

ACHTUNG
Ist das GPM Locator Tool im gleichen Programm angeordnet, müssen Sie das
GPM Locator Tool einlernen, bevor Sie den Messbereich einlernen. Wird der
Modellursprung des GPM Locator Tool geändert oder das Modell neu
programmiert, muss der Messbereich des Messwerkzeugs für eben Flächen neu
eingestellt werden.

1 Drücken Sie F6 LASER ON um den Laser einzuschalten.


2 Drücken Sie F2 LIVE um die Live-Kamerabildanzeige zu starten.
3 Verfahren Sie den Roboter so, dass sich die zu messende ebene Fläche des Werkstücks in der
Bildmitte befindet. Durch Drücken der Taste , mit der die Mittenlinie des Fensters angezeigt
wird, können Sie die Positionierung vereinfachen.
4 Stellen Sie den Abstand zwischen dem 3D-Lasersensor und Werkstück so ein, dass der Laserstrahl-
Schnittpunkt etwa in der Mitte der ebenen Fläche liegt. In diesem Fall beträgt der Abstand zwischen
der 3D-Lasersensorkamera und der Werkstückebene etwa 400 mm.
5 Drücken Sie F2 STOP, um die Anzeige des Live-Kamerabilds anzuhalten. Drücken Sie F6 LASER
OFF, um den Laser auszuschalten. Drücken Sie F3, um das Bild aufzunehmen.
6 Tippen Sie auf die Taste [Train].
7 Platzieren Sie das einzulernende Werkstück im angezeigten roten Rechteck und drücken Sie dann F4
OK. Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster
einrichten“.

- 320 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Laser ID
Die [Laser ID] kann gesetzt werden, um zu erkennen, welches Endergebnis welchem Befehlstool für die
3DL-Ebene entspricht, wenn mehr als ein Befehlstool für die 3DL-Ebene zum Bilderkennungsprozess
hinzugefügt wurde. Normalerweise ist der Ausgangswert in Ordnung, wenn nur eine Ebenenmessung
vorhanden ist.

2D-3D Gap (2D-3D-Lücke)


Geben Sie in [2D-3D Gap] den Höhenunterschied im Bezug auf die Laserebene ein, wenn ein
Höhenunterschied zwischen der Ebene, für die das Modell des GPM Locator Tool eingelernt ist und der
Ebene, die mit dem Laser gemessen werden soll, besteht. Das Ergebnis ist ein positiver Wert, wenn sich
die Modellebene näher an der Kamera befindet als die Laserebene.

3D-Lasersensor

2D-Modellursprung

3D-gemessene Laserebene

Positive Richtung
der 2D-3D-Lücke

Search Narrow Area (Schmalen Bereich durchsuchen)


Ist der zu messende ebene Bereich klein und die verfügbaren Punkte nur wenige, aktivieren Sie [Search
Narrow Area], damit Sie die Anzahl der für die Messung zu verwendenden Punkte erhöhen können. Bitte
beachten Sie, dass damit auch die Verarbeitungszeit verlängert wird. Aktivieren Sie diese Option daher
nur, wenn dies erforderlich ist.

Window Mask (Fenstermaske)


Ist in dem mit dem Laser zu beleuchtenden Messbereich ein unebener Abschnitt in der Ebene vorhanden
oder wenn Sie einen Bereich aus dem Messbereich entfernen wollen, können Sie eine Maske setzen. Um
eine Maske für einen Messbereich zu erzeugen, tippen Sie auf die Taste [Edit]. Auch wenn Sie eine
Maske bearbeitet haben, wird diese Maske von dem Tool ignoriert, wenn Sie das Kontrollkästchen
[Enable] deaktivieren. Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.10
„Maskenbearbeitung“.

- 321 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.14.2 Lokalisierungsparameter einstellen


Versuche, die Laserpunkt-Lokalisierungsparameter einzustellen, sollte auf solche Fälle beschränkt
werden, bei denen die Einstellungen für die Lasermessung überhaupt keine präzisen Fundergebnisse
liefern. Wird das Tool zwangsweise dazu gebracht, Laserpunkte zu finden oder werden die Werte
unachtsam verändert, kann es zu einer ungenauen Berechnung der Erkennungsposition kommen.

ACHTUNG
Bevor die Lokalisierungsparameter geändert werden, muss sichergestellt sein,
dass die Belichtungszeit für die Lasermessung im Bilderkennungsprozess so
eingestellt ist, dass ein Bild angemessen erfasst wird.

Min. Num. Laser Points (Mindestanzahl Laserpunkte)


Liegt die Anzahl der effektiv gefundenen Punkte im Messbereich (ohne den Maskenbereich) unter diesem
Schwellenwert, ist das Messergebnis ungültig. Variiert die Anzahl der gefundenen Laserpunkte aufgrund
eines kleinen Messbereichs oder einer Änderung der Bildhelligkeit, kann durch das Verringern der
Mindestanzahl der Laserpunkte eventuell eine Lokalisierung möglich sein. Es ist zu beachten, dass sich
die Messgenauigkeit durch eine Abnahme der Punkte verschlechtern kann, da die Neigung der
Werkstückebene aus den gefundenen Punkten berechnet wird.
Die Anzahl der effektiv zu findenden Laserpunkte ist abhängig vom [Min. Laser Contrast] und
[Max. Laser Fit Error], wie im Folgenden erläutert.

Min. Laser Contrast (Minimaler Laser-Kontrast)


Dies ist der Schwellenwert für das Auffinden von Punkten des Lasers, der beim Messbereich mit
Ausnahme des Maskenbereichs angewandt wurde.

Max. Line Fit Error (Max. Übereinstimmungsfehler für Linie)


Entsteht durch die Anwendung des Lasers auf den Messbereich mit Ausnahme des maskierten Bereichs
zwischen den Laserpunkten eine gerade Linie, wird jeder Punkt als effektiv gefundener Punkt betrachtet,
so lange seine Abweichung von der geraden Linie innerhalb dieser in Pixel ausgedrückten Fehlerspanne
liegt. Weist die zu messende Ebene eine Textur auf, wie z. B. bei einer Gussteiloberfläche, kann die
Anzahl der effektiv durch das Tool gefundenen Punkte durch eine leichte Erhöhung dieses Werts evtl.
erhöht werden. Es muss beachtet werden, dass ein zu großer Wert die Genauigkeit verschlechtern kann.

Max. Lines Distance (Max. Linienabstand)


Theoretisch kreuzt die durch zwei Laserpunkte gebildete Linie, die von jedem Laserschlitz aus berechnet
wird, den Schnittpunkt des auf die Werkstückebene angewendeten Lasers. Tatsächlich jedoch beträgt der
Abstand zwischen den beiden Linien aufgrund des Kalibrierungsfehlers oder Messfehlers nur selten 0.
Der maximale Abstand von Linie zu Linie ist der Schwellenwert für den kürzesten Abstand der geraden
Linie orthogonal zu den beiden geraden Linien.
Der Ausgangswert ist auf 3,0 mm eingestellt. Sollte ein größerer Abstand als dieser eingestellt werden
müssen, ist möglicherweise der 3D-Lasersensor nicht korrekt kalibriert. Obwohl der maximale Abstand
zwischen den Linien zeitweilig vergrößert werden kann, so lange der Positions-Offset des Roboters
innerhalb des erforderlichen Genauigkeitsbereichs liegt, sollte ggf. eine automatische Neukalibrierung
durchgeführt werden.

Find Mode (Suchmodus)


Werden mehrere Laserlinien von jedem Laserschlitz erkannt, muss die für die Messung verwendete
Kombination der Laserlinien ausgewählt werden. In der oben dargestellten Dropdown-Liste stehen zwei
Optionen zur Verfügung.

- 322 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Use Best Lines (Beste Linien verwenden)


Die erkannten Laserlinien einschließlich der meisten Laserpunkte werden für jeden Laserschlitz
ausgewählt. Die Messung verwendet die Kombination der ausgewählten Laserlinien.

Use All Lines (Alle Linien verwenden)


Alle erkannten Laserlinien werden der Reihe nach für jeden Laserschlitz ausgewählt. Bei der
Messung werden alle Kombinationen der verschiedenen Laserlinien der Laserschlitze verwendet.

Wird „Use All Lines“ gewählt, wird die untere Dropdown-Liste aktiviert.
Dort stehen zwei Optionen zur Verfügung.

Find First (Erste suchen)


Die Messung verwendet die Kombination der ausgewählten Laserlinien in absteigender Reihenfolge
der Anzahl der Laserpunkte. Unterschreitet der Abstand zwischen den kombinierten Laserlinien
zunächst den maximalen Linienabstand, wird die von den kombinierten Laserlinien gemessene
Ebene ausgegeben und die Messung beendet.

Find Best (Beste suchen)


Es wird diejenige Ebene ausgegeben, die von den kombinierten Laserlinien gemessen wurde und bei
der der Abstand der Linien am Geringsten ist.

Laser Plotting Mode (Laserdarstellungsmodus)


Stellen Sie hier ein, wie die Lasermarkierung im Bild dargestellt werden soll, wenn der Prozess
durchgeführt wird.

Plot CW Mode (Modus für Anzeige im Uhrzeigersinn)


Die Lasermarkierung wird im Uhrzeigersinn angezeigt.

Plot CCW mode (Modus für Anzeige im Gegenuhrzeigersinn)


Die Lasermarkierung wird im Gegenuhrzeigersinn angezeigt.

Plot Nothing (Nichts anzeigen)


Die Lasermarkierung wird nicht angezeigt.

Image Display Mode (Bildanzeigemodus)


Stellen Sie hier ein, wie die gefundenen Ergebnisse auf dem Bild dargestellt werden sollen, nachdem der
Test durchgeführt wurde.

2D Image (Zweidimensionales Bild)


Das von der Kamera festgehaltene Bild wird angezeigt.

Laser Slit Image 1 (Laserschlitz Bild 2)


Das Bild von Laserschlitz 1 wird angezeigt.

Laser Slit Image 2 (Laserschlitz Bild 2)


Das Bild von Laserschlitz 2 wird angezeigt.

- 323 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.14.3 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Werkstücke
korrekt findet.

Found (Gefunden)
Wenn das Ergebnis richtig berechnet wird, erscheint eine 1. Kann das Tool das Werkstück nicht finden,
wird 0 angezeigt.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

- 324 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X,Y,Z,W,P,R
Koordinatenwerte der gefundenen Ebene.

Model ID (Modell-ID)
Modell-ID des gefundenen GPM Locator Tools.

Score (Wertigkeit)
Wertigkeit des gefundenen GPM Locator Tools.

Laser ID
Nummer der Messung der gefundenen Ebene.

Laser 1 Points (Punkte für Laser 1)


Anzahl der für Laser 1 gefundenen Punkte.

Laser 2 Points (Punkte für Laser 2)


Anzahl der für Laser 2 gefundenen Punkte.

Laser 1 Fit Err (Übereinstimmungsfehler Laser 1)


Linearer Näherungsfehler von Laser 1 (Einheit: Pixel).

Laser 2 Fit Err (Übereinstimmungsfehler Laser 2)


Linearer Näherungsfehler von Laser 2 (Einheit: Pixel).

Laser Distance (Laserabstand)


Linearer Abstand zwischen dem gefundenen Laser 1 und Laser 2 (Einheit: mm).

7.14.4 Übersteuerbare Parameter


Dieses Befehlstool hat keine Parameter, die mit Vision Override übersteuert werden können.

- 325 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.15 3DL DISPL COMMAND TOOL


Das 3DL Displ. Command Tool (Befehlstool für die 3DL-Verschiebung) ermittelt den Abstand des
Werkstücks durch Belichtung mit einem Laser über einen 3D-Lasersensor. Wenn Sie in der
Verzeichnisstruktur [3DL Displ. Command Tool] auswählen, wird ein Bildschirm wie unten dargestellt
angezeigt.

7.15.1 Messbereich einstellen


Stellen Sie den mit dem Laser zu messenden Bereich wie folgt ein.

ACHTUNG
Ist das GPM Locator Tool im gleichen Programm angeordnet, müssen Sie das
GPM Locator Tool einlernen, bevor Sie den Messbereich einlernen. Wird der
Modellursprung des GPM Locator Tool geändert oder das Modell neu
programmiert, muss der Messbereich des Messwerkzeugs für eben Flächen neu
eingestellt werden.

1 Drücken Sie F6 LASER ON um den Laser einzuschalten.


2 Drücken Sie F2 LIVE um die Live-Kamerabildanzeige zu starten.
3 Verfahren Sie den Roboter so, dass sich die zu messende ebene Fläche des Werkstücks in der
Bildmitte befindet. Durch Drücken der Taste , mit der die Mittenlinie des Fensters angezeigt
wird, können Sie die Positionierung vereinfachen.
4 Stellen Sie den Abstand zwischen dem 3D-Lasersensor und dem Werkstück so ein, dass der
Laserstrahl-Schnittpunkt in der Mitte der ebenen Fläche liegt. In diesem Fall beträgt der Abstand
zwischen der 3D-Lasersensorkamera und der Werkstückebene etwa 400 mm.
5 Drücken Sie F2 STOP, um die Anzeige des Live-Kamerabilds anzuhalten. Drücken Sie F6 LASER
OFF, um den Laser auszuschalten. Drücken Sie F3 SNAP, um das Bild des Werkstücks
aufzunehmen.
6 Tippen Sie auf die Taste [Train].
7 Platzieren Sie das einzulernende Werkstück im angezeigten roten Rechteck und drücken Sie dann F4
OK. Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster
einrichten“.

- 326 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Laser ID
Die [Laser ID] kann gesetzt werden, um zu erkennen, welches Endergebnis welchem Tool für die 3DL-
Laserverschiebung entspricht, wenn mehr als ein Befehlstool für die 3DL-Verschiebung zum
Bilderkennungsprozess hinzugefügt wurde. Normalerweise ist der Ausgangswert in Ordnung, wenn nur
eine Ebenenmessung vorhanden ist.

2D-3D Gap (2D-3D-Lücke)


Geben Sie in [2D-3D Gap] den Höhenunterschied im Bezug auf die Laserebene ein, wenn ein
Höhenunterschied zwischen der Ebene, für die das Modell des GPM Locator Tool eingelernt ist und der
Ebene, die mit dem Laser gemessen werden soll, besteht. Das Ergebnis ist ein positiver Wert, wenn sich
die Modellebene näher an der Kamera befindet als die Laserebene.

Positive Richtung
der 2D-3D-Lücke

Search Narrow Area (Schmalen Bereich durchsuchen)


Ist der zu messende Ebenenbereich klein und sind nur wenige Punkte verfügbar, aktivieren Sie [Search
Narrow Area], um die Anzahl der für die Messung zu verwendenden Punkte zu erhöhen. Bitte beachten
Sie, dass damit auch die Verarbeitungszeit verlängert wird. Aktivieren Sie diese Option daher nur, wenn
dies erforderlich ist.

Window Mask (Fenstermaske)


Ist in dem mit dem Laser zu beleuchtenden Messbereich ein unebener Abschnitt in der Ebene vorhanden
oder wenn Sie einen Bereich aus dem Messbereich entfernen wollen, können Sie eine Maske setzen. Um
eine Maske für einen Messbereich zu erzeugen, tippen Sie auf die Taste [Edit]. Auch wenn Sie eine
Maske bearbeitet haben, wird diese Maske von dem Tool ignoriert, wenn Sie das Kontrollkästchen
[Enable] deaktivieren. Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9
„Maskenbearbeitung“.

7.15.2 Lokalisierungsparameter einstellen


Versuche, die Laserpunkt-Lokalisierungsparameter einzustellen, sollte auf solche Fälle beschränkt
werden, bei denen die Einstellungen für die Lasermessung überhaupt keine präzisen Fundergebnisse
liefern. Wird das Tool zwangsweise dazu gebracht, Laserpunkte zu finden oder werden die Werte
unachtsam verändert, kann es zu einer ungenauen Berechnung der Erkennungsposition kommen.

ACHTUNG
Bevor die Lokalisierungsparameter geändert werden, muss sichergestellt sein,
dass die Belichtungszeit für die Lasermessung im Bilderkennungsprozess so
eingestellt ist, dass ein Bild angemessen erfasst wird.

- 327 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Min. Num. Laser Points (Mindestanzahl Laserpunkte)


Liegt die Anzahl der effektiv gefundenen Punkte im Messbereich (ohne den Maskenbereich) unter diesem
Schwellenwert, ist das Messergebnis ungültig. Variiert die Anzahl der gefundenen Laserpunkte aufgrund
eines kleinen Messbereichs oder einer Änderung der Bildhelligkeit, kann durch das Verringern der
Mindestanzahl der Laserpunkte eventuell eine Lokalisierung möglich sein. Es ist zu beachten, dass sich
die Messgenauigkeit durch eine Abnahme der Punkte verschlechtern kann, da die Neigung der
Werkstückebene aus den gefundenen Punkten berechnet wird.
Die Anzahl der effektiv zu findenden Laserpunkte ist abhängig vom [Min. Laser Contrast], wie im
Folgenden erläutert.

Min. Laser Contrast (Minimaler Laser-Kontrast)


Dies ist der Schwellenwert für das Auffinden von Punkten des Lasers, der beim Messbereich mit
Ausnahme des Maskenbereichs angewandt wurde.

Z Range (Z-Bereich)
Dies ist der Bereich von Punkten in Z-Richtung, der für die Berechnung aus dem Durchschnittswert der
Laserpunkte verwendet wird. Setzen Sie hier einen Wert zwischen 0 und 200.

Z Deviation (Z-Abweichung)
Dies ist der Abweichungsbereich von Punkten in Z-Richtung im Bezug zum Durchschnitt.
Setzen Sie hier einen Wert zwischen 0 und 5.

Laser Plotting Mode (Laserdarstellungsmodus)


Stellen Sie hier ein, wie die Lasermarkierung im Bild dargestellt werden soll, wenn der Prozess
durchgeführt wird.

Plot CW Mode (Modus für Anzeige im Uhrzeigersinn)


Die Lasermarkierung wird im Uhrzeigersinn angezeigt.

Plot CCW mode (Modus für Anzeige im Gegenuhrzeigersinn)


Die Lasermarkierung wird im Gegenuhrzeigersinn angezeigt.

Plot Nothing (Nichts anzeigen)


Die Lasermarkierung wird nicht angezeigt.

Image Display Mode (Bildanzeigemodus)


Stellen Sie hier ein, wie die gefundenen Ergebnisse auf dem Bild dargestellt werden sollen, nachdem der
Test durchgeführt wurde.

2D Image (Zweidimensionales Bild)


Das von der Kamera festgehaltene Bild wird angezeigt.

Laser Slit Image 1 (Laserschlitz Bild 1)


Das Bild von Laserschlitz 1 wird angezeigt.

Laser Slit Image 2 (Laserschlitz Bild 2)


Das Bild von Laserschlitz 2 wird angezeigt.

- 328 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

7.15.3 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und festzustellen, ob das Tool die Werkstücke
korrekt findet.

Found (Gefunden)
Wenn das Ergebnis richtig berechnet wird, erscheint eine 1.
Kann das Tool das Werkstück nicht finden, wird 0 angezeigt.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X,Y,Z,W,P,R
Koordinatenwerte der gefundenen Ebene. (W und P sind stets null.)

Model ID (Modell-ID)
Modell-ID des gefundenen GPM Locator Tools.

Score (Wertigkeit)
Wertigkeit des gefundenen GPM Locator Tools.

Laser ID
Nummer der Messung der gefundenen Ebene.

Laser 1 Points (Punkte für Laser 1)


Anzahl der für Laser 1 gefundenen Punkte.

Laser 2 Points (Punkte für Laser 2)


Anzahl der für Laser 2 gefundenen Punkte.

7.15.4 Übersteuerbare Parameter


Dieses Befehlstool hat keine Parameter, die mit Vision Override übersteuert werden können.

- 329 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.16 3DL CYLINDER TOOL


Das 3DL Cylinder Tool (3DL-Zylinder-Tool) misst die Oberfläche eines zylindrischen Werkstücks
(wie unten dargestellt) mit einem 3D-Lasersensor, um die Zentralachse des Werkstücks zu schätzen.

Wenn Sie in der Verzeichnisstruktur [3DL Cylinder Command Tool] auswählen, wird ein Bildschirm wie
unten dargestellt angezeigt.

7.16.1 Messbereich einstellen


Stellen Sie den mit dem Laser zu messenden Bereich wie folgt ein.

ACHTUNG
Ist das GPM Locator Tool oder das Locator Tool für gerundete Oberflächen im
gleichen Programm angeordnet, müssen Sie das GPM Locator Tool oder das
Locator Tool für gerundete Oberflächen einlernen, bevor Sie diesen
Messbereich einstellen. Wird der Modellursprung des GPM Locator Tools oder
des Locator Tools für gerundete Oberflächen geändert oder das Modell neu
programmiert, muss der Messbereich des Messwerkzeugs für Zylinder neu
eingestellt werden.

1 Drücken Sie F6 LASER ON um den Laser einzuschalten.


2 Drücken Sie F2 LIVE um die Live-Kamerabildanzeige zu starten.
3 Verfahren Sie den Roboter im Tippbetrieb so, dass sich der zu messende Zylinder in der Bildmitte
befindet.
Durch Drücken der Taste , mit der die Mittenlinie des Fensters angezeigt wird, können Sie die
Positionierung vereinfachen.

- 330 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS
4 Stellen Sie den Abstand zwischen dem 3D-Lasersensor und dem Zylinder so ein, dass der
Laserstrahl-Schnittpunkt etwa in der Mitte der ebenen Fläche liegt. In diesem Fall beträgt der
Abstand zwischen der 3D-Lasersensorkamera und der Werkstückebene etwa 400 mm oder 600 mm;
je nachdem, wie Laser- und Kamerateil des 3DL-Sensors verbunden sind.
5 Drücken Sie F2 STOP, um die Anzeige des Live-Kamerabilds anzuhalten.
Drücken Sie F6 LASER OFF, um den Laser auszuschalten.
Drücken Sie F3 SNAP, um das Bild des Werkstücks aufzunehmen.
6 Tippen Sie auf die Taste [Train].
7 Platzieren Sie das einzulernende Werkstück im angezeigten roten Rechteck und drücken Sie dann F4
OK.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.9 „Fenster einrichten“.
Ist ein Laserbild vorhanden, wird der Laser auf der Werkstückoberfläche angezeigt.
Stellen Sie das Fenster so ein, dass der Laser umschlossen wird.

Train Cylinder Dir. (Zylinderrichtung programmieren)


Lernen Sie nach der Programmierung des Fensters insgesamt vier Punkte ein, um die Zylinderrichtung
anzugeben: zwei Ausgangspunkte und zwei Endpunkte entlang der beiden Linien an den Enden der
gebogenen Oberfläche des Zylinders. Tippen Sie auf die Taste [No.1 Init] und bewegen Sie das
Pluszeichen + mit dem normalen Cursor zur gewünschten Position. Drücken Sie F4 OK, um den
Ausgangspunkt der ersten Linie zu registrieren. Programmieren Sie Punkte auf die gleiche Weise für
[No.1 Term], [No.2 Init] und [No.2 Term]. Die Ausrichtungen der beiden Linien vom Ausgangs- zum
Endpunkt müssen ungefähr gleich sein (innerhalb eines Winkels von 30 Grad).

No. 1 Iinit No. 1 Term

No. 2 Iinit No. 2 Term

Cylinder Diameter (Zylinderdurchmesser)


Stellen Sie den Durchmesser des Teils ein, an dem die Zylinderrichtung eingelernt wurde. Der Wert muss
zwischen 10 mm und 200 mm liegen.

Laser ID
Die [Laser ID] kann gesetzt werden, um zu erkennen, welches Endergebnis welchem Zylindertool
entspricht, wenn mehr als ein Zylindertool zum Prozess hinzugefügt wurde. Wenn der Prozess nur ein
Zylindertool verwendet, kann normalerweise der Standardwert so verwendet werden.

Window Mask (Fenstermaske)


Ist bei den Modelldaten eine unnötige Region vorhanden (z. B. eine Region, die nicht zum Zylinder
gehört oder eine Region mit Unregelmäßigkeiten), kann mit dem Maskieren dieser Region eine stabile
Messung ermöglicht werden. Um eine Maske für einen Messbereich zu erzeugen, tippen Sie auf die Taste
[Edit]. Auch wenn Sie eine Maske bearbeitet haben, wird diese Maske von dem Tool ignoriert, wenn Sie
das Kontrollkästchen [Enable] deaktivieren.
Ausführliche Informationen zur Verfahrensweise finden Sie in Abschnitt 3.7.10 „Maskenbearbeitung“.

- 331 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.16.2 Lokalisierungsparameter einstellen


Versuche, die Laserpunkt-Lokalisierungsparameter einzustellen, sollte auf solche Fälle beschränkt
werden, bei denen die Einstellungen für die Lasermessung überhaupt keine präzisen Fundergebnisse
liefern. Wird das Tool zwangsweise dazu gebracht, Laserpunkte zu finden oder werden die Werte
unachtsam verändert, kann es zu einer ungenauen Berechnung der Erkennungsposition kommen.

ACHTUNG
Bevor die Lokalisierungsparameter geändert werden, muss sichergestellt sein,
dass die Belichtungszeit für die Lasermessung im Bilderkennungsprozess so
eingestellt ist, dass ein Bild angemessen erfasst wird.

Min. Num. Laser Points 1 (Mindestanzahl Laserpunkte 1)


Liegt die Mindestanzahl der im Messbereich (ohne den Maskenbereich) gefundenen Laserpunkte 1 unter
diesem Schwellenwert, ist das Messergebnis ungültig. Setzen Sie hier einen Wert zwischen 2 und 480.

Min. Num. Laser Points 2 (Mindestanzahl Laserpunkte 2)


Liegt die Mindestanzahl der im Messbereich (ohne den Maskenbereich) gefundenen Laserpunkte 2 unter
diesem Schwellenwert, ist das Messergebnis ungültig. Setzen Sie hier einen Wert zwischen 2 und 480.

Laser 1 Contrast (Kontrast Laser 1)


Dies ist der Schwellenwert für das Auffinden von Punkten von Laser 1, der auf den Messbereich mit
Ausnahme des Maskenbereichs angewandt wurde. Setzen Sie hier einen Wert zwischen 0 und 255.

Laser 2 Contrast (Kontrast Laser 2)


Dies ist der Schwellenwert für das Auffinden von Punkten von Laser 1, der auf den Messbereich mit
Ausnahme des Maskenbereichs angewandt wurde. Setzen Sie hier einen Wert zwischen 0 und 255.

Max Fit Error (Max. Übereinstimmungsfehler)


Entsteht durch die Anwendung des Lasers auf den Messbereich mit Ausnahme des maskierten Bereichs
zwischen den Laserpunkten eine zylindrische Oberfläche, wird jeder dieser Punkte als gültig betrachtet,
wenn der Fehler des Punkts von der Zylinderoberfläche unter diesem Schwellenwert liegt. Setzen Sie hier
einen Wert zwischen 0 und 10 mm. Der Maximalwert kann in Abhängigkeit vom Zylinderdurchmesser
variieren.

- 332 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Laser Plotting Mode (Laserdarstellungsmodus)


Stellen Sie hier ein, wie die Lasermarkierung im Bild dargestellt werden soll, wenn der Prozess
durchgeführt wird.

Plot CW Mode (Modus für Anzeige im Uhrzeigersinn)


Die Lasermarkierung wird im Uhrzeigersinn angezeigt.

Plot CCW mode (Im Gegenuhrzeigersinn zeichnen)


Die Lasermarkierung wird im Gegenuhrzeigersinn angezeigt.

Plot nothing (Nichts zeichnen)


Die Lasermarkierung wird nicht angezeigt.

Image Display Mode (Bildanzeigemodus)


Wählen Sie die Betriebsart für die Anzeige der gefundenen Ergebnisse im Fenster, wenn ein Test
durchgeführt wird.

2D Image (Zweidimensionales Bild)


Das von der Kamera erfasste 2D-Bild und die gefundenen Ergebnisse werden angezeigt.

Laser Slit Image 1 (Laserschlitz Bild 1)


Das Bild von Laserschlitz 1 wird angezeigt.

Laser Slit Image 2 (Laserschlitz Bild 2)


Das Bild von Laserschlitz 2 wird angezeigt.

- 333 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.16.3 Einen Test durchführen


Drücken Sie F4 FIND, um einen Test durchzuführen und zu überprüfen, ob das Tool das Werkstück
ordnungsgemäß finden kann.

Found (Gefunden)
Wenn das Ergebnis richtig berechnet wird, erscheint eine 1.
Kann das Tool das Werkstück nicht finden, wird 0 angezeigt.

Time to Find (Suchzeit)


Die Dauer des Lokalisierungsprozesses in Millisekunden wird angezeigt.

- 334 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Tabelle der Suchergebnisse


Folgende Werte werden angezeigt:

X, Y, Z
Die Positionen des Modellursprungs des gefundenen Ziels in X-, Y- und Z-Richtung im
Benutzerkoordinatensystem, die für die Ausgabe während der Kamerakalibrierung angegeben
wurden (Einheit: mm).

W, P, R
Lage in W-, P- und R-Richtung des gefundenen Zylinders im Benutzerkoordinatensystem, die für
die Ausgabe angegeben wurde (Einheit: Grad).

Model ID (Modell-ID)
Die Modell-ID des gefundenen Locator Tools oder GPM Locator Tool-Modells mit gerundeter
Oberfläche.

Score (Wertigkeit)
Dieser Wert gibt an, wie gut die Merkmale des gefundenen Ziels mit denen des eingelernten Locator
Tools oder GPM Locator Tool-Modells mit gerundeter Oberfläche übereinstimmen.
Wenn sie vollständig übereinstimmen wird 100 angezeigt.

Laser ID
Die Laser-ID des Zylinder-Tools für die Messung.

Laser1 Points (Punkte Laser 1)


Anzahl der gültigen Punkte, die im Messbereich für Laser 1 gefunden wurden.

Laser2 Points (Punkte Laser 2)


Anzahl der gültigen Punkte, die im Messbereich für Laser 2 gefunden wurden.

Laser1 Fit Err (Übereinstimmungsfehler Laser 1)


Mittelfehler zwischen gültigen Punkten für Laser 1 und der erzeugten Zylinderoberfläche
(Einheit:Pixel).

Laser2 Fit Err (Übereinstimmungsfehler Laser 2)


Mittelfehler zwischen gültigen Punkten für Laser 2 und der erzeugten Zylinderoberfläche
(Einheit: Pixel).

7.16.4 Übersteuerbare Parameter


Dieses Befehlstool hat keine Parameter, die mit Vision Override übersteuert werden können.

- 335 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

7.17 EVALUATION TOOL (Bewertungstool)


Das Bewertungstool bestimmt, ob ein Werkstück die Inspektion bestanden hat oder durchgefallen ist,
indem es eine oder mehrere konditionale Ausdrücke bewertet. Sie können mehr als einen konditionalen
Ausdruck schreiben und das Tool diese Bedingungsausdrücke in umfassender Weise bewerten lassen.
Das Tool steht nur beim Bilderkennungsprozess mit Einzelansicht zur Inspektion zur Verfügung. Wenn
Sie das Bewertungstool in der Verzeichnisstruktur der Einrichtungsseite des Bilderkennungsprozesses mit
Einzelansicht auswählen, erscheint ein Fenster wie unten dargestellt.

7.17.1 Parameter einstellen


Legen Sie die Messwerte und konditionalen Ausdrücke, die zu bewerten sind, sowie die Bedingung
[Pass When] für die Gesamtbeurteilung auf der Grundlage der Ergebnisse der einzelnen konditionalen
Ausdrücke fest.

Wert 1 bis 10
Wenn Sie auf den Tab [Variable] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.
Wählen Sie einen Wert für die Bewertung mit einem konditionalen Ausdruck aus.
Bis zu 10 Werte können angegeben werden.

1 Wählen Sie im Dropdown-Feld links ein Befehlstool aus. Das übergeordnete Tool oder das
vorherige Befehlstool, das auf derselben Ebene steht wie dieses Tool, kann ausgewählt werden.
2 Wählen Sie im Dropdown-Feld rechts einen Messwert für die Auswertung aus.

- 336 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Bedingung 1 bis 10
Wenn Sie auf den Tab [Condition] tippen, wird eine Bildschirmmaske wie unten dargestellt angezeigt.
Legen Sie einen konditionalen Ausdruck fest. Bis zu 10 konditionale Ausdrücke können verwendet
werden.

1 Aktivieren Sie die Bedingung durch Tippen auf das Kontrollkästchen.


2 Wählen Sie in der Dropdown-Liste ganz links den zu bewertenden Wert unter folgenden aus:
- Variable 1 bis Variable 10
- Ergebnis eines konditionalen Ausdrucks, der diesem konditionalen Ausdruck vorangeht
3 Wählen Sie aus der zweiten Dropdown-Liste den logischen Ausdruck aus, der für die Bewertung
verwendet werden soll.
Die möglichen Elemente werden weiter unten beschrieben.
4 Wählen Sie in der dritten Dropdown-Liste den Wert, der bei der Bewertung verglichen werden soll,
unter folgenden aus:
- Const
- Variable 1 bis Variable 10
- Ergebnis eines konditionalen Ausdrucks, der diesem konditionalen Ausdruck vorangeht
5 Wenn Sie in Schritt 4 [Const] auswählen, geben Sie einen konstanten Wert in das Textfeld rechts
ein.

- 337 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

7.BEFEHLSTOOLS B-83304GE/02

Logischer Ausdruck für Bewertung


Als logischer Ausdruck für die Angabe in einem konditionalen Ausdruck kann einer der folgenden
ausgewählt werden. Die verfügbaren Optionen unterscheiden sich in Abhängigkeit des Bewertungstyps.

=
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung gleich dem Vergleichswert ist; ansonsten
lautet er „false“.

>
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung größer als der Vergleichswert ist;
ansonsten lautet er „false“.

>=
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung größer oder gleich dem Vergleichswert
ist; ansonsten lautet er „false“.

<
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung kleiner als der Vergleichswert ist;
ansonsten lautet er „false“.

<=
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung kleiner oder gleich dem Vergleichswert
ist; ansonsten lautet er „false“.

<>
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung ungleich dem Vergleichswert ist;
ansonsten lautet er „false“.

IN
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung innerhalb des von zwei Vergleichswerten
definierten Bereichs liegt; ansonsten lautet er „false“.

OUT
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung außerhalb des von zwei
Vergleichswerten definierten Bereichs liegt; ansonsten lautet er „false“.

AND
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung und der Vergleichswert „true“ sind;
ansonsten lautet er „false“.

OR
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung oder der Vergleichswert „true“ sind;
ansonsten lautet er „false“.

XOR
Der Ausdruck ist „true“, wenn der Zielwert der Bewertung und der Vergleichswert „true“ oder
„false“ sind; ansonsten lautet er „false“.

- 338 -

© MyFANUC 144CEC90D1214848B2457CC511118CB5
7169FkR+k39YMyHEOR+2p0dBgdYKiUtK4jst0VL0hSRww7D8C+2wd68VWEg==

B-83304GE/02 7.BEFEHLSTOOLS

Pass When (Bestanden, wenn)


Legt eine Bedingung für eine Gesamtbeurteilung dahingehend fest, ob das Werkstück die Inspektion
bestanden hat oder durchgefallen ist. Dies erfolgt aufgrund der Bewertungsergebnisse der einzelnen
konditionalen Ausdrücke.

Wählen Sie eine der folgenden Bedingungen aus:

All True (Alle „true“)


Das Werkstück wird mit „bestanden“ bewertet, wenn alle angegebenen konditionalen Ausdrücke
„true“ sind. Es wird als „durchgefallen“ beurteilt, wenn einer der angegebenen konditionalen
Ausdrücke den Wert „false“ hat. [Undetermined] wird angezeigt, wenn es keine Bedingungen mit
dem Wert „false“ gib