Sie sind auf Seite 1von 206

Schnellere 3D-Messung mit strukturierter

Beleuchtung durch bessere Informationseffizienz

Der Naturwissenschaftlichen Fakultät


der Friedrich-Alexander-Universität Erlangen-Nürnberg
zur
Erlangung des Doktorgrades Dr. rer. nat.

vorgelegt von
Zheng Yang M.Sc.
aus Hefei, China
Als Dissertation genehmigt
von der Naturwissenschaftlichen Fakultät
der Friedrich-Alexander-Universität Erlangen-Nürnberg

Tag der mündlichen Prüfung: 15.06.2018

Vorsitzender des Promotionsorgans: Prof. Dr. G. Kreimer

Gutachter: Prof. Dr. G. Häusler

Gutachter: Prof. Dr. H. Tiziani


iv
v

Inhaltsverzeichnis

Abbildungsverzeichnis vii

Tabellenverzeichnis xi

Nomenklatur xiii

1 Summary 1

2 Aufgabenstellung und Zusammenfassung der Ergebnisse 3

3 Stand der Technik 7


3.1 Messaufgabe und Anforderungen an optische 3D-Sensoren . . . . . . . . . . . . 7
3.2 Stand der Technik der optischen 3D-Messtechnik . . . . . . . . . . . . . . . . . 9
3.2.1 Raue Oberflächen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2.1.1 Triangulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2.1.2 Time-of-Flight . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.1.3 Photometrisches Stereo . . . . . . . . . . . . . . . . . . . . . . 15
3.2.1.4 Holographische und Speckle-Technologie . . . . . . . . . . . . . 17
3.2.2 Spiegelnde Oberflächen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2.2.1 Klassische Interferometrie . . . . . . . . . . . . . . . . . . . . . 19
3.2.2.2 Wellenfrontsensor . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.2.3 Deflektometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2.3 Raue und spiegelnde Oberflächen . . . . . . . . . . . . . . . . . . . . . . 22
3.2.3.1 Weißlichtinterferometrie (WLI) . . . . . . . . . . . . . . . . . . 23
3.2.3.2 Konfokale Mikroskopie (KM) . . . . . . . . . . . . . . . . . . . 26
3.2.3.3 Mikroskopie mit strukturierter Beleuchtung (Structured-
Illumination Microscopy: SIM) . . . . . . . . . . . . . . . . . . 28
3.3 Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4 Eigene Beiträge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

4 Vergleich von WLI, KM und SIM 35


4.1 Physikalische Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.1 Referenz und Maßverkörperung . . . . . . . . . . . . . . . . . . . . . . . 36
4.1.2 Messwert und Zielgröße . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.3 Einflussfaktoren für die Signalform . . . . . . . . . . . . . . . . . . . . . 39
4.1.4 Speckle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Messtechnische Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Präzision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.2.2 Richtigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.3 Laterale Auflösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.4 Messgeschwindigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2.5 Winkeldynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3 Zusammenfassung und Diskussion . . . . . . . . . . . . . . . . . . . . . . . . . . 52

5 Theoretische Modellierung der Signalentstehung von SIM 55


vi Inhaltsverzeichnis

5.1 Wellenoptisches Modell eines inkohärenten abbildenden Systems . . . . . . . . . 55


5.2 Kontrastkurve in einem aberrationsfreien System . . . . . . . . . . . . . . . . . 58
5.3 Kontrastkurve in einem aberrationsbehafteten System . . . . . . . . . . . . . . 63

6 Charakterisierung und Grenzen von SIM 69


6.1 Präzision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.2 Richtigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.3 Laterale Auflösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.4 Winkeldynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.5 Skalierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

7 Optimierung der Messgeschwindigkeit 93


7.1 Grenze der Messgeschwindigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.2 Methoden zur Optimierung der Messgeschwindigkeit . . . . . . . . . . . . . . . 97
7.2.1 Informationseffizienter Ansatz für ein kontinuierliches axiales Scannen . 97
7.2.2 Kontinuierliches axiales Scannen bei simultaner Projizierung mehrerer
multidirektionaler Sinusmuster . . . . . . . . . . . . . . . . . . . . . . . 103
7.3 Zeilenscannende Strategie zur optimalen makroskopischen Messung . . . . . . . 110

8 Modellfreie Kalibrierung der Retrace-Fehler 119


8.1 Kombination von Mikrodeflektometrie und SIM . . . . . . . . . . . . . . . . . . 119
8.1.1 Mikrodeflektometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
8.1.2 Vorteilhafte Kombination im selben Aufbau . . . . . . . . . . . . . . . . 123
8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler . . . . . . . . . 126
8.2.1 Erfassung der Retrace-Fehler . . . . . . . . . . . . . . . . . . . . . . . . 129
8.2.2 Erstellung der Kalibrierfunktion . . . . . . . . . . . . . . . . . . . . . . . 135
8.2.3 Verifizierung der Kalibrierung . . . . . . . . . . . . . . . . . . . . . . . . 141

9 Anwendungen und Messbeispiele 149


9.1 In-Line-Inspektion von Lötbumps . . . . . . . . . . . . . . . . . . . . . . . . . . 149
9.2 Weitere Messbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

10 Zusammenfassung 155

Literaturverzeichnis 159

Anhang I 171

Anhang II 175

Anhang III 179

Anhang IV 183

Anhang V 185

Danksagung 187
vii

Abbildungsverzeichnis

3.1 Aufbau eines Flip-Chips. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8


3.2 Koplanarität eines Lötbumpsarrays. . . . . . . . . . . . . . . . . . . . . . . . . 8
3.3 Drei Varianten der Triangulationsverfahren. . . . . . . . . . . . . . . . . . . . . 11
3.4 Drei Varianten der Time-of-Flight-Sensoren. . . . . . . . . . . . . . . . . . . . . 14
3.5 Ein von einer Punktlichtquelle beleuchteter Tischtennisball. . . . . . . . . . . . 15
3.6 Aufbau des photometrisches Stereos mit vier Lichtquellen. . . . . . . . . . . . . 16
3.7 Aufbau der Speckle-Interferometrie. . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.8 Aufbau der digitalen Holographie. . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.9 Aufbau einer vergleichenden digitalen Holographie. . . . . . . . . . . . . . . . . 19
3.10 Prinzip des Shack-Hartmann-Wellenfront-Sensors. . . . . . . . . . . . . . . . . . 21
3.11 Aufbau der phasenmessenden Deflektometrie. . . . . . . . . . . . . . . . . . . . 23
3.12 Aufbau der Weißlichtinterferometrie. . . . . . . . . . . . . . . . . . . . . . . . . 25
3.13 Aufbau einer konfokalen Mikroskopie. . . . . . . . . . . . . . . . . . . . . . . . 27
3.14 Der erste in 1988 veröffentlichte experimentelle Aufbau von SIM. . . . . . . . . 28
3.15 Aufbau von SIM mit einem ferroelektrischen Flüssigkristalldisplay. . . . . . . . 29
3.16 Laboraufbau von SIM mit durch einen FLCoS-Display projizierten Sinusmustern. 30
3.17 Höhenberechnung durch Maximumlokalisation an der Kontrastkurve. . . . . . . 31

4.1 Blockdiagramm eines Messvorgangs. . . . . . . . . . . . . . . . . . . . . . . . . 35


4.2 Illustration der Referenz und Maßverkörperung von WLI, KM und SIM. . . . . 36
4.3 Messsignale von WLI, KM und SIM. . . . . . . . . . . . . . . . . . . . . . . . . 38
4.4 Abhängigkeit des Specklekontrasts von der Oberflächenrauheit und Größenver-
hältnis zwischen Kohärenzzelle und Auflösungszelle. . . . . . . . . . . . . . . . . 43

5.1 Generalisiertes Modell eines abbildenden Systems . . . . . . . . . . . . . . . . 55


5.2 Modellierung der Defokussierung in einem abbildenden optischen System . . . . 57
5.3 Entfalteter Aufbau eines SIM-Systems für Messung auf spiegelnden Oberflächen 59
5.4 Entfalteter Aufbau eines SIM-Systems für Messung auf rauen Oberflächen . . . 60
5.5 Theoretisch berechnete von Gitterfrequenz und Defokusabsand abhängigen MTF
auf spiegelnden Oberflächen mit NA = 0,85 . . . . . . . . . . . . . . . . . . . . 60
5.6 Analytisch berechnete Kontrastkurven auf rauen und spiegelnden Oberflächen
jeweils für NA 0,25 und NA 0,5. . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.7 Vergleich zwischen der Theorie und den experimentell gemessenen Kontrastkurven. 62
5.8 Aperturabhängige Höhenmessunsicherheit auf spiegelnden und rauen Oberflächen. 62
5.9 Ein aberrationsbehaftetes abbildendes System. . . . . . . . . . . . . . . . . . . 63
5.10 Entfalteter Aufbau eines SIM-Systems für die Messung auf spiegelnden Oberflä-
chen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.11 Simulierte Kontrastkurven auf ebenen spiegelnden Oberflächen bei fünf simu-
lierten Wellenaberrationen vierter Ordnung. . . . . . . . . . . . . . . . . . . . . 66
5.12 Entfalteter Aufbau eines SIM-Systems für die Messung von rauen Oberflächen . 67
5.13 Simulierte Kontrastkurven auf ebenen rauen Oberflächen bei fünf simulierten
Aberrationen vierter Ordnung. . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
viii Abbildungsverzeichnis

6.1 Experimentell bestimmte Abhängigkeit der Messunsicherheit von der Anzahl der
Messdaten auf einem Spiegel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.2 Vergleich zwischen der theoretischen Untergrenze der photonenrauschen-
limitierten Präzision und den experimentellen Ergebnissen auf spiegelnden
Oberflächen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.3 Experimentell bestimmter Korrelationskoeffizient und Kontrastrauschen auf ei-
nem Rauheitsnormal bei einem Mikroobjektiv 5x/0.15. . . . . . . . . . . . . . . 75
6.4 Experimentell bestimmte Abhängigkeit der Messunsicherheit von der Anzahl der
Messdaten auf einem Rauheitsnormal. . . . . . . . . . . . . . . . . . . . . . . . 75
6.5 Vergleich zwischen der theoretischen Untergrenze der specklerauschen-
limitierten Messunsicherheit und den experimentellen Ergebnissen bei einem
Mikroobjektiv 5x/0,15. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.6 Der durch Nichtübereinstimmung des Luftbilds des Sinusmusters und der Foku-
sebene der Kamera bedingte Retrace-Fehler. . . . . . . . . . . . . . . . . . . . . 78
6.7 Numerisch simulierte Kontrastkurven auf einem ebenen Spiegel mit Kippwinkel
von 0° und 15°. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.8 Numerisch simulierte neigungsabhängige Retrace-Fehler auf spiegelnden Ober-
flächen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.9 Experimentelle Verifikation der durch Aberration bedingten Retrace-Fehler. . . 82
6.10 Laterale Auflösung der Kontrastkarten an unterschiedlichen Tiefenpositionen . . 83
6.11 Auflösungsnormal RS-N von der Firma SiMETRICS GmbH. . . . . . . . . . . 84
6.12 Experiment zur Verifizierung der 3D-Grenzfrequenz von SIM. . . . . . . . . . . 85
6.13 Experimentell ermittelte 3D laterale Auflösung von SIM. . . . . . . . . . . . . . 86
6.14 Effektive numerische Apertur des gesamten SIM-Systems bei einem gekippten
Spiegel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.15 Abhängigkeit der effektiven numerischen Apertur vom monotonen steigenden
Kippwinkel jeweils bei zwei orthogonalen Streifenrichtungen. . . . . . . . . . . . 88
6.16 Experimentelle Demonstration der anisotropischen Winkeldynamik in Abhän-
gigkeit von Streifenrichtung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.17 Messungen auf einem Kugellagerkugel mit vertikalem, horizontalem und kombi-
niertem Sinusmuster. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

7.1 Modell zur Veranschaulichung der Anzahl der notwendigen Datenpunkte für die
Berechnung von einem 3D-Punkt bei SIM. . . . . . . . . . . . . . . . . . . . . . 96
7.2 Prinzip der „fliegenden Phasenschiebung“, die ein informationseffizientes konti-
nuierliches Tiefenscannen ermöglicht. . . . . . . . . . . . . . . . . . . . . . . . . 98
7.3 Funktionsprinzip der Single-Side-Band(SSB)-Demodulation. . . . . . . . . . . . 99
7.4 Vergleich der Messungergebnisse von klassischer 4-Phasenschiebung und der „flie-
genden Phasenschiebung“. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.5 Phasenschiebungsansatz von einem Kreuzgittermuster. . . . . . . . . . . . . . . 105
7.6 Auswertemethode des Messsignals vom Kreuzgittermuster. . . . . . . . . . . . . 107
7.7 Höhenmessung auf einem Spiegel durch SIM mit Kreuzgittermuster. . . . . . . 109
7.8 Neigungsmessung durch Mikrodefkeltometrie auf einem um 15° gekippten Spie-
gels jeweils mit klassischer 4-Phasenschiebung und Kreuzmuster. . . . . . . . . 110
7.9 Grundprinzip der zeilenscannenden Makroskopie mit strukturierter Beleuchtung
(Structured-Illumination MAcroscopy: SIMA). . . . . . . . . . . . . . . . . . . . 113
7.10 Messaufbau der zeilenscannenden Makroskopie mit strukturierter Beleuchtung
(SIMA). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.11 Drei originale Kamerabilder von einer SIMA-Messung. . . . . . . . . . . . . . . 115
7.12 Messdaten der zeilenscannenden SIMA. . . . . . . . . . . . . . . . . . . . . . . 116
Abbildungsverzeichnis ix

7.13 Die Höhenkarte des Wafers durch zeilenscannende SIMA. . . . . . . . . . . . . 117


7.14 Zeilenscannende SIMA mit Kreuzgittermuster. . . . . . . . . . . . . . . . . . . . 118

8.1 Aufbau der Mikrodeflektometrie. . . . . . . . . . . . . . . . . . . . . . . . . . . 121


8.2 Geometrische Beziehung zwischen dem Luftbild des Displays und den effektiven
Strahlengängen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.3 Vergleich zwischen den Aufbauten von SIM und Mikrodeflektometrie. . . . . . . 123
8.4 Durch Fusion der Höhenkarten aus SIM und Mikrodeflektometrie lässt sich eine
besseren Messgenauigkeit auch bei großen Objekten erreichen. . . . . . . . . . . 124
8.5 Datenfusion von SIM und Mikrodeflektometrie bei Messung eines polierten Zy-
linderblocks mit nanometertiefen Kratzern. . . . . . . . . . . . . . . . . . . . . 125
8.6 Der durch Retrace-Fehler bedingte systematische Fehler. . . . . . . . . . . . . 126
8.7 Flussdiagram des modellfreien Kalibrierungskonzeptes zur Kompensation des
Retrace-Fehlers bei SIM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8.8 Photogrammetrischer Aufbau zur Bestimmung der Rotations- und Translations-
matrix. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
8.9 Laboraufbau zur Kalibrierung des Retrace-Fehlers. . . . . . . . . . . . . . . . . 130
8.10 Flussdiagramm des Messvorgangs zur Erfassung des Retrace-Fehlers. . . . . . . 132
8.11 Gemessene Retrace-Fehler entlang x- y- und z-Achsen. . . . . . . . . . . . . . . 134
8.12 Flussdiagramm des Messvorgangs zur Erstellung der Kalibrierfunktion des
Retrace-Fehlers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
8.13 Approximation durch Polynomfit und Interpolation durch RBF der diskreten
Messdaten von Retrace-Fehler. . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
8.14 Eine Kugellagerkugel mit Qualitätsstufe von Grad 5. . . . . . . . . . . . . . . . 141
8.15 Modellfrei mit Mikrodeflektometrie gemessene Neigung in x- und y-Richtung. . 142
8.16 Abweichung der Höhenkarte zu einer Bestfitkugel vor und nach der Kompensa-
tion der Retrace-Fehler. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
8.17 Numerisch bestimmte Soll-Neigungen in x- und y-Richtung. . . . . . . . . . . . 144
8.18 Vergleich der Kompensationsergebnisse der Retrace-Fehler jeweils mit den ge-
messenen Neigungen und den numerisch bestimmten Soll-Neigungen. . . . . . . 145
8.19 Höhenartefakte am Rand des Kalibriermarkers beim großen Kippwinkel. . . . . 146
8.20 Eine alternative Kalibriermarkerplatte zur Beseitigung der Höhenartefakten der
modelfreien Kalibrierung von Retrace-Fehler. . . . . . . . . . . . . . . . . . . . 147

9.1 Messung auf einem BGA-Flip-Chip mit Größe von 25 x 25 und Bumpdurchmes-
ser von 500 µm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
9.2 Höhenkarte des BGA-Flip-Chips zusammengesetzt aus sieben zeilenscannenden
SIMA-Messungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
9.3 Integrierte Schaltung auf einem Wafer (gemessen mit einem 50x/0,85-
Mikroobjektiv). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
9.4 Facettenauge einer Libelle (gemessen mit einem 50x/0,85-Mikroobjektiv). . . . 153
9.5 Gewinde einer Schraube (gemessen mit einem hochgeöffnete Photoobjektiv mit
Messfeld: 4,8 x 3,6 mm2 und NA 0,5). . . . . . . . . . . . . . . . . . . . . . . . 153
9.6 Oberflächen einer 50-Cent-Münze (gemessen mit einem hochgeöffnete Photoob-
jektiv mit Messfeld: 4,8 x 3,6 mm2 und NA 0,5). . . . . . . . . . . . . . . . . . 154

10.1 Wellenfrontfehler von fünf Seidel-Aberrationen. . . . . . . . . . . . . . . . . . . 173

10.2 Vergleich zwischen der Theorie und dem numerisch simulierten Kontrastrauschen
bei unterschiedlichen Anzahl der Phasenschiebung auf spiegelnden Oberflächen. 178
x Abbildungsverzeichnis

10.3 Numerische Verifizierung für das analytische Modell des Kontrastrauschens auf
rauen Oberflächen bei einer 4-Phasen-Schiebung. . . . . . . . . . . . . . . . . . 181

10.4 Vergleich der numerishen Genauigkeit von Polynomfit und RBF. . . . . . . . . 183
10.5 Standardabweichung der Abweichung der interpolierten Werte von den Sollwer-
ten bei der Approximation mit Polynom-Funktion und Interpolation mit RBF-
Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
xi

Tabellenverzeichnis

3.1 Erforderliche Spezifikationen für die In-Line-Inspektion der Lötbumps von First-
Level-Interconnects. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2 Bewertungsmatrix der verfügbaren 3D-Messtechniken gegenüber den Anforde-
rungen der 3D-Halbleiterinspektion. . . . . . . . . . . . . . . . . . . . . . . . . 32

4.1 Referenz und Maßverkörperung von WLI, KM und SIM. . . . . . . . . . . . . . 37


4.2 Messwert und Zielgröße von WLI, KM und SIM. . . . . . . . . . . . . . . . . . 37
4.3 Einflussfaktoren der Signalform von WLI, KM und SIM. . . . . . . . . . . . . . 39
4.4 Vergleich zwischen den Präzisionseinflussfaktoren bei WLI, KM und SIM. . . . 46
4.5 Objektbedingte systematische Fehler bei WLI, KM und SIM. . . . . . . . . . . 48
4.6 3D laterale Auflösung von WLI, KM und SIM. . . . . . . . . . . . . . . . . . . 49
4.7 Informationseffizienz von WLI, KM und SIM. . . . . . . . . . . . . . . . . . . . 50
4.8 Winkeldynamik von WLI, KM und SIM. . . . . . . . . . . . . . . . . . . . . . . 51
4.9 Vergleich der messtechnischen Eigenschaften bei WLI, KM und SIM. . . . . . . 53

5.1 Polynomterme der fünf Seidel-Aberrationen. . . . . . . . . . . . . . . . . . . . . 64

7.1 Vergleich der Informationseffizienz zwischen vier Methoden zur Kontrastmessung


bei SIM. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.2 Vergleich der Informationseffizienz zwischen dem neuen Lösungsansatz, der klas-
sischen Phasenschiebung und weiteren Lösungsansätzen vom Stand der Technik. 101
7.3 Vergleich der maximal erreichbaren Informationseffizienz zwischen der Methode
mit Kreuzgittermuster und der klassischen Methode. . . . . . . . . . . . . . . . 108

10.1 Primäre Aberrationen vierter Ordnung. . . . . . . . . . . . . . . . . . . . . . . 172


xii Tabellenverzeichnis
xiii

Nomenklatur

A Aufnahmerate des 3D-Scans [3D-Aufnahme/Sekunde]

α Kippwinkel eines Spiegels

αu Quantisierungstufe des Kamerachips

h̄ Radiale Koordinaten in der Objektebene

ν̄ Normierte radial Frequenzkoordinate in Fourierebene zwischen [0,2]

r̄ Normierte radiale Koordinate in der Pupillenebene

β Vergrößerungsfaktor

C Kontrast des beobachteten Sinusmusters

c Lichtgeschwindigkeit
A
Crau Defokuskontrast eines aberrierten optischen Systems auf rauen Oberflächen
A
Cspiegelnd Defokuskontrast eines aberrierten optischen Systems auf spiegelnden Oberflächen

CC3D Kanalkapazität des 3D-Sensors [Bit/Sekunde]

CC2D Kanalkapazität der Kamera [Bit/Sekunde]

Ch Kontrast eines horizontalen Sinusmusters

Crau Kontrast des beobachteten Sinusmusters auf rauen Oberflächen

CSP Polarisationsabhängiger Specklekontrast

Cspiegelnd Kontrast des beobachteten Sinusmusters auf spiegelnden Oberflächen

CSP ix Pixelgrößenabhängiger Specklekontrast

CSs Räumlicher Specklekontrast

CSt Zeitlicher Specklekontrast

Cv Kontrast eines vertikalen Sinusmusters

D Durchmesser des Lötbumps

d Abstand zwischen Luftbild des Sinusmusters und Fokusebene der Kamera bei Deflekto-
metrie

dA Durchmesser von Auflösungszelle

∆Ii Durch Speckle bedingte Intensitätsabweichung

∆λ Halbswertbreite des Lichtspektrums

∆ϕ Durch Oberflächenneigung bedingte Phasendifferenz bei Deflektometrie


xiv Tabellenverzeichnis

∆S Durch Oberflächenneigung bedingte laterale Verschiebung der beobachteten Phase bei


Deflektometrie

△s Schritteweite des axialen Scans

∆t Inspektionszeit eines Flip Chips

∆T Die gesamte Länge des Datenbereichs wo Auswertealgorithmus ausgeführt wird

∆T1 Durch Speckle bedingte Rauschen von T1

∆T2 Durch Speckle bedingte Rauschen von T2

∆tL Zeitabstand zwischen zwei darauffolgenden Aufnahmen beim lateralen Scannen

△νL Halbwertsbereite des Lichtspektrums

∆W Wellenaberrationsfunktion

∆x Messbereich in x-Richtung

δx Laterale Auflösung in x-Richtung

△xP Größe des Pinholes

△xpix Pixelgröße

∆y Messbereich in y-Richtung

δy Laterale Auflösung in y-Richtung

∆z Messbereich in z-Richtung

δz Höhenmessunsicherheit 1σ

dK Durchmesser der Kohärenzzelle

dL Durchmesser der scheinbaren Lichtquelle

dM Abstand zwischen dem Objekt und dem Fokus des projizierten Sinusmusters

dZeilen Abstand der benachbarten aktiven Pixel beim lateralen Scannen

E Anzahl der notwendigen 2D-Bildpunkte für Berechnung eines 3D-Punkts


~ Retrace Vektor des Retrace-Fehlers
E

η Horizontale Koordinaten in der Objektebene

ηI Informationseffizienz eines 3D-Scanners

ξ Vertikale Koordinaten in der Objektebene

f0 Frequenz eines harmonisch modulierten 1D-Signals

fAbtast Abtastfrequenz der digitalen Abtastung eines analogen 1D-Signals

fd Kalibrierfunktion der Retrace-Fehler

fT raeger Trägerfrequenz eines modulierten 1D-Signals


Tabellenverzeichnis xv

F W HM Full-Width-Half-Maximum (Halbwertsbreite)

g Gitterkonstante des Stufennormals für Feststellung der 3D lateralen Auflösung von SIM

GA Fouriertransformierte der Intensitätsverteilung IA vom beobachteten Sinusmuster

γ Komplexe zeitliche Kohärenzfunktion

GE Fouriertransformierte der Intensitätsverteilung IE vom projizierten Sinusmuster

H Inkohärente OTF eines optischen Systems

HI Entropie als Maß für den mittleren Informationsgehalt

IA Intensität des beobachteten Sinusmusters in der Objektebene

IE Intensität des projizierten Sinusmusters in der Objektebene

Ih Intensität eines horizontalen Sinusmusters

Ik Intensität eines Kreuzsinusmusters

IL Originale Intensitätstaffel vom lateralen Scannen

Im Mittlere Intensität eines Sinusmusters

IS Virtuell sortierte Intensitätstaffel vom lateralen Scannen

ISSB Komplexe Intensität nach der SSB-Demodulation

Iv Intensität eines vertikalen Sinusmuster

I(z, zm ) Transinformation zwischen der wahren Höhenkarte z und zm

J1 Bessel-Funktion erster Art erster Ordnung

k Wellenvektor

κ0 Die Krümmung am Signalmaximum einer eindimensionalen Kurve

KM Konfokale Mikroskopie

SIM Mikroskopie mit strukturierter Beleuchtung (Structrured-Illumination Microscopy)

lK Kohärenzlänge

λ Wellenlänge der Lichtqulle

LUT Look-Up-Table

M Anzahl der Phasenschiebung

Cmax Maximaler Kontrast der Kontrastkurve

Mh Anzahl der Phasenschiebung für ein horizontales Sinusmuster

MTF Modulation-Transfer-Funktion

Mv Anzahl der Phasenschiebung für ein vertikales Sinusmuster


xvi Tabellenverzeichnis

Mx Anzahl der Abtastpunkte in x-Richtung eines 3D-Sensors

My Anzahl der Abtastpunkte in y-Richtung eines 3D-Sensors

N Anzahl der Datenpunkte innerhalb der halben Kurvenbreite

NA Numerische Apertur

NK Anzahl der Kohärenzzellen innerhalb einer Auflösungszelle

N0 Spektrale Leistungsdichte eines eindimensionalen Signals

nph Anzahl der zu integrierenden Photonen

nt Anzahl der zeitlich sequentiell aufgenommenen Datenpunkte

ν Horizontale Frequenzkoordinaten in der Fourierebene (konjungiert zu η)

νGrenz Grenzfrequenz der OTF bei einem inkohärenten optischen System

µ Vertikale Frequenzkoordinaten in der Fourierebene (konjungiert zu ξ)

νGitter Gitterfrequenz des projizierten Sinusmusters

nx Anzahl der räumlich simultan aufgenommenen Datenpunkte

nz Anzahl der Abtastungspunkte des axialen Scans

o Skalierungsfaktor für Erhöhung der Abtastauflösung beim lateralen Scannen

OBAP Orts-Bandbreite-Aufnahmerate-Product

ω040 Aberrationskoeffizient der sphärischen Aberration

ω131 Aberrationskoeffizient der Koma

ω222 Aberrationskoeffizient des Astigmatismus

ω20 Optische Wegdifferenz am Rand der Eintrittspupile bei Defokusierung

ω220 Aberrationskoeffizient der Bildfeldwölbung

ω311 Aberrationskoeffizient der Verzeichnung

P Aberrationsfreie Pupillenfunktion

p Gitterperiode des projizierten Sinusmusters

Q Qualitätsfaktor der Deflektometrie

R Radius der Pupillenfunktion

r Korrelationskoeffizient von Rauschen ∆T1 und ∆T2

Ra Arithmischer Mittelwert der Oberflächenrauigkeit

ρ Absorptionskoeffizient der Oberfläche

s Schrittweite des axialen Scans von SIM


Tabellenverzeichnis xvii

S 3D Messgeschwindigkeit des 3D-Scanners [3D-Punkte/Sekunde]

σ Standardabweichung

σph Standardabweichung des Photonenrauschens

σρ Standardabweichung des multiplikativen Rauschfaktors vom Specklerauschen

σT1 Standardabweichung des Rauschens der durch Phasenschiebung berechneten maximalen


Intensität eines Sinusmusters

σT2 Standardabweichung des Rauschens der durch Phasenschiebung berechneten minimalen


Intensität eines Sinusmusters

σz Standardabweichung der Oberflächenrauigkeit

SIMA Makroskopie mit strukturierter Beleuchtung (Structured-Illumination Macroscopy)

SN R Signal-Rauschen-Verhältnis

SN Rcam Signal-Rauschen-Verhältnis der Kamera

SN Rschrot Signal-Rauschen-Verhältnis vom Photonenrauschen

sx Oberflächeneigung in x-Richtung

sy Oberflächeneigung in y-Richtung

T Nominale Stufenhöhe des Stufennormals

T1 Durch Phasenschiebung berechnete maximale Intensität eines Sinusmusters

T2 Durch Phasenschiebung berechnete minimale Intensität eines Sinusmusters

θ Höhenwinkel der Oberflächennormale bei Kalibrierung der Retrace-Fehler

θω Polarwinkel in der Pupillenebene

θF okus Kippwinkel der Fokusebene

θP Winkel der Bewegungsrichtung eines Kreuzmusters

Tm Gemessenen Stufenhöhe des Stufennormals

u Halbwinkel des Lichtkegels einer abbildenden Optik

uBel Halbwinkel des Beleuchtungskegels

uBeo Halbwinkel des Beobachtungskegels

V Visibilität des Interferogramms

vL Bewegungsgeschwindigkeit des lateralen Scannens

WLI Weißlichtinterferometrie

x Horizontale Koordinaten in der Eintrittspupilenebene

x̄ Normierte horizontale Ortskoordinate x


xviii Tabellenverzeichnis

y Vertikale Koordinaten in der Eintrittspupilenebene

ȳ Normierte vertikale Ortskoordinate y

z Wahre Objekthöhe

zd Difokussierungsabstand im Bezug zu Fokus

zf Abstand zwischen dem optischen Fokus und der Eintrittspupille

zm Gemessene Objekthöhe

zmq Quantisierte gemessene Objekthöhe


1

1 Summary

The continuous growth of semiconductor industry is driven by the development roadmap


following the Moore‘s Law – to double the integration density of transistors every two years.
The necessity of manufacturing ever smaller structure size of micro chips places not only
challenge to lithography but also to other parts of manufacturing process, such as the optical
metrology. One example is the optical in-line inspection of the solder bumps during packaging
integrated circuits (IC).

To keep pace with fast progress of IC development, the packaging industry is constantly in
search of high-resolution optical 3D sensors, which can scan on both optical rough and specular
surfaces accurately, robustly and rapidly. The demanded inspection speed for next-generation
inspection machine is 160 million 3D-points/second, while simultaneously targeting at depth
resolution of below 1µm, depth range of 500µm and lateral resolution of 5µm. The trend
appears to be that the required scanning speed is still keeping increasing. Only few sensor
principles can potentially fulfil the requirements in all respects. One of them is the Structured-
Illumination Microscopy (SIM).

In the scope of this dissertation, the theoretical limits of SIM were first investigated. The
signal formation was modeled for both aberration-free and aberrated optical systems. This
model enables to characterize SIM in terms of accuracy, depth and lateral resolution, angular
dynamics and measurement speed. The obtained knowledge allows for efficient estimation of
the suitable sensor parameters for realistic applications.

Except for the speed, the state of the art of SIM meets satisfactorily the requirements of the
aforementioned application. The commercially available SIM systems all have high accuracy,
high dynamic range, high lateral and depth resolution. However, they are designed to measure
microscopic objects and too slow. In general, the scanning speed of 3D sensor can be charac-
terized with the channel capacity CC3D . It is ultimately limited by the channel capacity CC2D
of camera. Unfortunately, the CC3D of SIM is much smaller than CC2D . The low information
efficiency η = CC3D /CC2D is mostly due to the technological aspect such as ‘stop-and-go’
during the phase shift and depth scan. Apart from this fact, the information efficiency is
information-theoretically limited by the large number E of 2D acquisitions during the depth
scan.

In order to significantly improve the scanning speed, a line-scanning method for SIM was de-
veloped and can completely get rid of phase shift and depth scan. Only via a continuous lateral
motion of sensor, the object can be scanned with unlimited macroscopic FOV while preserving
lateral resolution. A still standing pattern (e.g. a chrome mask) can be used instead of a
dedicated digital display. By choosing the optimal scan parameters, the information efficiency
can be increased by 100% compared to the conventional scanning method. The achiev-
able scanning speed is merely limited by the camera bandwidth. The setup is so simple, that
the scan speed can be theoretically unprecedentedly scaled up by parallelizing multiple sensors.
2 1 Summary

A further sensor fusion and calibration technology was developed to improve the accuracy
on objects with specular surfaces, where the retrace error is identified as the dominant error
source. Via the combination of SIM and Microdeflectometry, one can measure both height and
slope within one setup. This hybrid sensor principle allows for implementation of a model-
free calibration of slope-dependent retrace error. Moreover, the depth uncertainty on specular
surface can be reduced to nanometer level independent of the NA, FOV and lateral resolution
of used objective lens.
3

2 Aufgabenstellung und Zusammenfassung der Ergebnisse

Aufgabenstellung
In den letzten Jahrzehnten haben einige Technologien unsere Welt stark verändert. Insbe-
sondere die Entwicklung der Halbleiterindustrie dient als ein treibender Motor für rasante
Entwicklungen in anderen Branchen, wie Telekommunikation, Datenkommunikation, Elektro-
nik und Automobilindustrie. Damit das Wachstum kontinuierlich beibehalten werden kann,
wird Mooresches Gesetz [1] als Entwicklungsziel verfolgt, alle zwei Jahre die Dichte der verbau-
ten Transistoren zu verdoppeln. Die Notwendigkeit der sich stetig verkleinernden Strukturgröße
und die Deflation des Preises pro Funktionseinheit (Bit oder Transistor) stellen nicht nur große
Herausforderungen an die Entwicklung in der Halbleiterindustrie, sondern auch an andere
mitbeteiligten Technologien, die als wichtige Bestandteile des ganzen Herstellungsprozesses
gelten.

Optische 3D-Messtechnik wird als eine Schlüsseltechnologie in der Halbleiterindustrie bezeich-


net. Sie liefert notwendige Information zur Steuerung des ganzen Herstellungsprozesses der
integrierten Schaltungen. Eine typische Anwendung ist die optische In-Line-Inspektion der
Koplanarität der Lötbumps beim „Packaging“ der integrierten Schaltungen. Die Aufgabe dabei
ist, die Fehlerteile so früh wie möglich zu erkennen und auszusortieren, um die Entstehung wei-
terer Kosten zu vermeiden. Die dafür eingesetzten 3D-Sensoren sollen sowohl optisch raue als
auch optisch spiegelnde Oberflächen messen können. Die benötigte Tiefenpräzision δz ist 1µm
bei einer lateralen Auflösung δx = 10µm und Messtiefe △z = 500µm. Darüber hinaus sucht
die Halbleiterindustrie dringend nach einem optischen 3D-Sensor, der bei obengenannten Para-
metern noch mit einer Messgeschwindigkeit von 108 3D-Punkten/Sekunde misst. Es gibt beim
Stand der Technik derzeit noch keinen Sensor, der alle Anforderungen gleichzeitig erfüllen kann.

Allerdings gibt es bereits einige 3D-Messmethoden, die mit Ausnahme der Messgeschwindigkeit
die anderen Anforderungen erreichen können. Sie beruhen alle auf tiefenscannenden Verfahren.
Dadurch kann man die Messtiefe unabhängig von der Messgenauigkeit, lateralen Auflösung
und der numerischen Apertur (NA) des Objektives beliebig (bis zum Arbeitsabstand des
Objektives) erweitern. Diese Eigenschaft ist deshalb sehr wichtig, weil kein Kompromiss für die
In-Line-Inspektion der Lötbumps zwischen Messgenauigkeit, lateraler Auflösung und Messtiefe
gemacht werden darf.

Eine dieser tiefenscannenden Methoden ist die Weißlichtinterferometerie (WLI). WLI bietet
den Vorteil, dass die Messpräzision auf allen Oberflächentypen unabhängig vom Abstand des
Objektes, NA und Messfeld ist. Die spiegelnden Oberflächen sind damit mit einer Präzision
von bis zu einigen Nanometern messbar. Allerdings ist bei WLI die Messgeschwindigkeit sehr
langsam. Da das Tiefensignal mit der halben Wellenlänge der Lichtquelle moduliert ist, muss
man beim Abtasten des Tiefensignals eine hinreichende kleine Schrittweite (~ 100nm) wählen,
damit die Höhenwerte fehlerfrei ausgewertet werden können. Aufgrund der hohen Anzahl
der notwendigen Aufnahmen ist der Messvorgang sehr langsam. In letzten Jahren wurden
diverse Lösungsansäzte [2, 3, 4, 5, 6, 7] gefunden. Die erreichbare Messgeschwindigkeit liegt
bei kommeziellen Geräten meistens unter 106 3D-Punkten/Sekunde.
4 2 Aufgabenstellung und Zusammenfassung der Ergebnisse

Eine andere Alternative ist die Konfokale Mikroskopie (KM). Da das Tiefensignal dort nicht
mehr mit einem hochfrequenten Trägersignal moduliert ist, kann ein Tiefenscan mit viel
weniger Aufnahmen im Vergleich zur WLI durchgeführt werden. Jedoch benötigt eine vollflä-
chige Erfassung der Topographie eine sequentielle laterale Abtastung und führt daher auch
zu einer langsamen flächenhaften Messung. Obwohl einige erweiterten Methoden, wie mit
einer rotierenden Nipkow-Scheibe, bei KM entwickelt wurden, um das laterale Scannen zu
beschleunigen, liegt die erreichte Messgeschwindigkeit der kommerziellen KM-Sensoren im
gleichen Größenordnung (~ 106 3D-Punkte/Sekunde) wie bei WLI. Zusätzlich ist KM anfällig
für Specklerauschen auf rauen Oberflächen, weil eine räumlich und manchmal auch zeitlich
(bei Laser) stark kohärente Lichtquelle eingesetzt wird.

Die dritte alternative Methode ist unter dem Namen „Mikroskopie mit strukturierter Be-
leuchtung“ (Structured-Illumination-Microscopy: SIM) bekannt. Die Grundidee wurde zum
ersten Mal 1988 in [8] vorgestellt und anschließend 1997 zur mikroskopischen Bildgebung
biologischer Objekte mit erweiterter Schärfentiefe erweitert [9]. Seit einigen Jahren wurde
das Potential von SIM zur Erfassung der 3D-Geometrie von technischen Oberflächen in der
OSMIN-Arbeitsgruppe am Lehrstuhl für Optik an der Universität Erlangen untersucht [10].
Die abgeschlossenen Untersuchungen zeigten, dass SIM eine vergleichbare Leistungsfähigkeit
wie WLI und KM bietet. Spiegelnde Oberflächen können mit einer Präzision von bis zu 10
Nanometern vermessen werden. Die Rauigkeit von technischen Oberflächen können auch bei
mikroskopischen Messungen dadurch bestimmt werden. Die erreichte Winkeldynamik ist hoch
und ist durch die NA des Objektives limitiert. Insbesondere besteht ein großes Potential, mit
SIM eine größere Messgeschwindigkeit als mit WLI oder KM zu erlangen. Zum einen ist SIM
ein intrinsisch flächenhaft messendes Verfahren und benötigt kein laterales Scannen. Zum
anderen hat SIM wie bei KM auch kein hochfrequent moduliertes Trägersignal. Daher sind
sehr wenige Aufnahmen beim axialen Scannen notwendig. Diese Eigenschaften von SIM deuten
darauf hin, dass SIM großes Potenzial zur Erfüllung der anspruchsvollen Anforderungen bei
der hochgenauen und sehr schneller In-Line-Inspektion von Lötbumps hat.

Mittlerweile existieren auf dem Markt bereits einige auf SIM basierende kommerzielle 3D-
Sensoren mit unterschiedlichen Modifikationen [11, 12, 13]. Allerdings sind sie alle für die
Messung mikroskopischer Objekte ausgelegt. Makroskopische Objekte lassen sich nur durch
„Stitching“ langsam messen. Motiviert durch die Messaufgabe zur Inspektion der Lötbumps,
soll das Potenzial von SIM zur Implementierung eines hochgenauen und hochschnellen 3D-
Sensors im Rahmen dieser Dissertation untersucht werden. Dabei soll zuerst SIM vollständig
charakterisiert und somit die Grenzen bezüglich der wichtigen Eigenschaften dieser Messtechnik
(Genauigkeit, laterale Auflösung, Winkeldynamik, Messgeschwindigkeit und Skalierbarkeit)
nachvollzogen werden. Die Erkenntnisse über die Grenzen und die Charakteristiken von
SIM sollen dazu beitragen, die Sensorparameter zur Erfüllung der konkreten Spezifikationen
unterschiedlichster Anwendungen optimal zu bestimmen. Trotz der verfügbaren theoreti-
schen Eigenschaften sind oft die praktisch erreichbaren Spezifikationen durch die verfügbaren
Technologien maßgeblich eingeschränkt. Das Ziel dieser Arbeit ist: es sollen die Methoden
entwickelt werden, wie man SIM für die In-Line-Inspektion von Lötbumps in der Praxis am
besten umsetzt, damit die theoretischen Grenzen in der Praxis mit verfügbaren Komponenten
kostengünstig erreicht werden können. Die daraus resultierenden theoretischen und technischen
Ergebnisse sind von entscheidender Bedeutung für eine erfolgreiche Implementierung von SIM.
5

Zusammenfassung der Ergebnisse


Um die Vorteile und Nachteile von SIM gegenüber WLI und KM zu erkennen, wurde
ein Vergleich sowohl aus physikalischer als auch aus praktischer Perspektive durchgeführt.
Der Vergleich aus physikalischer Sicht liefert Erkenntnisse über fundamentale Unterschiede
bezüglich der Signalentstehung. Die sich daraus ergebenden Erkenntnisse dienen als notwen-
dige Grundlagen zum Nachvollziehen der Unterschiede bei einigen wichtigen messtechnischen
Eigenschaften. Daraus wird insbesondere als wichtigstes Erkenntnis ersichtlich, dass SIM
gegenüber WLI deutlich schnellere Geschwindigkeit beim axialen Scannen ermöglicht und
gegenüber KM kein laterales Scannen benötigt. SIM ist aufgrund der räumlich und zeitlich
partiell kohärenten Lichtquelle gegenüber KM weniger anfällig für Specklerauschen auf rauen
Oberflächen. Als Nachteil ist jedoch die laterale Auflösung von SIM in der Regel niedriger.

Zur Charakterisierung von SIM und zur Untersuchung der Grenzen muss zunächst die Signal-
entstehung von SIM theoretisch modelliert werden. Dafür werden zwei Modelle jeweils für
ein aberrationsfreies System und ein aberrationsbehaftetes System entwickelt. Während beim
ersten Modell die Kontrastkurve analytisch in geschlossener Form beschrieben werden kann,
kann man die Kontrastkurve in einem aberrationsbehafteten System mit dem zweiten Modell
numerisch simulieren.

Bei der Implementierung eines optischen 3D-Sensors für praktische Anwendungen ist man
stets mit der Fragestellung konfrontiert, wie man die Sensorparameter am besten anpasst,
um die geforderten Spezifikationen zu erfüllen. Dazu werden die sechs wichtigsten Aspekte
von SIM (Präzision, Richtigkeit, laterale Auflösung, Winkeldynamik, Messgeschwindigkeit und
Skalierbarkeit) analysiert und charakterisiert. Daraus resultieren wichtige Erkenntnisse über
die theoretischen und praktischen Grenzen in Abhängigkeit der Sensorparameter. Damit kann
man einen Sensor gezielt und effizient konstruieren.

Die theoretischen Grenzen von SIM können in der Praxis oft nicht erreicht werden, weil die
verfügbaren technischen Komponenten die limitierenden Faktoren sind. Im Rahmen dieser Dis-
sertation werden bei SIM Probleme von zwei Aspekten - Messgeschwindigkeit und Genauigkeit
auf spiegelnden Objekten - diskutiert und Lösungen werden dafür erarbeitet und implementiert:

(1) Messgeschwindigkeit
– Problem 1: Bei der praktischen Umsetzung vom Tiefenscannen bei SIM ist ein kon-
tinuierliches axiales Scannen des Messobjekts nicht möglich, weil die Kontrastmes-
sung bei einem konventionellen phasenschiebenden Verfahren immer mindestens drei
Aufnahmen erfordert. Statt beim idealen Fall durch die Kamerageschwindigkeit li-
mitiert zu sein, wird die Messgeschwindigkeit bei SIM durch das axiale „Stop-And-
Go“-Scannen eingeschränkt. Die bestehenden Methoden lösen dieses Problem mit
Kompromiss von Informationseffizienz und lateraler Auflösung.
– Lösung: Ein „Fliegende Phasenschiebung“-Messmechanismus wird entwickelt, um
die Durchführung eines informationseffizienten und kontinuierlichen axialen Scan-
nens zu ermöglichen. Die dabei erzielte Scangeschwindigkeit erreicht die theoretisch
maximal erreichbare Grenze und ist praktisch nur durch die Kamerageschwindigkeit
limitiert, ohne Kompromisse zwischen Effizienz, Messgenauigkeit und lateraler
Auflösung machen zu müssen.
6 2 Aufgabenstellung und Zusammenfassung der Ergebnisse

– Problem 2 : Trotz Erreichen der theoretischen Grenze ist die erreichbare Messge-
schwindigkeit eines einzelnen SIM-Systems für die In-Line-Inspektion der Lötbumps
bei heutiger Kamerageschwindigkeit weit nicht ausreichend. Eine flexible Hochska-
lierung der Messgeschwindigkeit mit Parallelisierung mehrerer kostengünstigen Sys-
teme ist eine realistische Lösung. Dafür wird eine zeilenscannende Variante von SIM
gesucht.
– Lösung: Ein zeilenscannender Messmechanismus wird aus dem Messverfahren für
kontinuierliches Tiefenscan erweitert. Dabei ist kein Tiefenscannen nötig und das
Objekt wird kontinuierlich lateral bewegt. Die Phasenschiebung wird durch Kip-
pung eines statischen Musters und elektronische Steuerung des Zeitpunkts von Bild-
aufnahme während einer kontinuierlichen lateralen Bewegung automatisch umge-
setzt. Keine digitale Anzeigeeinheit und mechanische Bewegungseinheit für Tiefens-
can sind mehr nötig. Damit wird eine kostengünstige Parallelisierung mehrerer Sys-
teme ermöglicht. Dies ist für das Erreichen der angestrebten Messgeschwindigkeit
von 108 3D-Punkten/Sekunde bei der In-Line-Inspektion der Lötbumps von großer
Bedeutung.

(2) Genauigkeit auf spiegelnden Objekten


– Problem: Für Messung von blanken Objekten wie optische Elemente, wo großes
Messfeld und große NA gleichzeitig notwendig sind, sind die eingesetzten Objektive
nicht aberrationsfrei. Bei der Reflexion auf blanken Oberflächen führen die Aber-
rationen bei unterschiedlichen Oberflächenneigungen zur unterschiedlichen Fokus-
verschiebungen. Dieser systematische Fehler wird als der Retrace-Fehler bezeichnet
und lässt sich aufgrund der Formabhängigkeit schwierig kompensieren. Außerdem
nimmt die Präzision auch mit der zunehmenden Aberration ab, denn eine schmale
Kontrastkurve ist dabei nicht erreichbar.
– Lösung: Mittels vorteilhafter Kombination von SIM mit der Mikrodeflektometrie
[14, 15] lässt sich die Präzision auf spiegelnden Oberflächen unabhängig von der ver-
wendeten Optik auf einige Nanometer optimieren. Die durch Mikrodeflektometrie
gemessenen Oberflächenneigungen ermöglichen eindeutige Indizierung des Retrace-
Fehlers. Eine modellfreie Kalibrierungsmethode wurde implementiert und verifiziert.
Diese Methode basiert auf Vermessung der neigungsabhängigen Fokusverschiebung,
aus der Look-Up-Table (LUT) zwischen Neigungen und Korrekturvektoren erstellt
werden kann. Die Mikrodeflektometrie liefert während der SIM-Messung die Nei-
gungsdaten zur Berechnung der Korrekturvektoren.

Die erarbeiteten Erkenntnisse über die theoretischen Grundlagen und die Technologien ermögli-
chen es, SIM mit minimalem technologischem Aufwand so anzupassen, dass die anspruchsvollen
Spezifikationen der hochschnellen und hochgenauen In-Line-Inspektion erfüllt werden können.
7

3 Stand der Technik

3.1 Messaufgabe und Anforderungen an optische 3D-Sensoren

Bevor ein Überblick über das breite Spektrum der optischen 3D-Sensoren gegeben wird, soll
zunächst die konkrete Aufgabenstellung vorgestellt und die Anforderungen an die optische
3D-Messtechnik dargelegt werden. Dabei können die jeweiligen Randbedingungen beim Einsatz
optischer 3D-Sensoren und somit die wichtigsten Kriterien für die Auswahl der passenden
Methoden festgelegt werden.

In den vergangenen 50 Jahren wurde die Halbleitertechnologie stetig weiter entwickelt, so


dass bis heute das Mooresche Gesetz immer noch gültig ist. Mit dem aktuellsten 22nm-
Technologieknoten1 können 1,4 Milliarden Transistoren im Intel-Prozessor dritter Generation
(Codename: Ivy Bridge, Chipgröße: 160 mm2 ) integriert werden (Quelle: Intel). Die dadurch
verbesserte Rechenleistung und der erniedrigte Energieverbrauch werden viele neue Anwen-
dungen in Industrie und Consumerelektronik ermöglichen. Dafür ist ein wichtiger Schritt, die
einzelnen elektronischen Bauelemente, wie integrierte Chips (IC) usw., zu einem funktionalen
System zusammenzusetzen („Packaging and Assembly“), unentbehrlich. Um dabei die Signale
innerhalb eines nackten lithographisch herstellten Dies2 unter unterschiedlichsten Umge-
bungsbedingungen immer fehlerfrei zu den äußeren Schnittstellen des Systems und anderer
Chip-Module zu führen, müssen die Dies mit robusten Gehäusen hinreichend vor Umgebungs-
einflüßen geschützt und auf definierte Anschlüsse einer Leitplatte verdrahtet werden.

Infolge des immer höheren Integrationsgrades werden steigende Anforderungen an die benötig-
te Verpackungstechnologie gestellt. Zum einen, da die modernen Hochleistung-ICs häufig über
ein paar tausend Anschlüsse in der Größe von mehreren zehn Mikrometern verfügen, muss die
Verpackung mit extrem hoher Kontaktdichte und kurzer Kontakthöhe flächig abgeschlossen
werden. Damit können die Endsysteme eine kompaktere Bauform und höhere Energieeffizienz
erzielen. Zum anderen wird bei der Integration eines komplexen Systems konzeptionell immer
mehr das Zusammenpacken mehrerer Dies mit unterschiedlichen Funktionalitäten in einem
Gehäuse (SiP: System in Package) gegenüber der Integration eines kompletten Systems auf
Basis eines einzelnen Dies (SoC: System on Chip) bevorzugt. Die Gründe dafür sind die
extrem hohen Entwicklungs- und Herstellungskosten beim SoC. Dieser konzeptionelle Trend
erfordert die Verpackung mehrerer Dies in lateraler Richtung und um kompakt zu bleiben,
sogar zunehmend auch in vertikaler Richtung.

Als einer der häufigst verwendeten Lösungsansätze bei der Halbleiterverpackung wird die soge-
nannte Flip-Chip-Technologie (s. Abb. 3.1) eingesetzt. Dabei wird der aus einem Wafer abge-
schnittene Die zuerst mit in einer Matrix angeordneten Lötbumps (First-Lever-Interconnects)
auf dem Chipsubstrat mithilfe des Reflowlötverfahrens verbunden. Anschließend erfolgt die Ver-
bindung des Chipsubstrates mit weiteren elektronischen Baugruppen durch weitere Lötkugeln
(Second-Level-Interconnects). Zwischen dem Die und dem Chipsubstrat sollen die Zwischen-
räume mit Epoxidharz gefüllt werden, damit die durch thermische Expansion bedingte Kon-
1
kleinste fotolithografisch herstellbare Strukturgröße: 22nm
2
Die: Bezeichnung eines einzelnen ungehäusten Halbleiter-Chips
8 3 Stand der Technik

taktbelastung und damit das Abbrechen der Lötverbindungen während des Betriebs vermieden
werden können. Da auf dem Substrat des Chipsubstrates die Lötkugelmatrix mit skalierbaren
Radien flächenhaft aufgebracht werden kann, ist dieses Verfahren durch hohe Kontaktendichte
und hohe Leitfähigkeit ausgezeichnet. Außerdem lässt sich dieser Ansatz bei Verpackung von
mehreren Dies in laterale und vertikale Richtung sehr flexibel erweitern.

Expoxidharz Die
Lötbumps
Lötbump

First-Level-Interconnects
Die-Substrat

Lötkugel Second-Level-Interconnects

Abbildung 3.1: Flip Chip - Verbindungskomponent zwischen Chip mit integrierter Schaltung und an-
deren elektrischen Baugruppen (Quelle: http://cnfolio.com/ELMnotes15).

In der Praxis wird der Verpackungsvorgang maschinell durch sogenannte Prozessleittechnik


überwacht und kontrolliert durchgeführt. Da die Verpackung bereits an starker Verwölbung
des Substrates oder falscher Höhe eines einzelnen Bumps scheitern kann, muss man neben der
lateralen Dimension der Lötbumps vor allem die Toleranz der vertikalen Höhen des ganzen
Bauteils in Echtzeit überwachen. Fehlerteile sollen frühzeitig erkannt und aussortiert werden,
um spätere kostenintensiven Reparaturprozesse zu vermeiden. Zur Generierung der Aussor-
tierkriterien dient die optische 3D-Messtechnik, die sich durch ihre Zerstörungsfreiheit, hohe
Genauigkeit und schnelle Messgeschwindigkeit ausgezeichnet. Als die allerwichtigste Messgröße
soll die Koplanarität (s. Abb. 3.2) des Lötbumparrays zur Steuerung des Verpackungsprozes-
ses erfasst werden, da sie ein hinreichendes Kriterium für die Erfolgsquote der darauffolgenden
Montage bildet. Definiert wird die Koplanarität über die „Auflagefläche-Methode“ (Seating pla-
ne method) [16] als der maximale Abstand zwischen allen Bumps und der Ebene, die aus den
höchsten Lötbumps aufgespannt wird. Die typisch akzeptable Toleranz der Koplanarität K
liegt bei ca. 10% des Bumpdurchmessers D . Damit die Koplanarität vor der prozessbegleiteten
Montage mit hinreichender Genauigkeit und Geschwindigkeit bestimmt werden kann, müssen
die dafür erforderlichen Spezifikationen für die Anwendung der optischen 3D-Messtechnik er-
mittelt werden.

K = zmax

Abbildung 3.2: Koplanarität K eines Lötbumpsarrays.


3.2 Stand der Technik der optischen 3D-Messtechnik 9

In [2] wurden die Anforderungen bei der Koplanaritätsinspektion eines Lötbumparrays disku-
tiert. Die relevantesten Spezifikationen sind Messzeit △t, Messtiefe △z, Größe des lateralen
Messbereiches △x · △y, Tiefenpräzision δz und laterale Auflösung δx. Hierbei sind die Tie-
fenpräzision δz und die laterale Auflösung δx üblicherweise abhängig vom Durchmesser D
des zumessenden Lötbumps. Da die Tiefenpräzision eines Messsystems besser als 10% der zu
messenden Größe - Koplanarität - sein muss und das Verhältnis zwischen Koplanarität und
Bumpdurchmesser typischerweise bei 1:10 liegt [2], soll die notwendige Präzision des Mess-
systems also mindestens D/100 betragen. Des Weiteren wird die laterale Auflösung dadurch
bestimmt, dass die Pfeilhöhe der von der Auflösungszelle abgegrenzten Kugeloberfläche kleiner
als die Tiefenauflösung (äquivalent zu Tiefenpräzision bei 3D-Messtechnik3 ) sein soll [2]. Aus
diesem Kriterium wird die nötige laterale Auflösung in Größe von D/5 abgeleitet. Die anderen
Spezifikationen - Messtiefe, Messbereich und Messzeit - sind von der Objektgröße und der
Inspektionsgeschwindigkeit abhängig.

Messtiefe Δz ~500 µm
lateraler Messbereich △x△y ~ 160 mm2
Tiefenpräzision δz < 1 µm
laterale Auflösung δx ~ 10 µm
OBAP S 3D ~108 3D-Punkte/Sekunde

Tabelle 3.1: Erforderliche Spezifikationen eines optischen 3D-Sensors für die In-Line-Inspektion der Löt-
bumps von Firstlevelinterconnects. OBAP: Orts-Bandbreite-Aufnahmerate-Produkt.

Für In-Line-Inspektion der Lötbumps von den First-Level-Interconnects, wobei die Lötbumps
einen Durchmesser von bis zu 100 µm haben können, ist eine laterale Auflösung δx = 10 µm
und eine Tiefenpräzision δz < 1 µm erforderlich. Aufgrund der Größe des Flip Chips benötigt
man ein Messvolumen mit einer Messtiefe △z = 500 µm und einem Messbereich △x = 20 mm.
Wegen des Entwicklungstrends in der Halbleiterindustrie, dass die Dies immer kostengünstiger
hergestellt werden sollen, muss die Inspektion zunehmend schneller durchgeführt werden. Um
den Bedarf zukünftig abzudecken, wird eine Inspektionsgeschwindigkeit von UPH4 = 20000
angestrebt. Das bedeutet, dass die Inspektion jedes Flip Chips innerhalb der Messzeit △t = 0,18
Sekunden abgeschlossen werden soll. Berücksichtigt man alle obengenannten Spezifikationen,
ergibt sich ein Orts-Bandbreite-Aufnahmerate-Produkt (OBAP) S 3D 5 [17, 18] von 108 3D-
Punkten/Sekunde. Außerdem, da die Lötbumps raue und spiegelnde Oberflächenanteile haben
können, sollen sowohl raue als auch spiegelnde Oberflächenanteile gleichzeitig gemessen werden
können. Die hier gestellten Anforderungen stoßen bereits an die Grenzen des Standes der
Technik der optischen 3D-Messtechnik und können zurzeit nicht gleichzeitig erfüllt werden.
Um zu verdeutlichen, wo die Schwierigkeiten und Grenzen liegen, wird im nächsten Abschnitt
der Stand der Technik vorgestellt.

3.2 Stand der Technik der optischen 3D-Messtechnik

Unter dem Begriff „Optische 3D-Messtechnik“ versteht man Methoden, bei denen Licht als
Werkzeug benutzt wird, um die dreidimensionale Form der zu prüfenden Objekte zu erfassen.
Im engeren Sinn wird Licht in der Optik als elektromagnetische Welle im Bereich zwischen
3
Die Tiefenauflösung bei 3D-Messtechnik wird durch die Tiefenpräzision bzw. das Rauschen entlang der z-
Achse definiert.
4
UPH: Units Per Hour
5
Orts-Bandbreite-Aufnahmerate-Produkt: (Δx · Δy) · (1/(δx · δy)) · (1/∆t)
10 3 Stand der Technik

380 µm und 780 µm, welcher vom menschlichen Auge wahrgenommen werden kann, definiert. In
der Natur können fast alle Oberflächen mit Licht in Form von Reflektion, Streuung, Brechung,
Polarisierung, Absorption und Fluoreszenz wechselwirken. Nach der Wechselwirkung tragen
die elektromagnetischen Wellen die Information über die Geometrie der Objekte. Im Gegensatz
zu klassischen Methoden wie Taktilverfahren ist die optische 3D-Messtechnik berührungslos
und zerstörungsfrei. Mithilfe von Hochleistungslichtquellen, hochschnellen Bildsensoren und
hochauflösenden Objektiven kann die Objektform mit hoher Messgeschwindigkeit bei hoher
lateraler Auflösung erfasst werden. Durch diese inhärenten Vorteile können zahlreiche An-
wendungsmöglichkeiten mit optischen 3D-Sensoren erschlossen werden. Zum Beispiel, in der
Astronomie lässt sich der Primärspiegel eines Teleskopes mithilfe der interferometrischen
Formvermessung mit hoher Präzision fertigen [19]. Beim Karosseriebau in der Automobilein-
dustrie wird die Fertigungsqualität während des Produktionsprozess mit 3D-Formvermessung
kontrolliert und gesteuert [20]. In der Augenheilkunde können Erkrankungen der Retina durch
Optical Coherence Tomography (OCT) diagnostiziert werden [21].

Um die passenden Messverfahren für die im vorherigen Abschnitt erwähnten Anwendungen zu


diskutieren, sollen die gängigen 3D-Messverfahren in diesem Abschnitt klassifiziert und analy-
siert werden. Zur Klassifizierung der Messprinzipien gibt es in der Literatur mehrere Methoden
mit unterschiedlichen Klassifikationskriterien. Während in [22] alle Messverfahren nach dem
gesetzmäßigen Verhalten der Messunsicherheit in drei Klassen eingeteilt werden können, wer-
den sie üblicherweise entweder nach dem Typ der Messgröße oder nach der Kohärenzfähigkeit
der verwendeten Lichtquelle klassifiziert [23, 24, 25, 26, 27]. Berücksichtigt man die Aufgaben-
stellung der 3D-Messung von Flip Chips, werden in dieser Arbeit die Oberflächentypen (rau,
spiegelnd und rau&spiegelnd) als das Kriterium zur Klassifizierung verwendet. Im Folgenden
wird für jedes Verfahren eine kurze Einführung über das Messprinzip und eine Zusammenfas-
sung der jeweiligen Charakteristiken gegeben.

3.2.1 Raue Oberflächen

Im optischen Bereich werden diejenigen Oberflächen als raue Oberfläche definiert, bei denen die
Rauigkeit σz gleich oder größer als ein Viertel der Wellenlänge λ der verwendeten Lichtquelle
ist. Wird eine raue Oberfläche aus einer Richtung beleuchtet, werden die darauf treffenden Pho-
tonen von den Oberflächenmolekülen in alle möglichen Richtungen gestreut. Diese Eigenschaft
dient in der Praxis für manche optische 3D-Messmethoden als eine notwendige Voraussetzung.
Die Methoden, die ausschließlich auf rauen Objekten einsatzbar sind, können in vier Kategorien
- Triangulation, nichtinterferometrische Time-of-Flight, Photometrisches Stereo und Hologra-
phie - zusammengefasst werden.

3.2.1.1 Triangulation

Heutzutage wird Triangulation als ein Standardverfahren für die optische 3D-Messung in
der Robotik, Geodäsie, Industriellen Prüftechnik und Medizin usw. eingesetzt. Berücksichtigt
man bei der Implementierung die Anzahl der verwendeten Kameras und Projektionseinheiten,
wird ein Triangulationssensor im Allgemeinen über drei Anordnungen (s. Abb. 3.3) realisiert,
die jeweils als passive Stereo-Photogrammetrie, aktive Stereo-Photogrammetrie und aktive
Triangulation mit strukturierter Beleuchtung bezeichnet werden.

Das menschliche Gehirn erzeugt den räumlichen Eindruck mit einer Adaption der passi-
ven Stereo-Photogrammetrie. Werden zwei räumlich separierte Objekte von unseren Augen
3.2 Stand der Technik der optischen 3D-Messtechnik 11

(a) (b) (c)

Abbildung 3.3: Drei Varianten der Triangulationsverfahren: a) Stereo-Photogrammetrie mit passiver Be-
leuchtung. b) Stereo-Photogrammetrie mit strukturierter Beleuchtung. c) Triangulation
mit strukturierter Beleuchtung.

beobachtet, entstehen im linken und rechten Auge, bedingt durch die unterschiedlichen Beob-
achtungsperspektiven zwei leicht versetzte Bilder. Unser Gehirn kann diese Differenz zwischen
den visuellen Informationen so verarbeiten, dass wir deren relative Lagen im Raum wahr-
nehmen können. Analog dazu werden bei einem passiven stereo-photogrammetrischen Sensor
zwei Kameras eingebaut. Deren relative Lage zueinander sowie das Abbildungsverhalten des
Objektives müssen vorher durch eine interne und eine externe modellbasierte Kalibrierung
ermittelt werden. Bei einer 3D-Vermessung werden die Objekte mit Umgebungslicht beleuch-
tet und von zwei Kameras aus unterschiedlichen Perspektiven aufgenommen. Anschließend
muss das sogenannte Korrespondenzproblem für die Bilder aus den jeweiligen Kameras gelöst
werden: Für jeden Bildpunkt einer Aufnahme muss ein korrespondierender Bildpunkt auf dem
zugehörigen Bild der zweiten Kamera gefunden werden, der auf beiden Aufnahmen die gleiche
räumliche Szene darstellt. Wird das Korrespondenzpaar gefunden, können die beiden Bildpunk-
te anhand des bekannten Kameramodells in den Objektraum projiziert werden und hieraus
können die 3D-Koordinanten mithilfe der Berechnung der Intersektionsknoten ermittelt werden.

Damit unterschiedliche Objekte mit hoher Stabilität und Genauigkeit gemessen werden kön-
nen, müssen mit Rücksicht auf die Anwendungen jeweils passende Methoden zur Lösung
der Korrespondenzprobleme eingesetzt werden. Generell sind zwei Klassen von Algorithmen
in der Literatur zu finden. Zum einen sind die merkmal-basierenden Methoden zu nennen,
bei denen skalierungs- und rotationsinvariante Merkmale der Intensitätsverteilung [28, 29]
oder einfach Kanten [30] als Kriterien des Korrespondenzpaares verwendet werden. Da die
Anzahl der Merkmale deutlich kleiner als der komplette Datensatz ist, kann damit nur ei-
ne dünnbesetzte Höhenkarte mit geringem Rechenaufwand berechnet werden. Die anderen
Methode ist flächen-basierend und kann pixeldichte Höhenkarten mithilfe der zahlreichen
Stereo-Korrespondenzalgorithmen [31] generieren. Trotz des hohen Rechenaufwands können
sie mit parallelisierter Hardware (z.B. GPU in der Grafikkarte) heutzutage in Echtzeit im-
plementiert werden. Da die Lokalisation des Korrespondenzpaares das Vorhandensein einer
Objekttextur erfordert, ist deren Anwendung auf texturreiche Objekte eingeschränkt.

Damit die texturfreien Objekte auch messbar sind, werden in der Praxis künstliche Texturen
mit einem zusätzlichen Projektor auf die Objekte projiziert. Dadurch wird die Messtechnik zur
aktiven Stereo-Photogrammetrie. Damit die Korrespondenzpaare der projizierten Textur auf
beiden Kameras eindeutig gefunden werden können, muss das projizierte Muster überall ein-
deutige Merkmale aufweisen. Bei den ersten Triangulationssensoren wurde das Problem durch
12 3 Stand der Technik

Scannen mit einem Laserpunkt [32, 33, 34] in zwei orthogonalen lateralen Richtungen gelöst.
Später wurde diese Technik auf eine laterale Scanrichtung durch Projektion einer Laserlinie
[35, 36] und Einschränkung des Suchraums auf die epipolare Ebene erweitert. Heutzutage kann
der Messvorgang vollständig vom mechanischen Scannen befreit werden, indem man die Ob-
jekte mit einem geschickt kodierten, strukturierten Muster projiziert und vollflächig misst. In
[37] werden alle möglichen Kodierungsstrategien generell in vier Kategorien vorgestellt:

– Kodierung im Ortsraum: Ein räumlich diskretes oder kontinuierliches Muster wird proji-
ziert, bei dem die räumlich Intensitätsverteilung [38, 39] oder Farbensequenz [40] inner-
halb eines vordefinierten räumlichen Fensters über das ganze Messfeld eindeutig identi-
fizierbar ist und nirgends wiederholt auftritt. Bei der Auswertung wird die vordefinierte
Kombination der Intensität oder Farben untersucht und als eindeutiges Merkmal des pro-
jizierten Musters identifiziert. Da alle Merkmale eindeutig räumlich im Muster kodiert
sind, braucht man nur ein Muster zu projizieren. Dadurch wird die Messung von dynami-
schen Objekten möglich, allerdings verbunden mit Kosten durch den Verlust der lateralen
Auflösung und einen eingeschränkten Einsatz bei farbigen und feinstrukturierten Objek-
ten.

– Kodierung im Zeitraum: Die Kodierung der Merkmale findet in mehreren zeitlich sequen-
tiell projizierten binären [41], harmonischen [42] oder statistisch verteilten [43] Mustern
statt. Während die Stabilität und laterale Auflösung bei farbigen und feinstrukturierten
Objekten dadurch optimiert werden, verliert dieser Ansatz an zeitlicher Auflösung bei
dynamischen Objekten.

– Kodierung im Frequenzraum: Die zeitlich sequentiell projizierten harmonischen Muster


können durch Multiplikation mit mehreren Trägersignalen in einem Bild linear kombi-
niert und durch Fourieranalyse bei der Auswertung getrennt werden [44]. Durch das
Multiplexing in Frequenzraum werden die zeitliche Auflösung bzw. die Stabilität bei far-
bigen und feinstrukturierten Objekten optimiert, wobei die laterale Auflösung durch den
unvermeidbaren Bandpassfilter beeinträchtigt ist.

– Kontinuierliche Kodierung: Durch ein kontinuierliches Grauwertmuster [45] oder Regen-


bogenmuster [46, 47] wird für jeden Pixel ein eindeutiges Merkmal kodiert, damit die
Dekodierung bei einem einzigen Muster ohne Einbeziehen der zeitlichen Kontextinforma-
tion und mit weniger räumlichen Kontextinformation6 erfolgen kann. Dadurch gewinnt
man sowohl an zeitlicher als auch an räumlicher Auflösung. Als Nachteil ist die Höhen-
auflösung niedrig, weil die Quantisierungstufe des Kamerapixels und der detektierbaren
Farbstufen in der Regel nicht hoch genug ist.

Spielen die Kompaktheit und die Kosten eines Triangulationssensors eine wichtige Rolle,
kann man statt zwei Kameras nur eine Kamera verwenden. Diese unter Triangulation mit
strukturierter Beleuchtung bekannte Anordnung erfordert neben der Kamerakalibrierung eine
Projektorkalibrierung, die die Beziehung zwischen Musterkoordinaten und dreidimensionalen
Koordinaten der projizierten Muster im Objektraum beinhaltet. In der Praxis erfolgt dieser
Schritt oft durch eine modellfreie Kalibrierung. Die oben genannten Kodierungstrategien lassen
sich auf die Mustergenerierung übertragen.

Triangulationsverfahren sind in einem Messbereich von mehreren Kilometern bis auf einige Mil-
limeter beliebig skalierbar. Allerdings ist ihre Höhenauflösung bei aktiven Beleuchtung grund-
6
Räumlich werden mindestens immer noch drei räumliche Pixel benutzt, um die drei Unbekannten - Oberflä-
chenreflektivität, Umgebungslicht und Objekthöhen - eindeutig auflösen zu können.
3.2 Stand der Technik der optischen 3D-Messtechnik 13

sätzlich durch das Specklerauschen7 und den Arbeitsabstand begrenzt [48]. Für makroskopische
Anwendungen liegt die erreichbare Höhenauflösung im Mikrometerbereich. Außerdem leiden sie
unter dem Abschattungsproblem bei Objekten mit Kanten und Löchern. Dies liegt daran, dass
bedingt durch die unterschiedlichen Perspektiven manche Bereiche oft nur von einer Kamera
gesehen werden können. Die Wahrscheinlichkeit des Auftretens von Abschattungen ist propor-
tional zum Triangulationswinkel, der in der Praxis allerdings für das Erreichen einer hohen
Höhenauflösung groß gehalten werden muss.

3.2.1.2 Time-of-Flight

Eine andere optische Methode für die Abstandmessung basiert auf dem Time-of-Flight-Prinzip
(ToF). Dies dient ebenfalls als das grundlegendes Prinzip im Radar-System. Dabei werden
Radiowellen in alle Richtungen ausgesendet und von einem Messobjekt zurück zum Empfänger
gestreut. Aus dem detektierten Zeitinterval der Signalpropagation zwischen Emission und
Detektion lässt sich der Abstand zum Objekt berechnen. Für hochauflösende Messaufgaben im
langen Abstand kommen oft Systeme mit Laser als Lichtquelle zum Einsatz, die im allgemeinen
als „LIDAR“ bezeichnet werden. Als kostengünstige Alternative steht auch ein Time-of-Flight-
Flächensensor mit LEDs als Lichtquelle zur Verfügung [49]. Wie in Abb. 3.4 illustriert wird,
werden im Folgenden drei gewöhnlichen Messmechanismen - ToF mit Lichtpuls, Homodyn-ToF
mit Amplitudenmodulation und Heterodyn-ToF mit Frequenzmodulation - vorgestellt.

Die Messung der Propagationszeit zum und vom Objekt mit Laserpulsen ist die typische
Variante für Anwendungen mit großem Abstand [50]. Ein Laserpuls gelangt zum Detektor
nach Reflexion auf einem in einer Entfernung von einigen Metern befindenden Messobjekt
schon in wenigen Nanosekunden. Um dieses ultraschnelles Signal auflösen zu können, muss
die Detektionselektronik Pikosekunden-Auflösung besitzen. Die erreichte Auflösung ist haupt-
sächlich durch die Bandbreite und das Signal-zu-Rauschen-Verhältnis der Elektronik limitiert.
Durch Mittelung über mehre Pulse ist eine Genauigkeit von 1cm erreichbar [51, 26].

Für Messaufgaben mit kurzem Abstand kann man stattdessen Laser oder LED mit periodisch
modulierten Amplituden kontinuierlich betreiben und die Phase des modulierten Signals
mit Lock-In-Verstärkern detektieren [52, 53, 49]. Für eine genaue Phasenbestimmung wird
oft Quadratur-Demodulation oder Phasenschiebende Technik durch Akquisition mehrerer
Datensequenzen durchgeführt. Wegen der Mehrdeutigkeit der Amplitudenmodulation ist die
maximale Messtiefe im Vergleich zum ToF-System mit Lichtpulsen limitiert, obwohl sie durch
Modulation mit mehreren Frequenzen optimiert werden kann. Der damit reduzierte Anspruch
an die Bandbreite der Elektronik des Systems bietet die Möglichkeit, eine hohe Genauigkeit
auch mit langsamer Elektronik zu erzielen. Kommerzielle verfügbare Systeme können heutzu-
tage eine Genauigkeit von einigen Millimetern erreichen [54, 26]. Das am meisten verbreitete
Produkt von dieser Technologie ist der Microsoft Kinect 2.0.

Für weitere Genauigkeitserhöhungen wird die Heterodyndetektion angewandt [55]. Dabei wird
die Wellenlänge der Lichtquelle zeitlich moduliert. Bei der Detektion arbeitet der Lock-In-
Verstärker mit einer festen Frequenz und erzeugt ein Schwebungssignal, dessen Einhüllende
mit niedrigerer Frequenz variiert. Da die Frequenz der Einhüllenden der Differenz zwischen
der Frequenz des vom Objekt reflektierten Lichts und der Frequenz des Lock-In-Verstärkers
7
Bei Triangulation mit passiver Beleuchtung mit sehr großer Beleuchtungsapertur wird Höhenauflösung statt-
dessen durch Schrotrauschen bzw. elektronische Rauschen begrenzt.
14 3 Stand der Technik

(a)

(b)

(c)

Abbildung 3.4: Drei Varianten der Time-of-Flight-Sensoren: (a) ToF mit Lichtpuls. (b) Homodyn-ToF
mit Amplitudenmodulation. (c) Heterodyn-ToF mit Frequenzmodulation.
3.2 Stand der Technik der optischen 3D-Messtechnik 15

Abbildung 3.5: Ein von einer Punktlichtquelle beleuchteter Tischtennisball.

entspricht, besteht ein linearer Zussammenhang zwischen die Objekthöhe und der detektierten
Frequenzdifferenz. Die dadurch erreichte Genauigkeit kann unter einem Millimeter liegen [56,
26].

3.2.1.3 Photometrisches Stereo

Wie die Stereo-Photogrammetrie ist das Photometrisches Stereo eine alternative Methode,
die im Bereich Computer Vision erforscht wird, um aus mehreren 2D-Bildern die Geometrie
eines Objekts zu rekonstruieren. Das Messprinzip lässt sich mit einem Tischtennisball (siehe
Abbildung 3.5) anschaulich erklären, welcher nur von einer Punktlichtquelle beleuchtet wird.
Abhängig von der Orientierung des jeweiligen Oberflächenstücks variiert die beobachtete
Intensität auf dem Tischtennisball. Umgekehrt: aus der subjektiven Wahrnehmung kann der
Intensitätsverlauf uns einen Eindruck über die sphärische Geometrie des Objekts erzeugen.

Treffen Photonen aus einer bestimmten Richtung auf die Oberfläche, hängt die Anzahl der
gestreuten Photonen in jede Raumrichtung vom dem Winkel der Einstrahlungsrichtung zu
Oberflächennormalen ab. Quantitativ lässt sich die Streuungseigenschaft durch die Bidi-
rectional Reflectance Distribution Function (BRDF-Function8 ) vollständig beschreiben. In
der Computer-Grafik kann man die realistische BRDF-Funktion eines bestimmten Materi-
als benutzen, um bei einer bekannten Objektgeometrie den 2D-Intensitätsverlauf für eine
beliebige Beobachtungsrichtung zu berechnen. Die dadurch erzeugten Abschattungseffekte
geben dem Beobachter visuell einen realitätsnahen 3D-Eindruck. Die Aufgabe, aus mehreren
wahrgenommenen 2D-Bildern bei bekannter BRDF-Funktion die Geometrie des Objektes zu
rekonstruieren, stellt ein inverses Problem dar.

Eine quantitative Methode zur Lösung des inversen Problems wurde erstmals von Woodham
[57] 1978 vorgestellt. Er führte eine dreidimensionale Reflexionsfunktion bei einer bekannten
Beleuchtungsrichtung ein, die nur vom Absorptionskoeffizient ρ und den Oberflächennei-
gungen sx und sy abhängt. Um die drei Unbekannten ρ, sx und sy in jedem Objektpunkt
zu lösen, braucht man mindestens drei voneinander unabhängige Reflexionsfunktionen, die
durch Beleuchtung mit drei Lichtquellen aus unterschiedlichen Richtungen erzeugt werden.
In der Praxis wird das Objekt nur von einer Kamera während des Messvorgangs beobachtet.
Allerdings werden drei Aufnahmen hintereinander durchgeführt, wobei bei jeder Aufnahme
8
Die BRDF-Funktion ist das Verhältnis zwischen der Strahldichte nach der Lichtreflexion und der Bestrah-
lungsstärke für alle Beleuchtungs- und Beobachtungsrichtungen.
16 3 Stand der Technik

CCD

q1 q2 q3
q4
n

s2
s1 s4 s3

Messobjekt

Abbildung 3.6: Aufbau des phtometrisches Stereos mit vier Lichtquellen (Quelle: [58])

das Objekt durch eine Punktlichtquelle aus unterschiedlicher Richtung sequentiell beleuchtet
wird. Für jede Lichtquelle soll ihre individuelle Reflexionsfunktion beim Messobjekt und ihre
Beleuchtungsrichtung durch Kalibrierung ermittelt werden. Aus den drei ermittelten Refle-
xionsfunktionen kann eine Look-Up-Table (LUT) erstellt werden. Beim Lösen des inversen
Problems werden die Oberflächenneigungen und Absorptionskoeffizient mittels der gemessenen
drei Intensitätswerte aus der LUT ermittelt. Falls die Reflexionsfunktion analytisch dargestellt
werden kann, können die drei Unbekannten auch numerisch ermittelt werden. Für den Spezi-
alfall eines Lambertschen Strahlers kann das Lösen des inversen Problems vereinfacht und in
einer geschlossenen Form durchgeführt werden.

In den letzten Jahren hat sich die Technologie bedeutend weiterentwickelt. Woodhams Methode
setzt voraus, dass die Lichtquellenrichtung und Oberflächenreflexionsfunktion a priori bekannt
sein müssen. Diese Voraussetzungen können teilweise aufgelockert werden: in [59] wurde eine
Methode vorgestellt, womit man die Geometrie eines Lambertschen Strahlers ohne Kenntnis
der Lichtquelle rekonstruieren kann. In [60] wurden vier bekannte farbige Lichtquellen und
eine Farbkamera benutzt, um farbige Objekte mit teilweise spiegelnden Oberflächen messen zu
können. Darüber hinaus wurde in [61] gezeigt, wie man mit einer aktiven Helmholtz-Stereopsis-
Methode komplett ohne Rücksicht auf die Reflexionseigenschaft messen kann, allerdings muss
man während der Messung das Objekt drehen und dabei mehrere Bilder aufnehmen.

Im Allgemeinen bietet photometrisches Stereo bei kooperativen Objekten (lambertscher Strah-


ler, stetig) qualitativ hochwertige Ergebnisse mit hoher lokaler Sensitivität, Messgeschwin-
digkeit, Einsatzflexibilität und Skalierbarkeit. Für Präzisionsanwendungen und Messaufgaben
an komplexen Objekten ist diese Methode jedoch eher ungeeignet aufgrund ihrer geringeren
Genauigkeit.
3.2 Stand der Technik der optischen 3D-Messtechnik 17

Object
Beam splitter Beam expander
Laser

Beam splitter

Computer Imaging lens


Beam expander

PZT
Mirror

CCD camera

Abbildung 3.7: Speckle-Interferometrie (Quelle: [62])

3.2.1.4 Holographische und Speckle-Technologie


Die Erfindung der Holographie durch Gabor in 1947 und die Erfindung des Lasers in 1960 leiten
eine Revolution in zahlreichen Anwendungsgebieten ein. Ein typisches Anwendungsbeispiel ist
die optische 3D-Messtechnik, bei der die Verformung oder die Geometrie von rauen Objekten
durch vollständige Aufzeichnung und Rekonstruktion der dreidimensionalen Objektwellenfron-
ten gemessen werden. In der Holographie wird ein Laserbündel, das sowohl räumlich als auch
zeitlich kohärent ist, in zwei Wege geteilt. Ein Teil wird auf das Objekt geführt und gelangt
nach der Reflexion auf den Detektor, während der andere Teil als Referenzwelle direkt zum
Detektor geführt wird. Die zwei Wellen interferieren, und das vom Detektor (eine Fotoplatte
oder ein digitaler CCD-Chip) aufgezeichnete Hologramm9 beinhaltet gleichzeitig die Infor-
mation über die Phasen und Amplituden der Objektwellen. Wird die chemisch entwickelte
Fotoplatte anschließend von der Referenzwelle beleuchtet oder alternativ eine Berechnung
aus den digital aufgezeichneten Intensitäten mithilfe der Beugungstheorie durchgeführt, lässt
sich die komplette 3D Wellenfront des Objekts physikalisch oder numerisch rekonstruieren,
und daraus kann wiederum die Höheninformation extrahiert werden. Dadurch kann man
die dreidimensionale Deformation, Verschiebung, Vibration und Form auf rauen Oberflächen
analysieren. In der Literatur lassen sich die holografischen Technologien zur 3D-Messung in
die Bereiche Speckle-Interferometrie, holographische Interferometrie, digitale Holographie und
vergleichende Holographie differenzieren.

Speckle-Interferometrie ist ein Spezialfall der digitalen Holographie [63], wenn digitale Kamera
wie Electronic Speckle Pattern Interferometry (ESPI) [64] als Detektionseinheit eingesetzt
wird. Der wesentliche Unterschied liegt in der Methodik, wie die Phase berechnet wird. In
Abb. 3.7 wird der Aufbau eines Speckle-Interferometrers dargestellt. Dabei ist es besonders
wichtig zu beachten, dass jeder Pixel der CCD-Kamera durch ein Abbildungsobjektiv auf
die Objektoberfläche fokussiert wird. Aufgrund der Oberflächenrauigkeit und der kohärenten
Beleuchtung entsteht ein subjektives Specklemuster auf dem detektierten Interferogramm. Die
Phasen des Specklemusters sind räumlich statistisch verteilt und können keine Aussage über die
Oberflächenhöhen treffen. Wird die Oberfläche jedoch durch eine mechanische Belastung leicht
deformiert, kann ein zweites Interferogramm aufgenommen werden. Da die Specklemuster der
beiden sequentiell aufgenommenen Interferogramme bei nicht zu starken Deformation stark
zueinander korreliert sind, kann man ein Streifenmuster durch Subtraktion der Phasenkarten
9
Das zweidimensionelle Intensitätsmuster des resultierenden Interferogramms wird Hologramm genannt
18 3 Stand der Technik

CCD Aperture object


Lens

ko

Reference ki
wave
Single-mode
fiber

Laser

Acquisition and evaluation by a computer

Abbildung 3.8: Digitale Holographie (Quelle: [62])

von beiden Interferogrammen erhalten. Da der Detektor auf das Objekt fokussiert ist, sind die
Höhen der Deformation direkt in den Phasen des systematischen Streifenmusters enthalten.
Für die Phasenauswertung gibt es die Möglichkeit einer zeitlichen Phasenschiebung [65, 66],
räumlichen Phasenschiebung [67] und die Fouriermethode [39, 68].

Das Messprinzip der holographischen Interferometrie ist nahezu identisch zur digitalen Ho-
lographie. Sie unterscheiden sich lediglich in der Rekonstruktionsmethode der Objektwelle.
Bei der Holographischen Interferometrie wird das Hologramm auf einer chemisch entwickelten
Fotoplatte gespeichert [69]. Durch Beleuchtung mit der Referenzwelle wird die Objektwelle
physikalisch im Raum rekonstruiert. In der ersten positiven und negativen Beugungsordnung
der rekonstruierten Objektwelle sind jeweils die Wellen des realen und virtuellen Bildes
gespeichert, die leicht durch eine räumliche Filterung getrennt werden können. Für die De-
formationsmessung lassen sich zwei Hologramme der zwei Aufnahmen vor und nach der
Deformation auf einer Fotoplatte speichern. Die durch die Beleuchtung der Doppelhologramme
rekonstruierte Objektwelle zeigen ein Interferenzenstreifen, dessen Phase die Deformationsin-
formation entlang des Sensitivitätsvektors wiederspiegeln.

Da die Fotoplatte der Holographischen Interferometrie aufgrund der chemischen Entwicklung


vom Aufbau ausgebaut und danach wiederum auf die gleiche Stelle mit hoher Genauigkeit
positioniert werden muss, ist diese Methode nicht automatisch ausführbar. Das Problem kann
mit der digitalen Holographie gelöst werden. Da digitale Photondetektoren bereits seit den
80ern kommerziell verfügbar sind und die Rechenleistung heutiger Computer hinreichend stark
ist, kann die Rekonstruktion numerisch aus dem digital detektierten Hologramm mithilfe der
Beugungstheorie durchgeführt werden [70]. Wie in Abb. 3.8 illustriert, soll die Propagation
der Objektwellen vom CCD-Chip zum Objekt rückwärts numerisch evaluiert werden. Bei der
Deformationsmessung mit zwei Aufnahmen kann die Phasendifferenz aus den zwei rekonstru-
ierten Wellenfronten berechnet werden [71]. Für die Formmessung muss das Objekt entweder
mit mehreren Wellenlängen aus einer Beleuchtungsrichtung [72] oder aus unterschiedlichen
Richtungen mit einer Wellenlänge [73] beleuchtet werden.

Die letzte Variante der holographischen Technologie ist die vergleichende Holographie. Sie ist
besonders in der praktischen Anwendung von Bedeutung, wenn die Formänderung eines Testob-
jekts gegen ein Referenzobjekt von Interesse ist. Dies ist häufig in der industriellen Inspektion
3.2 Stand der Technik der optischen 3D-Messtechnik 19

Abbildung 3.9: Aufbau einer vergleichenden digtalen Holographie (Quelle: [74])

der Fall, weil oft das serienmäßig produzierte Werkstück zur Qualitätskontrolle mit einem Mas-
terwerkstück verglichen werden muss. Da sich die Mikrostruktur des Testobjekts von der des
Masterobjekts unterscheidet, sind die Specklemuster komplett dekorreliert und deshalb ist nur
eine Messung der maroskopischen Änderung mit den anderen holographischen Messtechnolo-
gien möglich. In [74] wurde eine digitale vergleichende Methode vorgestellt, in der eine genaue
Messung der Änderung der Geometrie oder Verformung erfolgen kann. Außerdem ermöglicht
diese Technologie es, ein Testobjekt mit einem sich an einem anderen Ort befindlichen Master-
objekt zu vergleichen. Für den Vergleich der Formänderung werden zwei Hologramme jeweils
unter zwei Beleuchtungen mit unterschiedlichen Wellenlängen am Masterobjekt aufgenommen.
Wie in Abb. 3.9 dargestellt, werden sie nacheinander auf einem Spatial Light Modulator (SLM)
angezeigt und von der Referenzwelle mit zwei Wellenlängen wie bei der Hologrammaufnahme
beleuchtet. Die zwei optisch rekonstruierten Objektwellen werden auf dem Testobjekt reflek-
tiert und erzeugen zwei Interferenzmuster. Deren Phasendifferenz verkörpert die Formände-
rung. Werden stattdessen zwei Hologramme mit der gleichen Wellenlänge mit dem gleichen
Messmechanismus bei zwei Zuständen (vor der Verformung und nach der Verformung) aufge-
nommen, angezeigt und beleuchtet, kann die Verformungsänderung von zwei weit entfernten
rauen Objekten verglichen werden. Durch die Nulltestbedingung ist diese Methode durch ihre
interferometrische Messgenauigkeit und hohe Dynamik ausgezeichnet.

3.2.2 Spiegelnde Oberflächen


Anders als auf rauen Oberflächen, werden die Photonen auf einer spiegelnden Oberfläche gerich-
tet reflektiert. Dadurch versagen fast alle obengenannten Messmethoden, weil die vom Objekt
reflektierten Photonen nicht von der Beobachtungsoptik aufgefangen werden. In diesem Ab-
schnitt werden drei geeignete Messmethoden diskutiert, die mit drei unterschiedlichen Strate-
gien dieses „Auffangproblem“ lösen und dadurch die 3D-Messung von spiegelnden Oberflächen
ermöglichen. Die drei Strategien basieren jeweils auf dem a-priori Wissen über die Objektform,
der Vergrößerung der Beobachtungsapertur und die Vergrößerung der Beleuchtungsapertur.

3.2.2.1 Klassische Interferometrie


In dieser Arbeit wird die klassische Interferometrie als die Methode definiert, die die Höhen
von spiegelnden Oberflächen aus den gemessenen Phasen eines Zweistrahlinterferenzmusters
extrahiert. Die Grundideen aller klassischen Interferometer sind gleich: Ein räumlich und
zeitlich kohärentes Laserbündel wird räumlich getrennt. Der eine Teil wird als Referenzwelle
20 3 Stand der Technik

unverändert zum Detektor geführt, während der andere Teil zum Testobjekt geschickt wird.
Die an unterschiedlichen Objektstellen reflektierte „Objektwelle“ interferieren mit der Refe-
renzwelle auf dem Detektor und legen dabei abhängig von der Objektform unterschiedliche
optische Weglängen zurück. Die Differenzen der optischen Weglängen führen zu unterschied-
lichen Intensitäten im beobachteten Interferenzmuster, wobei eine Höhenänderung von einem
Viertel der Lichtwellenlänge ausreichend ist, um ein helles Pixel vollständig abzudunkeln.
Mithilfe der Phasenauswertung können die Höhenänderungen quantitativ ausgewertet werden.
Für die Auswertung der Phasen kann dieselbe Technik [37] wie in der aktiven Triangulation
verwendet werden. Durch ihre inhärente hohe Sensitivität bei der Phasendetektion gegenüber
der Höhenänderung wird eine extrem hohe Höhenauflösung von wenigen Nanometern auf spie-
gelnden Oberflächen ermöglicht. Deshalb wird die klassische Interferometrie beim optischen
Test von optischen Komponenten als die Standard-Messmethode eingesetzt.

In der Praxis können mit Standard-Interferometern aus zwei Gründen nur ebene oder sphä-
rische Oberflächen, die keine große lokale Höhenänderung aufweisen, gemessen werden. Zum
einen liegt es daran, dass die mit der halben Wellenlänge wiederholenden Phasen die maxi-
male Messtiefe auf eine halbe Wellenlänge der Lichtquelle (ca. einige hunderte Nanometer)
einschränkt. Diese Einschränkung lässt sich durch zwei Messungen, die jeweils mit zwei unter-
schiedlichen Wellenlängen durchgeführt werden, zu einem gewissen Grad beheben. Je kleiner
die Differenz der zwei Wellenlängen, desto größer die resultierende synthetische Wellenlänge.
Dadurch kann der Eindeutigkeitsbereich für die Phasendetektion erhöht und damit die Mess-
tiefe auf bis zu einige zehn Mikrometer erweitert werden [75, 76]. Eine genaue Messung mit
gleichzeitig höherer Messtiefe muss sogar mit mehr als zwei Wellenlängen durchgeführt werden
[77, 78].

Zum anderen ist für die Messung von stark gekrümmten Freiformoberflächen (z.B. Asphä-
ren) die maximale messbare Oberflächenneigung durch die endliche Pixelgröße des digitalen
Detektors begrenzt. Auf zu steilen Oberflächen werden die Streifen eines Interferenzmusters
so dicht zusammenrücken, dass das Detektorpixel mit einer endlichen Ausdehnung sie nicht
mehr auflösen kann. Die maximal messbare Oberflächenneigung nimmt mit der verringerten
lateralen Auflösung ab. Für dieses Problem gibt es zwei Lösungsansätze. Der erste ist, statt
der absoluten Form die lokale Formänderung10 im Interferenzmuster zu kodieren. Dies wird
durch ein Scherungsinterferometer realisiert [79, 80]. Dabei werden die Objektwellen durch ein
Diffractive Optical Element (DOE) getrennt und in einer Richtung mit einem kleinen Versatz
verschoben. Die beiden räumlich verschobenen Wellenfronten interferieren und kodieren damit
die lokale Neigung der Objektwellenfront entlang der Verschiebungsrichtung im resultierenden
Interferenzmuster. Nach der Messung der Wellenfrontneigung in einer anderen orthogonalen
Richtung können die Gradienten der Objektwellenfront vollständig aufgenommen und daraus
die Form der Objektwellenfront per numerischer Integration rekonstruiert werden. Dadurch
wird die Winkeldynamik mithilfe der dabei implementierten optischen Ableitung erhöht.

Die alternative Methode ist die Nulltest-Interferometrie, die im optischen Test am häufigsten
verwendet wird [81, 82, 83, 84, 85, 86]. Dabei wird vorausgesetzt, dass die Grundform des
Prüflings bekannt ist, was meistens bei der Herstellung von optischen Komponenten der Fall
ist. Die einfallende Wellenfront wird mit einem Computer Generated Hologram (CGH) auf
die Grundform des Prüflings angepasst, so dass die einfallenden Strahlen überall senkrecht
auf die Testoberflächen treffen. Falls die zu testenden Oberflächen von ihrer Sollform abwei-
10
Partielle Ableitung der Höhenfunktion entlang der Scherrichtung.
3.2 Stand der Technik der optischen 3D-Messtechnik 21

Abbildung 3.10: Prinzip des Shack-Hartmann-Wellenfront-Sensors (Quelle: [87])

chen, wird dies in den Phasen des resultierenden Interferenzmusters wiedergespiegelt. Da die
Nulltest-Interferometrie nur die Abweichung zur Sollform misst, ist sie informationstechnisch
sehr effizient und kann sehr kleine Änderungen mit hoher Genauigkeit detektieren. Wegen der
Nullbedingung kann damit auch der durch Objektivaberration bedingte Retrace-Fehler redu-
ziert werden. Allerdings ist sie durch die Notwendigkeit der Herstellung eines an jeden Prüfling
angepassten CGHs keine flexible und kosteneffektive Methode.

3.2.2.2 Wellenfrontsensor

Neben den interferometrischen Verfahren können spiegelnde Oberflächen und die optische
Wirkung der Optik auch inkohärent gemessen werden. Das zugrundeliegende Prinzip der
inkohärenten Methoden ist die Rekonstruktion der Wellenfront aus den erfassten Wellenfront-
gradienten. Die damit implementierten Messinstrumente sind als Shack-Hartmann-Sensoren
bekannt.

Ursprünglich stammt die Idee vom Hartmann-Test [87]. Wie in Abb. 3.10 dargestellt wird,
werden die Wellenfrontfehler mit einem Linsenarray, welcher im in kollimierten Strahlengang
platziert wird, gemessen. Die einfallende Wellenfront ist vor dem Auftreffen auf dem Linsen-
array durch die äußeren Störungen deformiert. Die dadurch lokal gekippten Wellenfronten
durchlaufen das Linsenarray und werden lokal durch jede einzelne Linse auf den Detektor
fokussiert. Dabei werden die Wellenfrontgradienten in laterale Bildverschiebungen auf dem
Detektor übersetzt. Aus denen lässt sich die Wellenfrontform durch eine numerische Integration
wie bei der Scherung-Interferometrie vollständig rekonstruieren.

Nach der erfolgreichen Implementierung ist diese Methode auch für viele weitere Anwen-
dungen rasch weiterentwickelt worden. Heutzutage dient sie nicht nur als Hilfsmittel zur
Wellenfrontkorrektur in der adaptiven Optik von Teleskopen [88], sondern auch zur Messung
der Aberrationen des menschlichen Auges in der Ophthalmologie [89] bzw. der optischen
Komponenten beim optischen Test [90].
22 3 Stand der Technik

3.2.2.3 Deflektometrie
Die Gradienten von spiegelnden Oberflächen lassen sich auch mit Deflektometrie messen.
Mit der in [91, 92] vorgestellten Methode lässt sich die Ebenheit von spiegelnden Proben mit
Subnanometer-Genauigkeit testen. Dabei wird die Änderung der Oberflächennormale punktwei-
se an zwei benachbarten Stellen mittels eines Laserautokollimator und eines Flächendetektors
gemessen. Nach dem vollflächigen Abtasten wird wie beim oben erwähnten Shack-Hartmann-
Sensor und der Scherungsinterferometrie eine numerische Integration zur Höhenberechnung
durchgeführt. Diese deflektometrische Methode bietet eine mit der Interferometrie vergleichba-
re Genauigkeit und dient damit als Referenz für die Kalibrierung der Ebenheit in der Industrie.

Das deflektometrische Konzept beschränkt sich nicht nur auf ebene Objekte und lässt sich auch
zur vollflächigen Messung von Freiformflächen mit hoher longitudinaler Auflösung erweitern,
ohne eine aufwendige Nulloptik verwenden zu müssen. Diese vollflächige deflektometrische
Methode für Freiformflächen ist unter der „Phasenmessende Deflektometrie“ (PMD) bekannt
[93]. Anders als beim Nulltest-Interferometer mit Anpassung der Richtung der einfallenden
Wellen und beim Shack-Hartmann-Sensor mit beschränkter Beobachtungsapertur wird bei
PMD das Problem, beliebig reflektiertes Licht aufzufangen, durch die Vergrößerung des Be-
leuchtungswinkels gelöst.

Wie in Abb. 3.11 illustriert wird ein großer Bildschirm im Raum als räumlich und zeitlich
inkohärente Lichtquelle eingebracht. Eine Kamera ist auf das Objekt fokussiert und beobachtet
das virtuelle Bild des angezeigten Sinusmusters auf dem Bildschirm. Die Beleuchtungsrichtung
aus jeder Stelle des Bildschirms wird durch die Phase zweier orthogonal angezeigter Sinusmus-
ter eindeutig kodiert. Werden die orthogonalen Sinusmuster sequenziell angezeigt und deren
Phasen mittels phasenschiebender Technik von der Kamera detektiert, kann man aus der
bekannten geometrischen Beziehung des ganzen Aufbaus die Oberflächennormale berechnen.
Die Höhenrekonstruktion erfolgt ebenso durch numerische Integration.

Zum aktuellen Entwicklungsstand kann damit eine Submikrometer-Genauigkeit auf spiegelnden


Freiformflächen erreicht werden [94]. Obwohl sie für manche interferometrischen Anwendungen,
wo eine Genauigkeit von einigen Nanometern von Nöten ist, noch zu ungenau ist, ist sie aber
bei der Vermessung von spiegelnden Oberflächen mit beliebiger Form aufgrund ihrer hohen
Einsatzflexibilität ohne Nulloptik gegenüber der Interferometrie konkurrenzfähig.

3.2.3 Raue und spiegelnde Oberflächen


Die oben vorgestellten Methoden sind lediglich für entweder raue oder spiegelnde Oberflächen
ausgelegt. Da die zugehörigen zugrundeliegenden physikalischen Prinzipien jeweils beson-
dere Bedingungen bei der Wechselwirkung zwischen Photonen und Oberflächenmaterialien
voraussetzen, ist der Einsatz der obengenannten Messmethoden bei nicht kooperativen Ober-
flächentypen nicht möglich. Wird z.B. ein Brillenglas unter ein aktives Triangulationssystem
mit strukturierter Beleuchtung gestellt, wird die Kamera kein projiziertes Muster beobachten
können. Falls man eine Metallplatte mit klassischer Interferometrie misst, würde man erwarten,
dass man ein statistisches Specklemuster sieht, aus dem keine Höhenberechnung erfolgen kann.

Damit beide Oberflächentypen mit einem Sensor erfasst werden können, muss dieser über zwei
Eigenschaften verfügen: Zum einen müssen die auf spiegelnden Oberflächen reflektierten Pho-
tonen von der Beobachtungsoptik aufgefangen werden können. Zum anderen dürfen die raue
3.2 Stand der Technik der optischen 3D-Messtechnik 23

Projektor

Kamera

Mattscheibe

spiegelnde Oberfläche

Abbildung 3.11: Aufbau der phasenmessenden Deflektometrie (Quelle: [95])

Oberflächentopografie und die dadurch bedingten Speckle die Messung nicht unmöglich ma-
chen werden. Es gibt unseres Wissens nach nur drei Messprinzipien, die über diese beiden
Eigenschaften verfügen. In diesem Abschnitt wird auf diese ausführlich eingegangen und deren
unterschiedliche Modifikationen diskutiert.

3.2.3.1 Weißlichtinterferometrie (WLI)


Die Weißlichtinterferometrie (WLI) ist im Prinzip ein modifiziertes Michelson-Interferometer
mit einer breitbandigen Lichtquelle, die interferometrisch die Laufzeitdifferenz der zurückgeleg-
ten Hin- und Rückweg der Objektwelle gegenüber der Referenzwelle misst. Bei der technischer
Implementierung gibt es zwei Varianten: WLI im Fourierraum und WLI im Zeitbereich.

Die WLI im Fourierraum wird üblicherweise als „Optical Coherence Tomography“ (OCT)
bezeichnet [96, 97, 98, 99, 100]. Dabei wird das Objekt mit einer breitbandigen Punktlicht-
quelle beleuchtet und das Spektrum des resultierenden Interferogramms räumlich auf dem
Detektor aufgespalten. Mit nur einer einzigen Aufnahme liefert die Fouriertransformierte des
detektierten Spektrums neben der Höheninformation an einem Punkt der jeweiliger Grenz-
fläche auch noch die komplette Information der Streueigenschaft der Materialien innerhalb
des Objektvolumens. Mit einem Flächendetektor kann diese Methode auf eine Liniendetektion
erweitert werden. Für eine Flächenmessung ist ein laterales Scannen notwendig.

Die zweite Variante - WLI im Zeitbereich - ist eine flächenmessende Methode, aber benötigt
einen Tiefenscan [101]. Wie in Abb. 3.12 dargestellt, wird eine ausgedehnte 11 und breitban-
dige Lichtquelle kollimiert und durch einen Strahlteiler sowohl zum Objekt und als auch zum
Referenzspiegel geleitet. Solange die Lichtquellengröße zur Gewährleistung einer ausreichend
räumlichen Kohärenz nicht zu groß gewählt wird12 und die optische Weglängendifferenz
11
Eine ausgedehnte Lichtquelle sorgt für eine kleine Kohärenzzelle, die für eine bessere laterale Auflösung
vorteilhaft ist.
12
Die Beleuchtungsapertur muss kleiner als Beobachtungsapertur gewählt werden, damit Speckle mit hohem
24 3 Stand der Technik

zwischen Objekt und Referenz innerhalb der Kohärenzlänge liegt, können die reflektierten
Objektwellen und Referenzwellen auf dem Detektor interferieren. Da die Phasen des Interfero-
gramms von jedem Speckle zu seinem benachbarten Speckle statistisch zufällig verteilt sind,
ist die Höhenberechnung aus der Phasenauswertung bei einer rauen Oberfläche nicht möglich.
Stattdessen werden die Höhen aus der Position der Einhüllenden des kurzkohärenten Inter-
ferogramms bestimmt. Um das kurzkohärente Interferogramm in jedem Pixel detektieren zu
können, wird das Objekt longitudinal bewegt. Bei einer geeignet eingestellten Kohärenzlänge
ist die Höhenmessunsicherheit ausschließlich von der Objektrauigkeit abhängig. Auf optisch
rauen Oberflächen, die nicht optisch aufgelöst werden, kann die Rauigkeit aus statistischen
Größen der Höhenkarte bestimmt werden. Auf spiegelnden Oberflächen kann bei zusätzlicher
Auswertung der Phase des Interferogramms eine Messunsicherheit von wenigen Nanometern
ohne Mühe erreicht werden.

Für industrielle Inspektionsaufgaben wurde die WLI im Zeitbereich bereits bei zahlreichen
Anwendungen als ein robustes, hochgenaues und einfach skalierbares Messverfahren bestätigt,
da sie unabhängig von Feldgröße und Auflösungsvermögen der Optik, Objektabstand und
Objektivapertur das Ergebnis mit hoher Genauigkeit liefern kann [102]. Allerdings muss
typischerweise das mit halber Wellenlänge modulierte Inerferogramm mit einer sehr kurzen
longitudinalen Schrittweite von ca. 100 nm abgetastet werden, damit die Höhenbestimmung
fehlerfrei erfolgen kann. Die dadurch verursachte hohe Anzahl an Tiefenaufnahmen ist die
fundamentale Ursache für die extrem niedrige Messgeschwindigkeit, die auch mit einer sehr
schnellen Kamera typischerweise unter 50 µm/s liegt.

Um diesen Engpass zu überwinden, wurden bereits einige Lösungsansätze untersucht. Al-


lerdings werden bei der technischen Implementierung solcher Konzepte auch entsprechend
unterschiedlich hohe technische Herausforderungen gestellt. Eine sehr schnelle Lösungsmög-
lichkeit ist, die Anzahl der Rohdaten während der Datenakquisition mithilfe der SmartPixel
eines CMOS-Bildsensors stark zu reduzieren [2, 3]. Damit die begrenzte Bandbreite der
Kameraschnittsstelle nicht durch die immense Datenmenge des originalen Interferogramms
ausgeschöpft wird, wird das Datenvolumen mittels Integration der Signalbearbeitung im Ka-
merapixel immens reduziert. Da die analoge Auswertungsschaltung mit einem Takt von einigen
MHz arbeiten kann, kann die Scangeschwindigkeit bis zu 50 mm/s beschleunigt werden. Als
Nachteile haben solche SmartKameras jedoch sehr niedrige Pixelauflösung (ca. 300 x 300 Pixel).

Die zweite Möglichkeit ist die in [4] beschriebene Methode, in der das Interferogramm mit
Sub-Nyquist-Frequenz abgetastet wird. Wählt man die Abtastfrequenz innerhalb des in [104]
beschriebenen Intervalls, kann man trotz der Verletzung der Shannon-Bedingung die Einhüllen-
de ohne Probleme rekonstruieren. Aufgrund der limitierenden Genauigkeit des Linearverstellers
kann damit in der Praxis jedoch höchstens nur eine 10-fache geringere Abtastfrequenz erreicht
werden [7].

Eine Alternative zur Unterabtastung ist die nichtlineare Aufnahme des Interferogramms. In
[5, 6] wird diese Methode detailliert beschrieben: eine Photodiode mit nichtlinearer Kennlinie
akquiriert ein verzerrtes Interferogramm, das einen nicht-konstanten Verlauf der mittleren
Intensitäten hat. Die Extrahierung der Einhüllenden erfolgt durch einen Tiefpass. Falls dieser
Tiefpass durch eine langzeitige Integration während des longitudinalen Scans umsetzt wird,
werden dabei prinzipiell nur drei Messpunkte innerhalb der Einhüllenden für die Auswertung
Kontrast entsteht.
3.2 Stand der Technik der optischen 3D-Messtechnik 25

Abbildung 3.12: Aufbau der Weißlichtinterferometrie (Quelle: [103])


26 3 Stand der Technik

benötigt. Hiermit ist ein deutlich schneller Messvorgang möglich. Da die Integration über
lange Zeit das Kontrast des Interferogramms stark reduziert, werden dadurch Messungen auf
dunklen Oberflächen schwierig und die Messdynamik wird beeinträchtigt.

Die letzte Möglichkeit benötigt keine spezielle Hardware und erfordert nur eine schnell ein- und
ausschaltbare Lichtquelle, die mit einem festdefinierten zeitlichen Abstand gepulst betrieben
wird. Die so realisierte Quadratur-Demodulation-Methode [7] ermöglicht eine direkte Messung
der Einhüllenden, wobei im allgemeinen Fall mindestens neun Aufnahmen benötigt werden, die
sich im Spezialfall gleicher mittlerer Intensität auf sechs Aufnahmen reduzieren. Dieser Ansatz
ermöglicht es WLI, prinzipiell die Scangeschwindigkeit stark zu erhöhen. Aus technologischen
Gründen erfordert dieser Ansatz eine sehr genaue Synchronisierung zwischen Lichtquelle und
Bewegungseinheit. Ein sehr kleiner Fehler kann zur großen Intensitätsänderung führen, woran
die Auswertung scheitert.

Obwohl es zahlreiche Möglichkeiten gibt, das Interferogramm stark unterabzutasten, wird im


Allgemeinen in den praktischen Anwendungen von WLI die Messgeschwindigkeit bei dunklen
Objekten überwiegend durch Mangel an Licht limitiert. Insbesondere darf keine zu große Licht-
quelle verwendet werden, um die notwendige räumliche Kohärenz zu gewährleisten. Die dadurch
limitierte Etendue 13 kann nur durch eine sehr helle Lichtquelle mit hoher Leuchtdichte ausgegli-
chen werden, was in der Realität leider auch durch den Stand der Technik der LED-Technologie
eingeschränkt wird. Eine kostenintensive Lösung wäre einer breitbandiger Laser.

3.2.3.2 Konfokale Mikroskopie (KM)


Konfokale Mikroskopie (KM) ist eine intensitätsbasierte fokussuchende Methode und ist ein
etabliertes 3D-Messverfahren, das für beide Oberflächentypen geeignet ist. Die Grundidee
wurde erstmal von Minsky in 1957 beschrieben [105, 106]. Mit der Erfindung des Lasers wurde
diese Methode weiter entwickelt. Als wesentlicher Beitrag zur Mikroskoptechnologie kann man
dadurch gegenüber der konventionellen Hellfeldmikroskopie das „Missing Cone“-Problem [107]
lösen und die laterale Auflösung um einen Faktor 1,4 verbessern [108, 109]. Damit kann man
bei der konfokalen Hellfeldmikroskopie und Fluoreszenzmikroskopie dreidimensionale Bilder
von biologischen und technischen Proben mit hoher lateraler und longitudinaler Auflösung
erfassen. Durch diese inhärente Fähigkeit zur Diskriminierung der Tiefe ergibt sich großes
Anwendungspotential in der 3D-Messtechnik.

Wie in Abbildung 3.13 gezeigt wird, ist KM grundsätzlich ein punktweises Verfahren: eine
Laserlichtquelle wird koaxial mit dem Lichtdetektor durch einen Kondensor und ein Mikroob-
jektiv auf gleicher Fokusposition abgebildet. Eine Lochblende, die im Fokus des Zwischenbildes
positioniert wird, wird mit der Laserlichtquelle an die gleiche Fokusposition abgebildet. Dies
sorgt dafür, dass nur das aus der Fokusebene zurückreflektierte Licht detektiert wird, während
das Licht außerhalb der Fokusebene durch Pinhole blockiert wird. Mit diesem Filterungsme-
chanismus liefert ein longitudinales Scannen eine Intensitätskurve, aus der die Auswertung der
Objekthöhen erfolgen kann [110].

Um eine vollflächige Höhenkarte zu erhalten, muss das Messfeld mit Hilfe lateraler Abraste-
13
Etendue setzt sich aus dem Querschnitt und dem Raumwinkel des Lichtbündels in der geometrischen Op-
tik zusammen. Für ein abbildendes System wird sie als Lichtleitwert bezeichnet und misst die maximal
übertragenen Leistung.
3.2 Stand der Technik der optischen 3D-Messtechnik 27

Laser

Lichtdetector

Blende

Konfokale Ebene

Abbildung 3.13: Aufbau einer konfokalen Mikroskipie.

rung erweitert werden. In vielen kommerziellen scannenden konfokalen Mikroskopen wird der
Laserstrahl mit zwei hintereinander positionierten Galvo-Spiegeln oder MEMS-Spiegeln räum-
lich lateral bewegt [111]. Obwohl man damit eine adäquate Bildrate der Vollfeldaufnahmen
erzielen kann, ist das komplette System mechanisch komplex und nicht kosteneffizient. Als
eine kosteneffiziente Lösung kann man die Scanspiegel durch eine rotierende Nipkow-Scheibe
ersetzen [112, 113]. Da die Lichteffizienz beim scannenden System mit Nipkow-Disk wegen des
immensen Lichtverlusts durch die engen Lochblenden sehr niedrig ist, wird diese Idee durch ein
rotierendes Mikrolinsenarray erweitert [114, 115], wobei die jeweilige Lochblende durch eine
Mikrolinse ersetzt wird und dadurch die Effizienz der Lichttransmission deutlich optimiert wird.
Möchte man das longitudinale Scannen vermeiden, kann man Linienscan bzw. flächenhafte
Messung mittels eines chromatischen konfokalen Verfahrens realisieren [116]. Außerdem kann
man KM mit WLI ohne großen technischen Aufwand vorteilhaft in einem Aufbau vereinen [117].

3D-Vermessung mit konfokaler Mikroskopie zeichnet sich durch die hohe Genauigkeit, hohe
laterale Auflösung und insbesondere die hohe Winkeldynamik auf stark gekrümmter optisch
glatten Oberflächen aus. Im Gegensatz zu WLI besteht ein weiterer Vorteil darin, dass sie
inhärent über eine schnellere Geschwindigkeit der longitudinalen Abtastung verfügt, weil man
eine große Schrittweite von bis zur Hälfte der Halbwertsbreite des Signals erreichen kann.
Durch die räumlich kohärente Beleuchtung von Laser leidet die konfokale Mikroskopie bei
nicht vollständig aufgelösten rauen Oberflächen unter starken Specklerauschen, was zur einen
schlechten Höhenauflösung führt.
28 3 Stand der Technik

Abbildung 3.14: Der erste in 1988 veröffentlichte experimentelle Aufbau von SIM (Quelle: [8]).

3.2.3.3 Mikroskopie mit strukturierter Beleuchtung (Structured-Illumination Microscopy:


SIM)

Die vorgestellte konfokale Mikroskopie ist prinzipiell eine intensitätsbasierte fokussuchende


Methode. Sie beruht auf einer räumlich separierten (z.B. punkt- oder linienförmig) Lichtquelle
und Detektor. Da ihre Signalentstehung die räumliche Trennung von Lichtquelle und Detektor
voraussetzt, ist ein mechanisches laterales Scannen von Nöten.

Möchte man das lokale mechanische Scannen vermeiden, steht das kontrastbasierte fokussu-
chende Konzept zur Verfügung. Statt im Ortsraum die Intensitätsänderung zu beobachten,
wird hierbei der Betrag des Fourierspektrums des Kamerabildes bei einer bestimmten Frequenz
oder einem Frequenzbereich während der Defokussierung als die primäre Messgröße akquiriert.
Da die Defokussierung eine abklingende MTF (Modulation Transfer Funktion) des optischen
Systems induziert, zeigt die gemessene Kontrastkurve bei Fokusvariation ein globales Maxi-
mum, das die Höheninformation beinhaltet. Diese Methode lässt sich in einem konventionellen
Hellfeldmikroskop durch die Beobachtung der Objekttextur bzw. künstlicher Projektion der
Textur implementieren, wobei die Flächenmessung mit einem Tiefenscan durchgeführt wird.
Die physikalische axiale Auflösung in einem Hellfeldmikroskop beträgt ca. vierfach der lateralen
Auflösung [107]. Allerdings ist diese Definition erst für ein Volumenobjekt wichtig, während
in der 3D-Messtechnik meistens von nicht transparenten, reflektierenden Oberflächen ausge-
gangen wird. Indem wir das A-Priori-Wissen über das Objekt anwenden, dass Photonen nur
aus einer Höhe entlang der longitudinalen Achse zurückreflektiert werden, kann man eine hohe
Höhenpräzision (kleiner als rayleighsche Schärfentiefe) mittels einer numerischen Interpolation
erzielen. Die Höhenpräzision wird praktisch durch die Signalform und hauptsächlich durch
das SNR des Signals limitiert. Bei einem optisch glatten Spiegel (SNR ~ 100) und einem
hochgeöffneten Mikroobjektiv mit NA=0,95 können Höhen mit einer Messunsicherheit von bis
zu einigen Nanometern gemessen werden.
3.2 Stand der Technik der optischen 3D-Messtechnik 29

Ein typisches Beilspiel des kontrastbasierten 3D-Messprinzips ist der passive „Shape From
Focus“-Sensor [118], der aus den Unschärfen des 2D-Bilder-Stapels die Höhen berechnet. Da
dieser Sensor für spiegelnde Objekte untauglich ist, wird er mit einer aktiven Projektion der
Texturstruktur erweitert, damit er für sowohl raue als auch spiegelnde Oberflächen funktio-
niert. Ein einfach zu implementierendes Muster ist das Multipunkt- und Multilinienmuster
[119]. Zur Erhöhung der Datendichte kann ein Schachbrettmuster projiziert werden [120].
Allerdings wird für eine vollflächige Messung dort immer ein laterales Scannen benötigt, da die
Höhenmessung nur am Übergangsbereich von hellen auf dunklen Intensitäten erfolgen kann.
Die erste experimentell implementierte, vollflächige Messung mit dem aktiven „Shape From
Focus“-Sensor wird 1988 in [8] vorgestellt. Wie in der Abbildung 3.14 dargestellt, wird ein
binäres Gitter projiziert. Durch eine Tiefpass-Schaltung wurde eine vollflächige Kontrastkarte
des beobachteten Musters analog ausgewertet. Dieses Konzept wird später von Wilson durch
eine Drei-Phasen-Schiebung optimiert und für die Generierung von optischen schärfentiefener-
weiterten Schnittbildern von biologischen Proben eingesetzt [9]. Im Vergleich zur Auswertung
mit einem räumlichen Tiefpassfilter, bietet die lokale Kontrastauswertung eine bessere laterale
Auflösung und hebt die Notwendigkeit einer hohen Pixeldichte der Kamera beim Abtasten
des beobachteten harmonischen Musters auf. Wenige Jahren später wurde gezeigt, dass man
mit Projektion eines harmonischen Gitters sogar sowohl die laterale als auch die longitudinale
Auflösung des Hellfeldmikroskops um den Faktor zwei erhöhen kann [121, 122, 123, 124]. Dieser
Erfolg hat dazu geführt, dass SIM als eine erfolgreiche Methode in der Mikroskopie anerkannt
wurde. Heutzutage gibt es auf dem Markt sowohl für die biologische Bildgebung als auch für
die 3D-Messtechnik bereits zahlreiche kommerzielle Geräte von SIM .

LED
Kamera
CCD
Beleuchtung
Kollimator

Pellicle-Strahlteiler FLCoS-Display

Tubuslinse
Polarisierender
Strahlteiler

Abbildung

Mikroobjektiv

Fokusebene
Lineartisch
Objekt

Abbildung 3.15: Aufbau von SIM mit einem ferroelektrischen Flüssigkristalldisplay.


30 3 Stand der Technik

Die meisten Geräte für die 3D-Messtechnik auf technischen Objekten haben eine 6f-Anordnung
(siehe Abb. 3.15): Eine ausgedehnte Weißlichtquelle wird durch einen Kollimator nach un-
endlich abgebildet und beleuchtet den im hinteren Fokus des Kollimators stehenden digitalen
Lichtmodulator. Dadurch wird die Intensitätsverteilung räumlich moduliert. Das digital ange-
zeigte Muster wird mit Hilfe eines Strahlteilers in ein Hellfeldmikroskop eingekoppelt und in
die Fokusebene des Mikroobjektives projiziert. Bei der Beobachtung werden die auf das Objekt
reflektierten Photonen wieder durch dieselbe Optik auf eine Kamera abgebildet und detektiert.
Wird ein Multipunkt- oder Multilinienmuster wie bei den Geräten von Sensofar [125, 126]
und Leica [12] projiziert, muss das Muster beim kontinuierlichen longitudinalen Scannen
auch lateral mit verschoben werden. Als primäre Messgröße werden die Intensitätsgradienten
senkrecht zum Linien- oder Punktrand aufgenommen. Die Firma Zeta Instrument projiziert ein
statisches Kreuzmuster und berechnet den Kontrastwert über den Laplace-Operator [13, 127].
Beim Gerät von der Firma Confovis wird stattdessen ein Sinusmuster projiziert, wobei ein
Kompromiss zwischen der lateralen Auflösung und Anzahl der benötigten phasenverschobenen
Aufnahmen gemacht wird. Statt mindestens drei werden nur zwei um π verschobene Sinusmus-
ter pro z-Position projiziert und aufgenommen, indem die erste Ableitung des aufgenommenen
Sinusmusters als zusätzliche Information zur eindeutigen Berechnung des Kontrasts dient
[11, 128].

Die oben genannten drei kommerziellen Systeme haben einen gemeinsamen Nachteil: Sie
benötigen zur Berechnung eines 3D-Punkts mehr Rohdaten als die theoretische notwendige
Aufnahmenzahl des phasenschiebenden Verfahrens. Die dadurch verschlechterte Informations-
effizienz schränkt die maximal erreichbare Messgeschwindigkeit ein. Im Abschnitt 7.1 wird
detailliert darauf eingegangen.

FLCoS-Display
Beleuchtung

Kamera

Leica-Mikroobjektiv Leica-Tubuslinse Pellicle-Strahlteiler

Linearversteller

Abbildung 3.16: Laboraufbau von SIM mit durch einen ferroelektrischen Flüssigkristalldisplay (FLCoS-
Display) projizierten Sinusmustern.

SIM mit besserer Informationseffizienz


3.2 Stand der Technik der optischen 3D-Messtechnik 31

Um SIM mit höherer Informationseffizienz zu betreiben, wird lokale Phasenschiebung bei


Projektion eines Sinusmusters zur Kontrastberechnung verwendet. Damit vermeidet man,
die Nachbarinformation zu benutzen. Wie in der Abbildung 3.15 und 3.16 gezeigt, wird das
Sinusmuster mit einem ferroelektrischen Flüssigkristalldisplay (FLCoS-Display) generiert und
in die Bildebene eines Hellfeldmikroskopes projiziert. Während des axialen Scans werden M
phasenverschobenen Sinusmuster mit einem Phasenabstand von 360°/M an jeder z-Position
projiziert und M Kamerabilder I1 , I2 , · · · IM aufgenommen. Der Kontrast C lässt sich lokal
mittels der Gleichung 3.1 berechnen [129],

q
(i−1)2π 2 (i−1)2π 2
2 ( M ) +( M
P P
i=1 Ii cos M i=1 Ii sin M )
C(I1 , I2 ...IM ) = PM . (3.1)
i=1 Ii

Um den Kontrast eindeutig bestimmen zu können, braucht man mindestens drei Aufnahmen [9],
die zueinander ein Phasenabstand von 120° haben. In der Praxis werden oft mit vier Aufnahmen
in 90°-Phasenabstand gemessen, um die Nichtlinearitätsfehler zu minimieren [130]. Dadurch
reduziert sich die Gleichung 3.1 auf die Gleichung 3.2,
p
2 (I1 − I3 )2 + (I2 − I4 )2
C(I1 , I2 , I3 , I4 ) = . (3.2)
I1 + I2 + I3 + I4

0.9

0.8

0.7
Kontrast C

0.6

0.5

0.4

0.3

0.2

0.1
z0
0
−0.04 −0.03 −0.02 −0.01 0 0.01 0.02 0.03 0.04

Defokusierungsabstand dM [mm]

Abbildung 3.17: Höhenberechnung durch Maximumlokalisation an der Kontrastkurve.

Die durch Phasenverschiebung berechnetete Kontrastkurve entlang der z-Achse wird in der
Abbildung 3.17 angezeigt. Ein Lokalisationsalgorithmus extrahiert den Höhenwert aus der
Maximumposition.

Die abgeschlossenen Vorarbeiten der Arbeitsgruppen [131, 132, 133] zeigten, dass SIM eine
vergleichbare Leistungsfähigkeit wie WLI und KM anbietet. Spiegelnde Oberflächen können
mit einer Präzision von bis zu 10 Nanometern vermessen werden. Die Rauigkeit von technischen
Oberflächen kann bei SIM mit Verwendung von hochgeöffneten Mikroobjektiven bestimmt
werden. Die erreichte Winkeldynamik ist hoch und wird vom Objektivaperturwinkel limitiert.
32 3 Stand der Technik

3.3 Zusammenfassung und Diskussion

Im vorherigen Abschnitt wurde das breite Spektrum der bestehenden 3D-Messmethoden


vorgestellt. Der hier dargestellte Überblick kann dazu beitragen, die Auswahl der geeigneten
3D-Messmethode für die im Abschnitt 3.1 beschriebene In-Line-Inspektion von Lötbumps zu
treffen.

In der Tabelle 3.2 wird gezeigt, dass nach dem Stand der Technik noch keines der bestehenden
Systeme alle Anforderungen gleichzeitig erfüllen kann. Die meisten Messmethoden sind des-
halb nicht geeignet, weil sie raue und spiegelnde Objekte nicht gleichzeitig messen können. Im
Gegensatz dazu können WLI, KM und SIM mit Ausnahmen der Messgeschwindigkeit alle an-
deren Spezifikationen ohne weiteres erfüllen. Aufgrund des ineffizienten axialen Scannens sind
sie jedoch alle nicht schnell genug.

Rau und Spiegelnd δz<1µm δx=10µm ∆z=500µm S 3D = 108


Triangulation - (nur rau) - + + +
Time-of-Flight - (nur rau) - - + -
Photom. Stereo - (nur rau) - + + +
Holographie - (nur rau) + + - -
Kl. Interf. - (nur spiegelnd) + + - +
Wellenfrontsens. - (nur spiegelnd) + - + -
PMD - (nur spiegelnd) + - + +
WLI + + + + -
KM + + + + -
SIM + + + + -

Tabelle 3.2: Bewertung der verfügbaren 3D-Messtechniken gegenüber den Anforderungen der 3D- Halb-
leiterinspektion ( +: geeignet, -: nicht geeignet).

Die Messgeschwindigkeit der WLI ist hauptsächlich durch das hochfrequente Korrelogramm
limitiert. Obwohl einige Strategien das axiales Scannen deutlich beschleunigen können, liegt
die maximal erreichte Messgeschwindigkeit von kommerziellen Systemen bei ca. 106 3D-
Punkten/Sekunde. Obwohl KM und SIM aufgrund der nicht hochfrequent modulierten Tiefen-
signale deutlich schneller axial abtasten können, liegt die realisierbare Messgeschwindigkeit der
kommerziellen Sensoren in einer ähnlichen Größenordnung (ca. 106 3D-Punkte/Sekunde). Um
die Zielgeschwindigkeit (108 3D-Punkte/Sekunde) zu erreichen, muss die Messgeschwindigkeit
sowohl durch Optimierung eines einzelnen Systems als auch durch Parallelisierung von meh-
reren Systemen verbessert werden. Dabei ist die Frage für die Halbleiterindustrie von großem
Interesse, wie die Parallelisierung von mehreren Systemen möglichst kostengünstig realisiert
werden kann.

Gegenüber WLI und KM zeigt SIM einen Vorteil bezüglich des Potentials zur Optimierung der
Messgeschwindigkeit: SIM kann sowohl ein schnelles axiales Scannen als auch eine flächenhafte
Messung ohne mechanisches laterales Scannen erzielen. Diese Eigenschaft macht SIM zu einem
interessanten Kandidaten für diese Anwendung mit dem Potential, dass die Realisierung der
angestrebten Messgeschwindigkeit kostengünstig erfolgen kann. Die bestehenden SIM-Systeme
[11, 12, 125, 13] sind ausschließlich für mikroskopische Objekte ausgelegt und sind außerdem
noch zu langsam für In-Line-Inspektion von Lötbumps. Motiviert durch diese Anwendung,
steht die Untersuchung des Potentials der Implementierung eines hochgenauen und schnellen
3.4 Eigene Beiträge 33

SIM-Sensors mit makroskopischem Messfeld im Vordergrund dieser Dissertation.

3.4 Eigene Beiträge

Aus der obigen Beschreibung des Stands der Technik der optischen 3D-Messtechnik geht
hervor, dass keine bestehenden Systeme alle anspruchsvollen Spezifikationen der In-Line-
Inspektion von Lötbumps erfüllen können. Allerdings stehen drei Messverfahren (WLI, KM
und SIM) zur Auswahl, die außer der Messgeschwindigkeit alle anderen Spezifikationen
erfüllen. Die Frage, ob deren Messgeschwindigkeit prinzipiell zum Erfüllen der anspruchsvol-
len Spezifikation der Messgeschwindigkeit optimiert werden kann, ist von besonderem Interesse.

In dieser Dissertation wird SIM für diese anspruchsvolle Anwendung intensiv untersucht und
weiterentwickelt. Zunächst wird SIM aus physikalischer und messtechnischer Perspektive mit
WLI und KM ausführlich verglichen. Dabei werden zwei wichtigste Vorteile bei SIM gegenüber
anderen beiden Messtechniken hervorgehoben. Zum einen ist SIM (gegenüber WLI) deutlich
effizienter beim axialen Scannen und benötigt intrinsisch (gegenüber KM) kein laterales
Scannen. Daher hat SIM ein großes Potential für eine weitgehende Verbesserung der Messge-
schwindigkeit. Zum anderen ist SIM (gegenüber KM) aufgrund der räumlich und zeitlich wenig
kohärenten Lichtquelle weniger anfällig gegenüber Specklerauschen auf rauen Oberflächen.
Auch diese Vorteile machen SIM zu einem interessanten Kandidaten für die In-Line-Inspektion
der Lötbumps.

Obwohl bereits kommerzielle SIM-Systeme [128, 126, 127] vorhanden sind, gibt es unseres
Wissens nach noch keine Untersuchungen, in denen die Charakteristik und die Grenzen von
SIM diskutiert werden. In dieser Dissertation wird der Fokus auf die theoretische Untersuchung
der sechs wichtigen Eigenschaften (Präzision, Richtigkeit, laterale Auflösung, Winkeldynamik,
Messgeschwindigkeit und Skalierbarkeit) gelegt. Insbesondere werden Erkenntnisse bezüglich
der theoretischen Grenzen abgeleitet.

Als theoretische Grundlagen und praktische Werkzeuge zur Charakterisierung von SIM werden
Modelle für die Signalentstehung mit Unterscheidung zwischen rauen und spiegelnden Ober-
flächen erstellt. Dabei wird ein analytisches Modell auf Basis der Arbeiten von Stockseth [134]
und Hopkins [135] für aberrationsfreie optische Systeme erstellt. Dies liefert in geschlossener
Form eine mathematische Beschreibung über den Zusammenhang zwischen der Geometrie der
Kontrastkurve und den Sensorparametern. Zur Simulation der Kontrastkurven bei aberrati-
onsbehafteten optischen Systemen wird ein numerisches Modell konstruiert. Dies ermöglicht
die Analyse der Einflüsse von Objektivaberrationen auf den systematischen Fehler von SIM.

Mithilfe von theoretischen Modellen können Präzision, Richtigkeit, laterale Auflösung, Mess-
geschwindigkeit und Skalierbarkeit von SIM extensiv charakterisiert werden. Dabei werden
wichtige Erkenntnisse darüber erworben, wie diese Größen in Abhängigkeit der Sensorparame-
ter variieren und wo die theoretischen und praktischen Grenzen liegen. Damit wird das Design
eines theoretisch optimalen 3D-Sensors mit SIM möglich.

Die Erkenntnisse über die Eigenschaften und theoretische Grenzen von SIM sind notwendig,
aber noch nicht ausreichend zum Erreichen der Zielspezifikationen für die gegebene praktische
Anwendung. Das liegt daran, dass die technologischen Grenzen oft das System limitieren. In
dieser Dissertation wurden die technologischen Grenzen bei zwei wichtigen Aspekten von SIM
34 3 Stand der Technik

behandelt und Lösungen dafür erarbeitet und implementiert. Zum einen wird informations-
effiziente Methoden zur hochschnellen 3D-Messung für sowohl einzelnes SIM-System als auch
eine kostengünstige Parallelisierung mehrerer SIM-Systeme entwickelt, wodurch kostengüns-
tige Implementierung der anspruchsvollen Aufgabe - In-Line-Inspektion der Lötbumps - mit
verfügbaren Komponenten realistisch geworden ist. Zum anderen werden die dominierenden
Retrace-Fehler auf blanken Objekten durch Kombination von SIM und Mikrodeflektometrie
modellfrei kompensiert. Außerdem kann die Präzision auch durch die vorteilhafte Datenfusion
unabhängig von der verwendeten Optik auf einige Nanometer optimiert werden.
35

4 Vergleich von WLI, KM und SIM

Im Kapitel 3 wurden die Messaufgabe und der Stand der Technik der 3D-Messtechnik disku-
tiert. Daraus wurde ersichtlich, dass für die anstehenden herausfordernden Messaufgaben in
der Halbleiterinspektion die WLI, KM und SIM als potentiale Kandidaten eingesetzt werden
können. Allerdings müssen sie alle bezüglich der Messgeschwindigkeit erheblich optimiert
werden.

Im Rahmen dieser Dissertation werden die Grenzen von SIM und ihren Einsatzmöglichkeiten
untersucht. Damit die Vorteile und Nachteile von SIM gegenüber den anderen zwei Kandidaten
hervorgehoben werden, werden drei Methoden jeweils auf der physikalischen und messtechni-
schen Ebene miteinander verglichen.

Auf der physikalischen Ebene wird auf vier Aspekte - Messwert & Zielgröße, Referenz & Maß-
verkörperung, Einflussfaktoren auf die Signalform sowie Speckle - eingegangen. Die dabei er-
worbenen Erkenntnisse sorgen für Verständnis einiger wichtiger messtechnischer Eigenschaften,
die für die praktische Anwendung relevant sind. Dazu gehören Präzision, Richtigkeit, Messge-
schwindigkeit, Winkeldynamik und laterale Auflösung.

4.1 Physikalische Eigenschaften

Messobjekt Justieren Kalibrierung

Eingangsgröße Messwerte Zielgröße


Messeinrichtung Modell
Referenzgröße

Referenz Rauschquellen Maßverkörperung

Abbildung 4.1: Blockdiagramm eines Messvorgangs.

In [136] wird die Begriffe und der Vorgang vom Messen erläutert. Ein 3D-Sensor ist eine
Messeinrichtung, die man unter Berücksichtigung der physikalischen Grundlagen eines 3D-
Messverfahrens experimentell umsetzt. Der damit durchzuführende Messvorgang kann mit dem
in Abb. 4.1 dargestellten Diagramm generalisiert werden: Jede Messeinrichtung verfügt über
eine Referenz, von der die Differenz der Eingangsgröße des Messobjekt ermittelt wird. Das
Ergebnis des Vergleichs wird in den messbaren Messwerten kodiert. Mit einem dazugehörigen
physikalischen Modell bzw. Rechenvorschrift lässt sich das Vergleichsergebnis dekodieren und
mithilfe einer Maßverkörperung in die Zielgröße umwandeln.
36 4 Vergleich von WLI, KM und SIM

Wenn eine ununterbrochene Kalibrierungskette des Maßverkörperungselements auf ein vom na-
tionalen Metrologie-Institut anerkanntes Normal durchgeführt wird, kann man auf SI-Einheiten
rückführbare Messergebnisse der Zielgröße erhalten. Da die Fehlerquellen in der Praxis in der
Hardware vorhanden sind, variiert die gemessene Zielgröße sowohl statistisch innerhalb einer
bestimmten Fehlergrenze als auch systematisch abweichend vom wahren Wert. Die Auswirkung
auf die Zielgröße durch statistische und systematische Fehler der Messwerte lassen sich durch
Justierung der Hardwareparameter in den Messeinrichtungen minimieren. Bei unvermeidbaren
systematischen Fehler kann man noch die Kalibrierung im Model einbeziehen, um die Fehler
numerisch zu kompensieren.

4.1.1 Referenz und Maßverkörperung


Referenzspiegel

Galvospiegel
Strahlteiler

Pinhole
SLM

Referenz Referenz Referenz

Maßverkörperung Maßverkörperung Maßverkörperung


(a) (b) (c)

Abbildung 4.2: (a) Beleuchtungskonfiguration von WLI . (b) Beleuchtungskonfiguration von


KM. (c) Beleuchtungskonfiguration von SIM.

Wie in der Abb. 4.1 dargestellt, verfügt jeder Messvorgang über Referenz und Maßverkörperung.
Die Referenz dient als ein Hilfsmittel, mit dem die Eingangsgrößen beim Vergleichsvorgang in
Messwerte kodiert werden. Anschließend kann man die erhaltenen Messwerte beim Dekodieren
durch Vergleichen mit der Maßverkörperung in die Zielgröße umwandeln. Für Gewichtmessen
mit einer Federwaagevergleicht vergleicht man die Gewichtskraft des Messobjektes mit der
Rückstellkraft der Feder als Referenz. Die Zielgröße - Gewicht - wird durch ein Messsystem mit
der Federauslenkung als Maßverkörperung indirekt ermittelt. Bei einigen Messverfahren sind
Referenz und Maßverkörperung in einem Gegenstand kombiniert: wie z. B. beim Längenmes-
sen mit einem Linear. Bei optischen 3D-Messverfahren sind beide häufig in unterschiedlichen
Gegenständen implementiert.

Im Folgenden werden die Referenz und die Maßverkörperung bei drei Messverfahren analy-
siert. Referenz und Maßverkörperung tragen die wichtige Information über die Qualität der
gemessenen Zielgröße, die später für die Fehleranalyse bzw. Konstruktion des Aufbaus sehr
wichtig sind. Dafür ist die Kenntnis der Einflussgrößen und Eigenschaften hilfreich.

WLI : Zur Höhenmessung vergleicht WLI die zurückgelegten optischen Weglängen zwischen
dem Objekt- und dem Referenzarmen, indem das Interferogramm während des longitudinalen
Scans überwacht wird. Wie in der Abb. 4.2 (a) illustriert wird, befindet sich ein ebener Spiegel
im Referenzarm, von dem die Referenzwelle reflektiert wird und mit der Objektwelle auf
dem Detektor interferiert. Da die beim WLI verwendete breitbandige Lichtquelle eine sehr
kurze Kohärenzlänge hat, können nur die Wellen, die innerhalb eines begrenzten Tiefenbe-
4.1 Physikalische Eigenschaften 37

reichs im Objektraum reflektiert werden, mit den vom Spiegel reflektierten optischen Wellen
interferieren. Als Referenz der WLI dient der Referenzspiegel, der die „Kohärenzfläche“ festlegt.

KM : Bei KM wird ein Punktbild durch Schwenken des Mikrospiegels im Objektraum lateral
abgetastet (siehe Abb. 4.2 (b)). Die dadurch sequentiell entstehende Fokusfläche dient als
Referenz. Die Form der Fokusfläche ist hauptsächlich von der Position des Pinholes und den
Abbildungseigenschaften des Objektives abhängig.

SIM : Analog zur KM dient die Fokusfläche des projizierten Musters als Referenz, die in diesem
Fall vollflächig ist. Deshalb wird keine laterale Abtastung benötigt. Neben den Abbildungsei-
genschaften des Objektivs wird die Form der Referenz auch durch sowohl die Position und als
auch Form von Displays und Kameradetektors beeinflusst.

Referenz Maßverkörperung
WLI Referenzspiegel Encoder des Motors
KM Fokusfläche Encoder des Motors
SIM Fokusfläche Encoder des Motors

Tabelle 4.1: Referenz und Maßverkörperung von WLI, KM und SIM.

Nachdem die Messsignale erfasst worden sind, werden alle Messpunkte den zugehörigen Mo-
torpositionen des Linearverstellers zugeordnet. Daraus wird die Position des Maximums des
Korrelogramms bei WLI oder der Signalkurve bei KM und SIM als Höhenwert viel feiner als
die Abtastschrittweite interpoliert. Da die Motorpositionen bei allen Messverfahren durch den
intern eingebauten Encoder (Linear- oder Rotationsencoder) identifiziert werden, dient der
Encoder als Maßverkörperung für die Umwandlung der Messwerte in Längen.

4.1.2 Messwert und Zielgröße

Messwert Zielgröße Kodierungsmechanismus


WLI Korrelogramm Abstand kohärent mit Kohärenzfunktion
KM Intensitätskurve Abstand inkohärent mit Intensitätsvariation
SIM Kontrastkurve Abstand inkohärent mit MTF-Variation

Tabelle 4.2: Messwert und Zielgröße von WLI, KM und SIM.

Der Abstand wird als die Zielgröße bei den drei Messverfahren gemessen. Wie in der Tabelle
4.2 aufgelistet, unterscheiden sich die Signalentstehungsmechanismen aufgrund ihren physika-
lischen Grundlagen voneinander .

WLI : WLI ist eine interferometrische Methode. Von einer breitbandigen Lichtquelle wird
Objekt- und Referenzwelle generiert und zur Interferenz am Detektor gebracht. Zur Berech-
nung des Objektabstands wird die optische Wegdifferenz (OPD) der Objekt- und Referenz-
wellen gemessen. Dafür wird die Intensität von zwei sich überlagernden Wellen beobachtet:
haben die Objektwelle und die Referenzwelle die gleiche optische Weglänge zurückgelegt,
interferieren beide Wellen konstruktiv und führen zu einer maximaler Intensität. Nimmt die
38 4 Vergleich von WLI, KM und SIM

Intensität [digts]
Intensität [digts]

OPD zwischen Objekt und Referenz [µm] Abstand z0 zwischen Objekt und Referenz [µm]

(a) (b)
Kontrast

Abstand z0 zwischen Objekt und Referenz [µm]


(c)

Abbildung 4.3: (a) Korrelogramm von WLI. (b) Intensitätskurve von KM. (c) Kontrastkurve von SIM.
Die Halbwertsbreiten bei drei simulierten Signalen betragen 2µm. Diese Bereite ist rea-
listisch bei WLI mit einer Weißlichtquelle und bei KM und SIM mit einem Mikroobjek-
tive mit NA von 0.9.

optische Wegdifferenz durch Verschiebung des Referenzspiegels oder des Objekts zu, wird das
beobachtete Korrelogramm moduliert (siehe Abb. 4.3 (a)). Das Maximum der Einhüllende des
Korrelogramms kodiert den Abstand. In der Kohärenztheorie ist die Einhüllende proportional
zum Betrag des komplexen Kohärenzgrades1 [137].

KM : Bei der Abstandsmessung mit KM handelt es sich um einen mehrstufigen Abbildungs-


prozess. In die Zwischenbildebene des Mikroskops wird ein Pinhole integriert, das von der
Lichtquelle (Laser oder breitbandige Lichtquelle) beleuchtet wird. Das Pinhole-Bild auf dem
Objekt wird konjungiert auf dem Detektor abgebildet. Liegt das Objekt im Fokus des Objek-
tivs, liegt das projizierte Pinhole-Bild auf der Objektoberfläche und wird nach der Reflektion
auf das Pinhole abgebildet. Die Größe des Pinholes sollte angepasst zur lateralen Auflösung
des Objektivs optimal gewählt werden. Einerseits soll es so groß sein, dass eine ausreichende
Lichtmenge durch das Pinhole zum Detektor gelangen kann. Anderseits muss das Pinhole

1
Die komplexe Kohärenzgrad ist die normierte Autokorrelation der Lichtfeldfunktion. Nach der Wiener-
Khintchine-Theorem ist sie korreliert mit dem Spektrum der verwendeten Lichtquelle.
4.1 Physikalische Eigenschaften 39

ausreichend klein sein, damit die Tiefenauflösung möglichst hoch wird. Verschiebt man das
Objekt aus dem Fokus, wird der Durchmesser des Pinholebildes auf dem Objekt und auch
nach der Reflexion bei der Beobachtung deutlich vergrößert. Damit wird ein nur sehr geringer
Anteil der Lichtmenge durchgelassen und hiermit eine geringere Intensität von der Kamera
erfasst. Wenn man den Intensitätsverlauf bei kontinuierlicher Bewegung des Objekts durch die
Fokusebene betrachtet, erhält man eine näherungsweise gaußförmige Intensitätskurve (siehe
4.3 (b)), deren Maximum die Information über den gesuchten Objektabstand kodiert.

SIM : Die Höhenmessung bei SIM erfolgt wie bei KM auch mithilfe von Fokusinformation.
Anders als bei KM, wird jedoch das Fokuskriterium statt im Ortsraum im Fourierraum aus
dem gemessenen Intensitätswerten berechnet. Bei der Beleuchtung wird ein Sinusmuster in
die Fokusebene des Mikroobjektivs projiziert. Fokussiert das Objektiv auf das Messobjekt,
wird das projizierte Muster scharf von der Kamera beobachtet. Der Kontrast des beobach-
teten Sinusmusters ist äquivalent zu der Modulation-Transfer-Function (MTF) der gesamten
Beleuchtungs- und Beobachtungsoptik. Wird das Muster auf dem Detektor durch Verschiebung
des Objekts defokussiert, sinkt der Kontrast des Sinusmusters. Der reduzierte Kontrast ist
auf die defokussierte MTF zurückzuführen (genauere Erklärung in Kapitel 4). Beim „Durch-
schieben“ des Objekts durch die Fokusebene kann jeder Kamerapixel eine Kontrastkurve
akquirieren, in der die Höheninformation kodiert ist. Da der Kontrast des Sinusmusters nur
indirekt messbar ist, muss er aus mehreren Aufnahmen durch eine Phasenschiebung berechnet
werden.

4.1.3 Einflussfaktoren für die Signalform

Signal Signalhöhe Signalbreite

1
WLI ∝ 0.5 + 0.5V Re(γ(z − z0 )) [137] ∝ V [137] ∝ △νL

△xp
KM ∝ sinc2 ( 2π
λ (z − z0 )(1 − cosu)) [109] ∝ △x2p [109] ∝ βsinu [109]

(a−0.5aν̄)
SIM ∝ | J1a−0.5aν̄ |,a= 2π 2
λ sin u(z − z0 )ν̄ [134] ≈ M T F (ν̄) (s. 5.2) ∝ λ
sin2 uν̄(1−0.5ν̄) (s. 5.2)

Tabelle 4.3: Einflussfaktoren der Signalform von WLI, KM und SIM. V : Visibilität des Interferogramms,
Re(γ): Realteil der komplexen zeitlichen Kohärenzfunktion γ, △νL : Halbwertsbereite des
Lichtspektrums, u: Objektivaperturwinkel, △xP : Größe des Pinholes, β: Vergrößerungsfak-
tor, J1 : Bessel-Funktion erster Art, erster Ordnung, ν̄ : normierte Gitterfrequenz zwischen
[0,2].

Das SNR der Höhenkarte hängt bei gleichem Signalrauschen überwiegend von der Signalform
ab. Nach [138] ist die Standardabweichung des Höhenrauschens umgekehrt proportional zur
Krümmung κ0 am Signalmaximum. Strebt man eine geringere Messunsicherheit an, sollen die
Sensorenparameter so justiert werden, dass das Signal möglichst schmal und hoch wird. In
diesem Abschnitt werden die Einflüsse der Sensorparameter auf die Signalform bei WLI, KM
und SIM diskutiert. In der Abb. 4.3 werden die mathematischen Ausdrücke für das Signal,
die Signalhöhe und die Signalbreite bei allen drei Messverfahren ohne Berücksichtigung ihrer
40 4 Vergleich von WLI, KM und SIM

Vorfaktoren aufgelistet.

WLI : Die Form des Korrelogrammes ist durch den Visibilitätsfaktor V und den komplexen
Kohärenzgrad γ(z0 ) (0 ≤ |γ| ≤ 1) bestimmt [137], wobei der Visibilitätsfaktor V ∈ [0, 1] von
dem Verhältnis zwischen den Intensitäten der Referenz- und Objektwelle abhängt. Die Höhe
der Einhüllende ist proportional zum Visibilitätsfaktor V und ist maximal bei V = 1, wenn die
Amplituden der Referenz- und Objektwellen gleich sind [137]. Nach dem Wiener-Khinchine-
Theorem hängt die Korrelogrammbreite umgekehrt proportional mit der spektralen Breite
△υL der Lichtquelle ab.

KM : Beim geometrischen Modell wird das Pinhole von KM infinitesimal klein angenommen.
Das durch Tiefenscan entstehende Signal wird mit einer Sinc-Funktion modelliert [109], wobei
die gemessene Intensität abhängig vom Aperturwinkel u des Mikroobjektives, der Wellenlänge
λ der Lichtquelle und dem Defokussierabstand z − z0 variiert. Allerdings ist in der Realität
aufgrund des Beugungseffekts die PSF des Objektives nicht unendlich klein. Damit eine
genügende Lichtmenge durch das Pinhole zum Detektor gelangen kann, muss die Größe des
Pinholes △xp immer an die Größe der PSF angepasst werden. Deshalb hat die Signalform
eine Abhängigkeit von der Pinholegröße △xp , wobei die Höhe und die Breite des Signals
jeweils proportional zu △x2p und △xp /(βsinu) sind [109] (β: Vergrößerungsmaßstab, △xp /β:
Pinholegröße im Objektraum).

SIM: Bei SIM ist die Kontrastkurve äquivalent zur defokussierten MTF der gesamten optischen
Systemen. In [134] wurde die MTF eines defokussierten optischen Systems mit einer Bessel-
funktion J1 erster Art und erster Ordnung approximiert, wobei sie neben dem Aperturwinkel
u, der Wellenlänge λ und dem Defokussierabstand z − z0 noch von der normierten Musterfre-
quenz ν̄ ∈ [0, 2] abhängt2 . Die Höhe des Signals entspricht dem fokusierten MTF-Wert bei
der Musterfrequenz ν̄ und die Signalbreite ist proportional zum Term λ/(sin2 uν̄(1 − 0.5ν̄)) (s.
Herleitung im Abschnitt 5.2).

Die Tabelle 4.3 gibt einen Überblick über die Einflussfaktoren der Signalform. Damit haben
wir die wichtige Möglichkeit zur Justierung der Signalform, die man bei Auslegung des Sen-
sors wählen kann. Bei WLI erfolgt die Justage durch Einstellung des Helligkeitsverhältnis von
Referenz- und Objektwellen sowie Auswahl der spektralen Breite der Lichtquelle. Bei SIM und
KM sind die Signale stark mit der Objektivapertur sinu verknüpft. Außerdem lässt sich die
Signalform jeweils durch Änderung der Pinholegröße △xp für KM und der Musterfrequenz ν̄
für SIM einstellen.

4.1.4 Speckle
Kohärenz ist eine Eigenschaft von Licht, die das Auftreten von Interferenzerscheinungen be-
schreibt. Sie ist bei vielen optischen Anwendungen, wie z. B. Interferometrie und diffraktiven
optischen Elementen eine hilfreiche Eigenschaft. Allerdings ist sie für optische 3D-Messtechnik
auf rauen Oberflächen ein Hindernis zum Erreichen höherer Präzision, wobei die Präzision in
dieser Dissertation sich auf räumlich statistische Fehler statt auf zeitlich statistische Fehler bei
Wiederholungsmessungen bezieht.

2
Die Cutoff-Frequenz der OTF eines inkohärenten Abbildungssystems ist nach der Konvention in Papern
[135, 134] auf 2 normiert.
4.1 Physikalische Eigenschaften 41

Bei Streuung mit hinreichend großer räumlicher Kohärenz entsteht ein räumlich statistisch
variierendes Intensitätsmuster (Speckle) [139]. Bei Messung von rauen Objekten limitiert der
Speckle-Effekt bei vielen optischen 3D-Sensoren die erreichbare Präzision. Deshalb versucht
man, Speckle in der Praxis zu reduzieren.

In diesem Abschnitt wird der Speckle-Effekt bei WLI, KM und SIM analysiert. Dabei ist zu
identifizieren, welche Rolle Speckle für die jeweilige Messmethode spielen. Zuerst wird das
Kohärenzvolumen betrachtet: Die Größe des Kohärenzvolumens wird durch den Durchmesser
dK der Kohärenzzelle und die Kohärenzlänge lK bestimmt.

Für volumenstreuende Oberflächen spielt die zeitliche Kohärenz eine wichtige Rolle für den
Specklekontrast. Die Berechnung der longitudinalen Kohärenzlänge lK erfolgt nach der Glei-
chung 4.1 aus der halben spektralen Breite △vL der Lichtquelle und der Lichtgeschwindigkeit c,
indem man nach dem Wiener-Khinchine-Theorem [140] die Kohärenzzeit △tK aus Invertierung
von △vL berechnet.
c
lK ≈ . (4.1)
△υL
Bei reflektierenden Oberflächen ist stattdessen räumliche Kohärenz die dominierende Eigen-
schaft. Nach dem Van-Zittert-Zernike-Theorem [141] ist dK nach der Gleichung 4.2 abhängig
von der mittleren Wellenlänge λ̄ der Lichtquelle und den Quotienten vom Abstand zL der
Lichtquelle zum Objekt und dem Durchmesser dL der scheinbaren Lichtquelle.

zL λ̄
dK ≈ . (4.2)
dL
WLI : Bei WLI ist hoher Specklekontrast notwendig für ein besseres Signal-SNR. Dafür soll
die Bildgröße der Lichtquelle kleiner als die Pupille des Beobachtungsobjektives ausgewählt
werden. Nach der Gleichung 4.2 wird Specklekontrast von 1 erreicht, wenn das Bild der Licht-
quelle halb so groß wie die Pupillengröße ist. Aufgrund der bei WLI eingesetzten breitbandigen
Lichtquelle ist die Kohärenzlänge lK kurz, damit das Maximum des Korrelogramms genau lo-
kalisiert werden kann. Bei einer Weißlicht-LED ist eine Kohärenzlänge von ca. 2 µm zu erwarten.

KM : Bei KM wurden früher häufig Laser und heute werden stattdessen Superluminiszenz-
dioden (SLD) oder Weißlicht-LEDs zur Unterdrückung der zeitlichen Kohärenz eingesetzt.
Allerdings arbeitet KM räumlich kohärent, weil das Pinhole räumlich kohärent beleuchtet wird
und als eine nahezu perfekte Punktlichtquelle wirkt. Dies führt zu einer großen Kohärenzzelle,
die insbesondere bei nicht aufgelöster Oberflächenrauigkeit störende Speckle verursacht.

SIM : Zur gleichmäßigen Ausleuchtung des Objekts wird bei SIM das Sinusmuster durch
eine Köhlersche Beleuchtung realisiert, wobei die Lichtquelle in die Objektivapertur abge-
bildet werden muss. Die räumliche Kohärenzzelle lässt sich durch den Aperturwinkel der
Beleuchtungsoptik bestimmen. Da die Gitterfrequenz des Sinusmusters viel kleiner als die
Grenzfrequenz, ist die Größe der Kohärenzzelle mit der Gleichung 4.2 beschreibbar. Der Speck-
lekontrast bei SIM lässt sich durch Einstellen des Verhältnisses zwischen den Beleuchungs-
und Beobachtungsaperturen variieren.

Als quantitatives Maß des Specklerauschens wird der Specklekontrast CS verwendet, der als
der Kehrwert vom SNR des Intensitätssignals definiert wird. Der Specklekontrast CS besteht
42 4 Vergleich von WLI, KM und SIM

aus dem Produkt folgender Größen: dem zeitlichen Specklekontrast CSt , dem räumlichen
Specklekontrast CSs , dem Specklekontrast CSP unter Einfluss von Polarisation und dem Speck-
lekontrast CSP ix unter Einfluss der Pixelgröße [142]. Werden keine Polarisation und keine
Abtasteffekte berücksichtigt, ist der Specklekontrast nur durch den zeitlichen und räumlichen
Specklekontrast bestimmt,

CS = CSt CSs . (4.3)


Der zeitliche Specklekontrast CSt lässt sich nach der Gleichung 4.4 berechnen [143],

1
CSt = q . (4.4)
4
1 + ( 4σ
lK
z 2
)

Ist die Rauigkeit oder die Eindringtiefe des Volumenstreuersσz kleiner als die Kohärenzlänge
lK und noch nicht viel kleiner als die mittlere Wellenlänge, so ergibt sich ein zeitlicher Speck-
lekontrast CSt = 1 [144]. Bei einer polychromatischen Lichtquelle mit kurzer Kohärenzlänge
lK kann der zeitliche Specklekontrast CSt aufgrund der partiellen zeitlichen Kohärenz effektiv
reduziert werden [143].

Eine alternative Methode zur Reduktion des Specklekontrasts ist die partielle räumliche Ko-
härenz. Wenn die Kohärenzzelle deutlich kleiner als die Auflösungszelle gewählt wird, dann
überlagern mehrere unkorrelierte Specklefelder in der Intensität. Wie in√[145] experimentell
und theoretisch gezeigt, sinkt der Specklekontrast CSs um den Faktor 1/ NK , wobei NK die
Anzahl der Kohärenzzellen innerhalb einer Auflösungszelle ist. Wie in Gleichung 4.5 angedeu-
tet, ist der räumliche Specklekontrast CSs abhängig vom Verhältnis zwischen dK (Durchmesser
von Kohärenzzelle) und dA (Durchmesser von Auflösungszelle),

dK
CSs = min(1, ). (4.5)
dA
In Abbildung 4.4 ist der Specklekontrast CS von jeweils beugungsbegrenzter WLI, KM und
SIM mit Hilfe der Gleichungen 4.3, 4.4 und 4.5 in Abhängigkeit von der auf die Wellenlänge
normierten Oberflächenrauigkeit σz /λ dargestellt. Da technische Oberflächen eine Rauigkeit
von einigen Zehnteln bis einigen Mikrometern (1σ) aufweisen, ist der Bereich zwischen 0 und
10 relevant. Daraus wird ersichtlich, dass KM aufgrund der hohen räumlichen Kohärenz bei
identischer Beleuchtungs- und Beobachtungsapertur einen Specklekontrast doppelt so groß wie
WLI und SIM zeigt. Für größere Auflösungszellen bleibt der Specklekontrast bei KM unverän-
dert, während der Specklekontrast von WLI und SIM invers zur Größe ihrer Auflösungszelle
kleiner wird. Wird eine Punktlichtquelle bei KM eingesetzt, ist KM Im Vergleich zu WLI und
SIM bei zunehmender Auflösungszelle (z. B. beim makroskopischen optischen System) mehr
anfällig für Speckle.

Aus messtechnischer Sicht sind bei den genannten drei Messverfahren unterschiedliche Regeln
bezüglich Speckle zu beachten. Für die Entstehung des WLI-Signals ist Kohärenz notwendig.
Da bei WLI eine große Signalstärke von WLI einen großen Specklekontrast erfordert, muss die
Beleuchtungsapertur kleiner als die Bobachtungsapertur gewählt werden. KM mit punktuel-
ler Lichtquelle ist zwangsweise räumlich kohärent und führt bei kleiner Beobachtungsapertur
unerwünscht zu großem Specklekontrast. Eine effektive Methode zu Speckleminderung ist üb-
rigens, die Beobachtungsauflösung so lange zu verbessern, bis die Oberflächenrauigkeit lateral
4.2 Messtechnische Eigenschaften 43

sinu Bel = sinuBeo sinu Bel = 2sinu Beo

1 Interessanter Bereich WLI


KM
1 Interessanter Bereich WLI
KM
SIM SIM

0.8 0.8
Specklekontrast CS

Specklekontrast CS
0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 60 70 80 90 100

Normierte Oberflächenrauigkeit sz/l Normierte Oberflächenrauigkeit sz/l

(a) Gleiche Beleuchtungs- und Beobachtungsapertur (b) 2x größere Beobachtungsapertur


sinu Bel = 4sinu Beo sinu Bel = 8sinu Beo
WLI
1 Interessanter Bereich WLI
KM
1
Interessanter Bereich KM
SIM SIM

0.8 0.8
Specklekontrast CS
Specklekontrast CS

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 60 70 80 90 100

Normierte Oberflächenrauigkeit sz/l Normierte Oberflächenrauigkeit sz/l

(c) 4x größere Beobachtungsapertur (d) 8x größere Beobachtungsapertur

Abbildung 4.4: Abhängigkeit des Specklekontrasts CS von der Oberflächenrauheit und Größenverhält-
nis zwischen Kohärenzzelle und Auflösungszelle bei der mittlere Wellenlänge λ̄ = 0.5µm
und der Spektrumbreite △λ = 100nm von einer Weißlicht-LED für WLI, KM und
SIM. Dabei wird beugungsbegrenzte Abbildungsqualität angenommen. Da die techni-
sche Oberfläche typische Rauigkeit um 1µm hat, ist der Bereich σz /λ < 10 interessant.
(Achtung: Bei WLI soll sinuBel < sinuBeo bei Implementierung eingehalten werden, um
höchste Specklekontrast und damit erreichte maximale Signalhöhe zu gewährleisten.).

hinreichend aufgelöst wird. Damit ist die Oberfläche nicht mehr „optisch rau“. SIM nutzt im
Gegensatz zu KM eine räumlich ausgedehnte Lichtquelle, die es ermöglicht, den Specklekon-
trast durch partielle räumlich Kohärenz zu reduzieren. Zusammengefasst: Während WLI einen
großen Specklekontrast für gute Messung erfordert, ist ein kleines Specklerauschen bei KM und
SIM notwendige Voraussetzung um bessere SNR der Höhenmessung zu erreichen.

4.2 Messtechnische Eigenschaften

Im vorherigen Abschnitt wurden die grundlegenden physikalischen Eigenschaften aller drei


Messmethoden diskutiert. Sie dienen als wichtige Grundlagen zum Analysieren und Vergleichen
der messtechnischen Eigenschaften. Für die Bewertung der Leistungsfähigkeit eines optischen
3D-Sensors sind vier messtechnische Eigenschaften von großem Interesse:

– Genauigkeit eines Messsystems besteht aus Präzision (statistische Fehler) und Richtigkeit
(systematische Fehler).
44 4 Vergleich von WLI, KM und SIM

– Laterale Auflösung gibt die kleinste laterale Größe einer detektierbaren Höhenänderung
an.

– Messgeschwindigkeit charakterisiert die Anzahl der akquirierbaren 3D-Punkte pro Sekun-


de.

– Winkeldynamik definiert quantitativ die Messbarkeit bei stark gekippten und gekrümm-
ten Oberflächen.

4.2.1 Präzision
Als ein wichtiges Kriterium zur Bewertung der Leistungsfähigkeit eines 3D-Sensors muss
dessen Genauigkeit betrachtet werden, die die Abweichung zwischen der gemessenen Größe
und der tatsächlichen Größe beschreibt. Als ein Bestandteil der Genauigkeit charakterisiert
die Präzision die statistischen Fehler der Messergebnisse. In einem Messinstrument weichen
aufgrund der Rauschquellen die zeitlich bzw. räumlich wiederholt aufgenommenen Messwerte
immer voneinander ab. Je größer diese Abweichungen sind, desto niedriger ist die Messauflö-
sung, die die kleinste detektierbare Änderung der zu messenden physikalischen definiert. In
[146] wird sie als Ähnlichkeit zwischen den Messungen, die unabhängig voneinander unter
festgelegten Bedingungen wiederholt aufgenommen werden, definiert. In dieser Dissertation
wird das räumlich variierende Rauschen für die Bestimmung der Präzision gemessen und
diskutiert. Bei KM, SIM und WLI hängt die Präzision von drei Aspekten ab.

– Der erste sind die Rauschquellen, die als Ursachen der fluktuierenden Höhenwerte dienen.
In der Praxis gibt es grundsätzlich vier Typen von Rauschquellen für optische Sensoren:
Photonenrauschen, Speckle, Kamerarauschen und Motorenrauschen. Unter diesen sind
die ersten zwei Rauschquellen fundamental und limitieren die untere Grenze der erreich-
baren Präzision. Deshalb werden nur Photonenrauschen und Speckle berücksichtigt und
diskutiert. Auf optisch spiegelnden Oberflächen dominiert das Photonenrauschen, wobei
das SNR des Intensitätsrauschens durch die Anzahl der Photonen festgelegt wird. Falls
die Oberflächen optisch rau sind und die Mikrostrukturen nicht vom Objektiv aufgelöst
werden, wirkt stattdessen das Specklerauschen (auch als kohärentes Rauschen genannt)
als die stärkste Rauschquelle.

– Der zweite Einflussfaktor ist die Signalform. Da die Signale von KM und SIM sowie die
Einhüllende von WLI alle mit einer Gaußfunktion angenähert werden können, werden
deren Funktionsmaxima häufig mittels Ausgleichsrechnung bestimmt. Aufgrund des
Intensitätsrauschens können die Höhen nicht mit beliebig kleiner Unsicherheit bestimmt
werden. Bei Anwenden numerischer Algorithmen wird sich das Rauschen in das Höhen-
rauschen der Endergebnisse fortpflanzen. Qualitativ gesehen, sobald das Rauschen an
unterschiedlichen Tiefenpositionen komplett unkorreliert ist, hängt die Höhenmessun-
sicherheit von der Signalbreite und der Signalhöhe ab. In [138] wird die theoretische
Untergrenze der Fehlerfortpflanzung quantitativ von Laboureux untersucht. Wird der
theoretisch optimale Algorithmus „Matched Filter“ [147] zur Höhenberechnung eingesetzt,
hängt das Höhenrauschen nach der Gleichung 4.6, neben der spektralen Leistungsdichte
N0 des Rauschens und der gesamten Länge des Datenbereichs ∆T , umgekehrt von der
Krümmung κ0 des Signalmaximums ab,
4.2 Messtechnische Eigenschaften 45

1/2
N0
δz = q . (4.6)
1 3/2
12 κ0 ∆T

– Allerdings verliert diese Theorie ihre Gültigkeit, wenn das Intensitätsrauschen oder das
Kontrastrauschen bei unterschiedlichen Höhenpositionen korreliert sind. Deshalb spielt
die Korrelation zwischen den Tiefensignalen an jedem festen Beobachtungsort auch eine
wichtige Rolle. Während das Schrotrauschen3 auf optisch glatten Oberflächen an allen
Tiefenpositionen unkorreliert ist, müssen beim Specklerauschen auf rauen Oberflächen
die Korrelationen jeweils betrachtet werden.

Während sich die Höhenmessunsicherheit von WLI, KM und SIM auf spiegelnden Oberflächen
über die Signalform und das SNR des Schrotrauschens mittels Laboureuxs Theorie eindeutig
vorhersagen lässt, ist dies auf rauen Oberflächen ohne Information über die Korrelation der
Speckle nicht möglich. Um die Korrelation der Speckle auf rauen Oberflächen verstehen zu
können, müssen wir ihren Ursprung - die statistische Vielstrahlinterferenz - bei unterschied-
lichen Tiefenpositionen genau betrachten. Dabei sind zwei Begriffe wichtig: Der eine ist die
Kohärenzzelle, innerhalb der sich die reflektierten Elementarwellen miteinander auf dem De-
tektor aufeinander in Amplituden überlagern können. Der andere ist die Auflösungszelle, aus
der die reflektierten Wellen zum Intensitätswert an einem Punkt in der Beobachtungsebene
beitragen können.

WLI : Eine optimale Beleuchtungsapertur bei WLI muss so gewählt werden, dass die Kohärenz-
zelle hinreichend größer wie der in den Objektraum abgebildete Kamerapixel ist. Eine zu große
Beleuchtungsapertur führt wegen der räumlichen partiellen Kohärenz zu einer schlechteren
Korrelogrammsvisibilität, und im schlimmsten Fall zu gar keinem sichtbaren Korrelogramm.
Bei makroskopischer WLI ist die typische Beleuchtungs- und Beobachtungsapertur kleiner als
0,05, wobei die entsprechende Schärfentiefe größer als 200 µm ist. Da die Schärfentiefe bei fast
allen makroskopischen WLI-Geräten (bei mikroskopischen WLI allerdings nicht) größer als die
Kohärenzlänge ist, ist das Specklefeld bei jeder Tiefenposition innerhalb der Kohärenzlänge
unverändert und komplett zueinander korreliert. Diese vollständige Korrelation des Specklerau-
schens im Tiefensignal ist der Grund, warum die Messunsicherheit nicht mehr stark von der
Signalform abhängt. Wie in [148] mit Speckle-Statistik theoretisch und experimentell gezeigt,
hängt die Präzision von WLI auf rauen Oberflächen ausschließlich von der Oberflächenrauigkeit
ab.

KM : Sobald Rauigkeit nicht vom Objektiv aufgelöst wird, können aufgrund der räumlich
kohärenten Beleuchtung von KM alle aus der Auflösungszelle stammenden elementaren Wellen
auf dem Detektor miteinander interferieren. Die beobachtete Intensität wird durch die nach
dem „Random Walk“ in der komplexen Ebene aufeinander addierten Phasoren bestimmt. Da
während der Defokussierung immer neue Phasoren zur beobachteten Intensität an derselben
Stelle auf dem Detektor beitragen, ändert sich das Specklemuster ständig. Dadurch dekorre-
lieren die Speckle bei unterschiedlichen Tiefenpositionen auf der Intensitätskurve. Aufgrund
der Dekorrelation ist die Höhenunsicherheit bei der Höhenauswertung mit der Signalform
gekoppelt und die Präzision kann mit Laboureuxs Theorie [138] beschrieben werden.

3
Schrotrauschen wird in dieser Arbeit als Anonym von Photonenrauschen verwendet.
46 4 Vergleich von WLI, KM und SIM

optisch glatt
Rauschquelle Signalgeometrie Korrelation Präzision

lK
WLI Schrotrauschen Kohärenzlänge unkorreliert ∝ √
nphoton

1
KM Schrotrauschen Objektivapertur unkorreliert ∝ √
nphoton sin2 u

1
SIM Schrotrauschen Objektivapertur unkorreliert ∝ √
nphoton sin2 u

optisch rau
Rauschquelle Geometrie Korrelation Präzision

WLI Speckle kein Einfluss vollständig korreliert (Makro-WLI) ∝ σz

CS
KM Speckle Objektivapertur partiell korreliert oder unkorreliert ∝ sin2 u

CS
SIM Speckle Objektivapertur partiell korreliert ∝ sin2 u

Tabelle 4.4: Vergleich zwischen den Präzisionseinflussfaktoren bei Makro-WLI, KM und SIM.

SIM: die Specklecharakteristik von SIM verhält sich bei Defokussierung anders als bei den
vorher genannten Alternativen. Da das Sinusmuster mit einer räumlich partiell kohärenten
Lichtquelle projiziert wird, ist die Kohärenzzelle nach der Gleichung 4.2 halb so groß wie die
PSF des Beobachtungsobjektives. Wird das Unschärfenscheibchen bei defokussierter Position
deutlich größer als die Kohärenzzelle, werden mehrere unabhängige Specklemuster auf dem
Detektor inkohärent aufeinander gemittelt. Dies führt einerseits zur Reduzierung des Speck-
lekontrastes und anderseits zur partiellen Dekorrelation zwischen den Specklerauschen des
Kontrastsignals an unterschiedlichen Tiefenpositionen. Da die Dekorrelation an der Flanke der
Kontrastkurve viel stärker als am Kurvenmaximum und die Kontrastwerte an der Flanke mehr
Gewicht bei Bestimmung der Maximumlage hat, kann die Präzision von SIM näherungsweise
auch mit der Theorie von Laboureux [138] beschrieben werden.

In der Tabelle 4.4 werden die Einflussfaktoren für die Präzision (der räumlichen Wiederho-
lungsmessungen) von Makro-WLI, KM und SIM jeweils auf optisch spiegelnden und rauen
Oberflächen aufgelistet. Dabei werden die technischen Einflüsse wie Kamerarauschen und
Motorrauschen vernachlässigt.

Auf optisch spiegelnden Oberflächen dominiert das unkorrelierte Schrotrauschen. Dabei ist das
Höhenrauschen δz mit der Signalform und Anzahl der Photonen gekoppelt (siehe Gleichung
4.6). Wärend das Höhenrauschen bei KM und SIM umgekehrt quadratisch proportional zur
Objektivapertur sinu ist, kann man die Messunsicherheit bei WLI durch Reduzierung der Ko-
härenzlänge einstellen [149, 150]. Eine detaillierte Untersuchung der Präzision auf spiegelnden
Oberflächen bei SIM wird im Abschnitt 6.1 durchgeführt.

Falls die Oberflächen optisch rau sind und die Rauigkeit nicht vom Objektiv aufgelöst wird,
wird stattdessen Specklerauschen die dominierende Rauschquelle. Bei makroskopischer WLI
zeigt sich in [148] eine überraschende Eigenschaft: das Höhenrauschen ist nicht mehr von der
Signalform bzw. der Objektivapertur, sondern hauptsächlich von der Oberflächenrauigkeit ab-
hängig. Bei KM und SIM hängt das Höhenrauschen vom Specklekontrast CS und der Objekti-
4.2 Messtechnische Eigenschaften 47

vapertur wie 1/sin2 u ab. Eine genauere quantitative Betrachtung findet sich auch in Abschnitt
6.1.

4.2.2 Richtigkeit

Als weiterer Bestandteil der Genauigkeit dient die Richtigkeit. Sie beschreibt die systemati-
schen Fehler im gesamten Messsystem. In [146] wird sie als die Abweichung zwischen dem
Erwartungswert von mehrmals wiederholten Messungen und dem wahren Wert definiert. Wä-
rend die Präzision die kleinste detektierbare Änderung der zumessenden Größe charakterisiert,
legt die Richtigkeit fest, inwieweit der Erwartungswert der Messergebnisse mit der wahren
Zielgröße übereinstimmt. Zur Reduzierung der systematischen Fehler müssen die Fehlerquellen
identifiziert und deren Entstehungsmechanismus verstanden werden. Auf diesem Weg kann
eine geeignete Kalibrierungsmethode erarbeitet werden. In diesem Abschnitt werden folgende
vier Arten von systematischen Fehlern bei WLI, KM und SIM diskutiert.

Auslesefehler: Der Auslesefehler kommt bei 3D-Sensoren zustande, wenn die verwendeten
numerischen Auswertalgorithmen von ihrem physikalischen Modell abweichen.

Umgebungsfehler: Umgebungseinflüsse, z. B. in Form von Temperaturschwankung und Schwin-


gung, können auch stark die Messrichtigkeit beeinträchtigen. In der Praxis können sie durch
bessere Technologie (z.B. wie durch klimatisiertes Raum, luftgelagerten Tisch oder Verwendung
von besseren Materialien) minimiert werden.

Instrumentenfehler: Die Instrumenten fehler sind meistens auf unperfekte Bauteile im Mess-
system zurückzuführen. Bei WLI spielt die Ebenheit des Referenzspiegels eine entscheidende
Rolle. Bei KM und SIM hängt die Richtigkeit sowohl von der Bildfeldwölbung des Objektives
als auch von der Ebenheit von Display und Detektor ab. Des Weiteren ist die Richtigkeit
des Linearmotors auch bei allen drei Messverfahren ein entscheidender Faktor. Da solche
instrumentbedingten systematischen Fehler meistens wiederholbar sind, können sie mit den
standardisierten Methoden [151, 152] kalibriert werden.

Objektabhängige Fehler : Während die drei oben erwähnten Fehlerquellen leicht zu korrigieren
sind, kann der durch das Objekt verursachte systematische Fehler nur schwer kompensiert
werden, da die zu messenden Objekte meist unbekannt sind. Deshalb sind solche Fehler für
optische Sensoren am problematischsten und limitieren deren Richtigkeit. Die drei üblichsten
objektbedingten Fehler werden nun diskutiert:

– „Bat-Wing“-Fehler : Ein exemplarisches Beispiel dieses Fehlertypes ist bei der Messung
einer scharfen Kante mittels WLI zu finden [153]. Ist die Höhe der Kante kürzer als die
Kohärenzlänge der Lichtquelle, wird die Einhüllende der Korrelogramme im Übergangs-
bereich (von höherer Fläche zu niedrigerer Fläche) so verformt, dass starke „Bat-Wing“-
förmige Überhöhungen und Vertiefungen an der Stelle der Kante auf der Höhenkarte ent-
stehen. Je schlechter die laterale Auflösung des Objektives oder je kürzer die Wellenlänge
der Lichtquelle sind, desto stärker wird dieses Artefakt. Diese Artefakte existieren auch
bei KM und SIM. Sie sind auf die Streuung an der scharfen Kante zurückzuführen. Bei
WLI kann man auf optisch glatten Oberflächen mit Phasenauswertung diese Artefakte
vermeiden. Allerdings für WLI (zur Messung optischer rauen Oberflächen) und im Allge-
meinen für KM und SIM gibt es keine effektive physikalische Maßnahme zur Reduzierung
48 4 Vergleich von WLI, KM und SIM

dieser Artefakte. Aus diesem Grund werden sie üblicherweise durch Signalverarbeitung
mit geeigneten Filtern unterdrückt.

– „Cat’s-Eye“-Fehler : Dieser Fehlertyp kommt bei Messung von stark gekrümmten spie-
gelnden Oberflächen mit KM und SIM zustande. Ist die Mikrotopografie sphärisch und
der Radius kleiner als die Kurvenbreite des Signals, wird das Signal durch den zweiten in
der Cat’s-Eye-Position entstandenen Fokus verformt. Dadurch können starke Artefakte
auf der Höhenkarte verursacht werden.

– Retrace-Fehler : Retrace-Fehler ist eine bekannte, schwer kalibrierbare Fehlerquelle bei


der Interferometrie auf spiegelnden Oberflächen [154], die bei einem aberrationsbehafte-
ten Objektiv aufgrund der unterschiedlich zurücklegten optischen Wegen entstehen. Bei
WLI ist der Retrace-Fehler so groß mit ähnlicher Größenordnung wie die Wellenaber-
ration, die bei kommerziellen Systemen aufgrund ihrer kleinen Apertur eine Größe von
Bruchteil der Wellenlänge hat. Allerdings, für KM und SIM, bei denen eine große Aper-
tur für eine bessere Präzision notwendig ist, verurscht der Retrace-Fehler Wanderung des
Fokuspunktes und der Wanderungsabstand skaliert sowohl mit der Brennweite als auch
mit dem Aperturwinkel. Nimmt die Neigung der zu messenden spiegelnden Oberfläche
zu, werden reflektierte Photonen durch die Objektivapertur teilweise blockiert. Damit
verkleinert sich die effektive Apertur und die Richtung des Hauptstrahls verändert sich.
Die Variation der effektive Apertur führt in Gegenwart von Aberration (z.B. sphärische
Aberration) zur Verschiebung der Fokusposition. Dieser Fehlertyp ist bei mangelndem
A-Priori-Wissen über die Oberflächenneigungen schwer zu kompensieren.

In der Tabelle 4.5 werden alle objektbedingten Fehler den Messmethoden zugeordnet. Während
die „Bat-Wing“- und „Cat’s-Eye“-Fehler meistens nur innerhalb kleiner Bereiche vorhanden
sind, ist der Retrace-Fehler eine kritische Fehlerquelle, weil dieser vollflächig und nicht durch
Bildverarbeitung kompensierbar ist. Eine genaue Diskussion der Retrace-Fehler bei SIM wird
in 6.2 durchgeführt.

„Bat-Wing“-Fehler „Cat’s-Eye“-Fehler Retrace-Fehler


WLI ja nein ja

KM ja ja ja

SIM ja ja ja

Tabelle 4.5: Objektbedingte systematische Fehler bei WLI, KM und SIM. „Cat’s-Eye“-Fehler und
Retrace-Fehler existieren nur auf spiegelnden Oberflächen.

4.2.3 Laterale Auflösung

In der 2D-Bildgebung wird die laterale Auflösung durch die MTF-Funktion des optischen Sys-
tems charakterisiert. Sie definiert quantitativ, wie nahe sich zwei Punkte in der Objektebene
einander annähern dürfen, damit sie mit ausreichendem Kontrast im Bild noch voneinander
unterscheidbar sind. Für 3D-Sensoren kann in ähnlicher Weise das dreidimensionale laterale
Auflösungsvermögen durch eine in der VDI-Richtlinie 2655 beschriebene Quasi-3D-MTF [152]
charakterisiert werden. Damit kann man quantitativ bei einem 3D-Sensor beurteilen, wie groß
der kleinste auflösbare Abstand zwischen zwei sehr nah aneinander liegenden Stufen ist. In
4.2 Messtechnische Eigenschaften 49

Tabelle 4.6 werden die dreidimensionalen lateralen Auflösungsvermögen bei den drei Messver-
fahren miteinander verglichen. Als Bezugsgröße wird die Grenzfrequenz νGrenz der OTF bei
einem inkohärenten optischen System verwendet.

Grenzfrequenz der 3D lateralen Auflösung


WLI ≈ 0.5υGrenz

KM / 2υGrenz

SIM ≈ 2νGitter ≦ νGrenz

Tabelle 4.6: 3D laterale Auflösung von WLI, KM und SIM (νGrenz : Grenzfrequenz der inkohärenten
beugungsbegrenzten OTF, νGitter : Gitterfrequenz des projizierten Sinusmusters).

WLI : Bei WLI treffen sich alle vom Objekt innerhalb der Auflösungszelle zurückreflektierten
Lichtwellen an einem festen Ort in der Bildebene. Dort können die Objektwellen die aus der
Kohärenzzelle stammen mit den an demselben Ort eingetroffenen Referenzwellen interferie-
ren. Aufgrund der kohärente Abbildung ist die Grenzfrequenz von WLI halb so groß wie bei
einem inkohärenten System [155]. Die laterale Auflösung ist etwa wie die mittlere Specklegröße.

KM : KM ist eine sehr nützliche Technologie für die mikroskopische Bildgebung von biologi-
schen Proben. Sie ist mit ihrer hohen lateralen und longitudinalen Auflösung und inhärenten
Fähigkeit zum Unterdrücken des Hintergrundlichts über die klassischen Hellfeldmikroskopie
ausgezeichnet. Da das Licht bei Beleuchtung und Beobachtung zweimal durch ein kleines
Pinhole in der Zwischenbildebene geht, entspricht die effektive Amplituden-PSF des gesamten
optischen Systems auf der Objektebene der quadrierten Amplituden-PSF des Beleuchtungs-
arms (angenommen: Beleuchtungsarm und Beobachtungsarm verwenden dieselbe Optik). Aus √
den Literaturen [108, 109] wird berichtet, dass KM über eine Superauflösung mit Faktor 2
besser als ein inkohärentes beugungsbegrenztes System verfügt. Theoretisch soll diese Aussage
nur bei Beobachtung der mit KM angeregten Fluoreszenz z. B. auf biologischen Proben gelten.
Auf reflektiven Oberflächen ist eine niedriger Grenzfrequenz zu erwarten.

SIM : Bei SIM wird der Kontrast eines projizierten periodischen Musters beobachtet, während
Defokussierung durch Bewegung des Messobjektes im gesamten optischen System induziert
wird. Statt im Ortsraum (wie bei KM) wird dabei die Übertragungsfunktion eines defokussie-
renden optischen Systems an einer Streifenfrequenz im Fourierraum gemessen. Damit kann man
die Defokussierungsinformation an allen Objektpunkten gleichzeitig und vollflächig aufnehmen.
Als Nachteil gibt es jedoch ein Übersprechen von einem Messpunkt zu seinem benachbarten
Messpunkt, wenn sich das Objekt in defokussierter Lage befindet. Da man typischerweise die
Daten nur innerhalb der Halbwertsbreite (FWHM) zur Auswertung verwendet, ist der Über-
sprechbereich bei mittleren und niedrigeren Musterfrequenzen (wo die Gitterperiode deutlich
größer als die PSF ist) etwa so groß wie die halbe Gitterperiode. Dadurch ist die effektive 3D
laterale Auflösung äquivalent zur halben Gitterperiode des Sinusmusters. Bei größeren Mus-
terfrequenzen nähert sich die laterale Auflösung die Optikauflösung an. Eine experimentelle
Verifizierung der lateralen Auflösung bei niedrigeren und mittleren Musterfrequenzen wird in
6.3 vorgestellt.

Gegenüber WLI und KM, deren 3D-Grenzfrequenzen durch die 2D-Auflösung der Optik li-
50 4 Vergleich von WLI, KM und SIM

mitiert sind, ist die 3D laterale Auflösung von SIM abhängig von der Musterfrequenz des
projizierten Gitters. Bei der optimalen Musterfrequenz4 (wie im Abschnitt 4.2.1 beschrieben)
ist das 3D Auflösungsvermögen von SIM schlechter als KM und WLI. Eine Optimierung bis
zu der beugungsbegrenzten Auflösung ist möglich durch eine sehr hohe Musterfrequenz, wobei
man allerdings eine verringerte Präzision in Kauf nehmen muss.

4.2.4 Messgeschwindigkeit
Ein sehr wichtiger Aspekt für die in dieser Dissertation vorgestellte Anwendung - In-Line-
Inspektion von Lötbumps - ist die Messgeschwindigkeit des 3D-Sensors, die quantitativ durch
das Orts-Bandbreite-Aufnahmerate-Produkt (OBAP, 3D-Punkte/Sekunde) charakterisiert
werden kann. Zum Erfüllen der Geschwindigkeitsanforderung in zukünftigen Inspektionsma-
schinen müssen ca. 108 3D-Punkte/Sekunde erzielt werden.

Wegen der eingeschränkten Schärfentiefe bei hoher lateraler Auflösung ist das Tiefenscannen
eine unentbehrliche Strategie zur Erweiterung der Höhendynamik. Um ein hohes OBAP bei
scannenden Verfahren zu erzielen, wird einerseits ein großes Messfeld bei fester lateralen
Auflösung angestrebt. Andererseits soll man an möglichst wenigen Tiefenpositionen scannen.
Der Kehrwert der notwendigen Anzahl der Tiefenpositionen wird in dieser Arbeit als Informa-
tionseffizienz ηI bezeichnet [156]. Im Abschnitt 7.1 wird noch darauf eingegangen.

Bei tiefenscannenden Messmethoden wirkt sich die Informationseffizienz η auf die Messge-
schwindigkeit besonders stark aus. In der Tabelle 4.7 werden die Informationseffizienz bei WLI,
KM und SIM für einen punktuellen Tiefenscan gegenübergestellt. Der Anschaulichkeit halber
wird beim Vergleich angenommen, dass die Messtiefe △z gleich der FWHM des Tiefensignals
ist.

Anzahl der Messpunkte Informationseffizienz ηI


4lk λ
WLI λ 4lk

KM 3 33%

SIM 5 20%

Tabelle 4.7: Informationseffizienz ηI von WLI, KM und SIM bei Messtiefe △z = F W HM .

WLI : Bei klassischer WLI ist das Trägersignal des Korrelogramms mit halber Wellenlänge λ/2
moduliert. Um daraus die Höhen fehlerfrei dekodieren zu können, muss das Signal mindestens
mit doppelter Nyquistfrequenz 4/λ abgetastet werden. Um das Korrelogramm innerhalb der
Scantiefe △z = F W HM = lK ausreichend abtasten zu können, sind bei mindestens 4lK /λ
Messpunkte notwendig. Die benötigte Anzahl der Punkte ist sowohl mit der Wellenlänge λ als
auch mit der Kohärenzlänge lK gekoppelt.

KM : Da KM unmittelbar den Intensitätsverlauf während der Defokussierung misst, muss man


nur mit mindestens drei Messpunkten innerhalb der Signalkurve die Intensitätskurve abtasten.

4
Die optimale Gitterfrequenz liegt bei 25% der Grenzfrequent eines inkohärenten Systems.
4.2 Messtechnische Eigenschaften 51

SIM : SIM misst den Kontrast in Fourierraum. Da der Kontrast des inkohärent erzeugten
Sinusmusters nicht direkt messbar ist, wird dieser typischerweise mittels Phasenschiebung
aus mehreren Aufnahmen numerisch berechnet. Ein Sinusmuster hat drei Unbekannte: Phase,
mittlere Intensität und Kontrast. Um den Kontrast eindeutig bestimmen zu können, müssen
mindestens bei 3-Phasen drei Bilder an jeder Tiefenposition und somit insgesamt 9 Bilder
innerhalb der Halbwertsbereite der Kontrastkurve aufgenommen werden. Wenn man das
Vorwissen einbringt, dass die mittlere Intensität und die Phase innerhalb der Kontrastkurve
unverändert bleiben, kann die minimale notwendige Anzahl der Bilder auf 5 reduziert werden.

Aus der Sicht der Informationseffizienz sind KM und SIM jeweils mit 3 und 5 Punkten innerhalb
der halben Signalkurve deutlich effizienter als WLI. Bei einer flächenhaften Messung benötigt
SIM anders als bei KM kein mechanisches laterales Scannen. Dadurch zeigt SIM das größte
Potential, eine höhere Messgeschwindigkeit erzielen zu können.

4.2.5 Winkeldynamik
Die Winkeldynamik eines optischen 3D-Sensors ist hauptsächlich auf optisch blanken Ober-
flächen wichtig, da aufgrund der Streuung optisch raue Objekte innerhalb der Streukeule
unabhängig von der Objektneigung in der Regel gut messbar sind. Die Winkeldynamik
wird als die maximal messbare Oberflächenneigung definiert. Für Messaufgaben mit stark
gekrümmten oder geneigten Oberflächen wie Mikrolinsenarrays und MEMS ist eine hohe
Winkeldynamik eine wichtige Eigenschaft.

Spiegelnde Oberflächen Raue Oberflächen


Einflussfaktor Winkeldynamik Einflussfaktor Winkeldynamik
Pixelgröße △xpix λ Streukeule max. Streuwinkel
WLI ±atan( 2△x P
)
KM Objektivapertur u ±u Streukeule max. Streuwinkel
SIM Objektivapertur u ±u Streukeule max. Streuwinkel

Tabelle 4.8: Winkeldynamik von WLI, KM und SIM.

WLI : Misst man spiegelnde Oberflächen mit WLI, ist der Messmechanismus wie bei der
klassischen Interferometrie. Wird ein Spiegel als Messobjekt aus der Ebene, die senkrecht
zum einfallenden Lichtkegel steht, gekippt, sind Interferenzstreifen sichtbar. Je größer der
Kippwinkel wird, desto dichter werden die Interferenzstreifen. Wird die Periode des Streifens
gleich groß wie die Pixelgröße, sind keine Interferenzstreifen mehr sichtbar. Der maximal
zulässige Kippwinkel lässt sich aus den Tangenten, die aus der Pixelgröße △xP auf der
Objektebene und der halben Wellenlänge λ/2 bestimmt werden, berechnen. Die sich daraus
ergebende Winkeldynamik beträgt ±atan(λ/(2△XP )). Bei einem Objektiv mit Vergrößerung
1 und einem Kamerachip mit Pixelgröße von 5µm ist bei WLI mit einer Weißlicht-LED als
Lichtquelle nur eine Winkeldynamik von ±3◦ erreichbar.

KM : Die Bestimmung der Winkeldynamik bei KM erfolgt durch die geometrische Optik. Dabei
muss man die maximale Grenzneigung der Oberfläche berücksichtigen, bei der die Lichtstrah-
len gerade noch in die Beobachtungsapertur reflektiert werden können. Bei einem typischen
KM-Aufbau, an dem die Beleuchtungsapertur gleich der Beobachtungsapertur ist, sollen
beiden Randstrahlen des einfallenden Lichtkegels betrachtet werden. Bei einem nichtgekippten
ebenen Spiegel wird der Randstrahl beispielsweise vom linken Rand der Beleuchtungsapertur
52 4 Vergleich von WLI, KM und SIM

symmetrisch zur Spiegelnormalen reflektiert und trifft danach den rechten Rand der Beoba-
chungsapertur. Wird der Spiegel um einen Winkel α gekippt, werden alle reflektierten Strahlen
in die gleiche Richtung um den Winkel 2α gekippt. Bei dem maximalen Kippwinkel α = u
können keine Lichtstrahlen nach der Reflexion vom Objektiv aufgefangen werden. Somit
wird die Winkeldynamik von KM auf spiegelnden Oberflächen durch die Objektivapertur ±u
eingeschränkt.

SIM : Da SIM wie bei KM gleiche Anordnung der Abbildungsoptik hat, folgt die Bestimmung
der Winkeldynamik bei SIM dem gleichen Mechanismus, weshalb deren Winkeldynamik eben-
falls ±u entspricht. Allerdings mit einem Unterschied: Während die Winkeldynamik bei KM
unabhängig von der Kipprichtung ist, ist die Winkeldynamik von SIM anisotropisch d. h. mit
der Streifenorientierung des projizierten Musters gekoppelt. Eine genaue Erklärung findet sich
im Abschnitt 6.4.

Auf rauen Oberflächen hängt die Winkeldynamik von allen drei Methoden lediglich von der
Streueigenschaft des Objekts ab. Durch Streukeule wird die gestreute Intensität in Abhängig-
keit vom Beobachtungswinkel zum Oberflächennormal charakterisiert. Die maximal zulässige
Oberflächenneigung wird durch den maximalen Winkel der Streukeule limitiert.

4.3 Zusammenfassung und Diskussion

In diesem Kapitel werden WLI, KM und SIM auf der physikalischen wie der messtechnischen
Ebene verglichen. Die daraus extrahierten Erkenntnisse dienen dem Sensorentwickler und
-anwender als Grundlage, die Vorteile und Nachteile zu identifizieren sowie die damit zusam-
menhängenden physikalischen Ursachen zu verstehen.

Auf der physikalischen Ebene wurden vier wichtige physikalische Eigenschaften eines Mess-
instruments - Referenz und Maßverkörperung, Messwert und Zielgröße, Einflussfaktoren auf
Signalform sowie Speckle - diskutiert.

Referenz und Maßverkörperung: Die Referenz ist bei WLI, KM und SIM in unterschiedlichen
Gegenständen implementiert. Bei WLI wird das Messobjekt mit dem Referenzspiegel ver-
glichen. Anders als bei WLI, dient bei KM und SIM die Fokusebene des Objektivs als die
Referenz. Um die Messwerte in die Zielgröße - Objekthöhe - umzuwandeln, wird das gleiche
Maßverkörperung bei allen drei Verfahren eingesetzt. Ein intern eingebauter Encoder des
linearen Motors liefert die Positionsdaten für alle aufgenommen Messwerte, mit denen die
Höhenauswertung erfolgen kann.

Messwert und Zielgröße: Der Entstehungsmechanismus der Messwerte von WLI basiert auf
der Interferenz zwischen Objektwellen und Referenzwellen. Der Messwert - das Korrelogramm
- bei WLI ist äquivalent zu dem Realteil der zeitlichen Kohärenzfunktion der eingesetzten
Lichtquelle. Die Messwerte bei KM und SIM sind jeweils die Intensitätskurve und die Kon-
trastskurve. Allerdings sind die Entstehungsmechanismen auf dieselbe Ursache - Fokusvariation
einer Abbildung - zurückzuführen. Die Zielgrößen - Abstand - sind bei allen gleich.
4.3 Zusammenfassung und Diskussion 53

Einflussfaktoren auf Signalform: Die Signalform zeigt bei den jeweiligen Messmethoden
unterschiedliche Parameterabhängigkeiten. Bei WLI werden die Höhe und die Breite des
Korrelogramms durch das Amplitudenverhältnis zwischen Objekt- und Referenzwellen und
die Bereite des Lichtspektrums bestimmt. Bei KM und SIM wird die Kurvengeometrie von
der Objektivapertur maßgeblich beeinflusst. Außerdem lässt sich die Kurvengeometrie auch
jeweils durch Veränderung der Pinholegröße bei KM und der Streifenfrequenz bei SIM variieren.

Speckle: Speckle spielt bei WLI eine andere Rolle als bei SIM und KM. Speckle limitiert bei
WLI und KM als die dominierende Rauschquelle die Präzision auf rauen Oberflächen. Speckle
trägt aber bei WLI auch zur Signalentstehung bei. Bei WLI soll hohe räumliche Kohärenz
generiert werden, um Speckle mit großem Kontrast zu erzeugen. Während SIM mit zeitlich
und räumlich partiell kohärenter Beleuchtung weniger kohärentes Rauschen hat, leidet KM
aufgrund der kleinen Lichtquelle stark unter Specklerauschen.

Die Unterschiede der physikalischen Eigenschaften haben in der Praxis wichtige Auswirkungen
auf deren messtechnischen Eigenschaften. Die Vor- und Nachteile werden in der Tabelle 4.9
zusammengefasst.

Genauigkeit Laterale Mess- Winkel-


Präzision Richtigkeit Auflösung geschwindigkeit dynamik
spiegelnd rau spiegelnd rau spiegelnd rau
WLI ++ + ++ + + - - +

KM + - - + + 0 + +

SIM + 0 - + - + + +

Tabelle 4.9: Vergleich der messtechnischen Eigenschaften bei WLI, KM und SIM.

WLI kann mit einer hohen Genauigkeit optisch raue und spiegelnde Objekte unabhängig von
der NA des Objektivs und dem Arbeitsabstand messen. Auf spiegelnden Oberflächen ist eine
Präzision von Sub-Nanometern möglich und auf rauen Oberflächen ist eine Präzision etwa so
groß wie die Rauigkeit möglich. Ist die Objektivapertur bei WLI klein, wird die Richtigkeit
von WLI wenig von den Objektivaberrationen beeinflusst und in der Praxis ist die Richtigkeit
hauptsächlich durch die Genauigkeit des Referenzspiegels und des Linearmotors eingeschränkt.
Die laterale Auflösung ist gleich der Specklegröße. Der größte Nachteil ist, dass das axiale
Scannen bei WLI aufgrund der komplizierten Signalform sehr langsam ist. Außerdem ist die
Winkeldynamik auf spiegelnden Oberflächen häufig sehr begrenzt, weil die eingeschränkte
Pixelgröße die feinen Interferenzstreifen bei großer Oberflächenneigung nicht mehr auflösen
kann.

KM verfügt nur über eine hohe Präzision auf allen Oberflächentypen, wenn das verwendete
Objektiv eine große NA hat und die Mikrostruktur des Messobjekts auflösen kann. Für optisch
raue Objekte leidet KM stark unter Specklerauschen insbesondere bei kleiner NA. Eine hohe
Richtigkeit ist bei KM besonders schwierig zu erreichen, wenn Aberrationen im Objektiv mit
großer NA vorhanden sind. Als Vorteil verfügt KM über eine laterale Auflösung wie das Ob-
jektiv und eine nur durch die Objektivapertur limitierte isotrope Winkeldynamik. Das axiale
Scannen bei KM ist effizient und schnell. Allerdings ist eine schnelle flächenhafte Messung nur
54 4 Vergleich von WLI, KM und SIM

bedingt realisierbar, weil ein laterales Scannen notwendig ist.

SIM erzielt genauso wie KM bei hoher NA und hoher lateraler Auflösung eine hohe Präzision.
Im Gegensatz zu KM verfügt SIM allerdings über eine bessere Präzision auf rauen Oberflächen,
weil das räumlich partielle Beleuchtung zum geringerem Specklerauschen führt. Genauso wie
bei KM führen die Objektivaberrationen zu einer schlechten Richtigkeit auch bei SIM. SIM hat
eine hohe Winkeldynamik, die durch die NA des Objektivs limitiert ist allerdings abhängig von
der Richtung des projizierten Sinusmusters ist. Im Vergleich zu den anderen zwei Methoden
zeichnet sich SIM besonders durch das große Potential aus, eine hohe Messgeschwindigkeit
erreichen zu können. Sowohl ein effizientes axiales Scannen als auch eine inhärent vollflächige
Messung sind bei SIM möglich. Als Nachteil ist die laterale Auflösung von SIM zu nennen. Sie
nimmt mit abnehmender Frequenz des projizierten Sinusmusters ab.

Wichtig ist der geringe technische Aufwand bei Realisierung einer hohen Messgeschwindigkeit
bei SIM. Diese Eigenschaften machen SIM zu einer interessanten Alternative für die In-Line-
Inspektion von Lötbumps.
55

5 Theoretische Modellierung der Signalentstehung von SIM

Im vorherigen Kapitel wurde vorgestellt, dass die Präzision und die Messgeschwindigkeit bei
SIM stark von der Signalform abhängen. Während eine breitere Kontrastkurve für eine schnelle
Messung vorteilhaft ist, wird sie gleichzeitig jedoch eine schlechtere Präzision bei der Höhen-
berechnung verursachen. Um die SIM-Sensoren optimal und effizient zu konzipieren, muss man
den Zusammenhang zwischen Signalform und Sensorparametern kennen. In diesem Kapitel wer-
den theoretische Modelle der Signalentstehung diskutiert, mit denen man in Abhängigkeit von
den Sensorparametern und der Oberflächenbeschaffenheit (rau oder spiegelnd) die Kontrast-
kurve von SIM berechnen kann. Dabei ist zwischen analytischen und numerischen Methoden
zu unterscheiden. Mit dem analytischen Modell lässt sich die Kontrastkurve eines beugungsbe-
grenzten Systems in geschlossener Form beschreiben. Mit der numerischen Methode lässt sich
die Kontrastkurve eines aberrationsbehafteten Systems im Rechner simulieren.

5.1 Wellenoptisches Modell eines inkohärenten abbildenden Systems

SIM ist ein aktiv fokussuchendes Messprinzip, das in einem abbildenden optischen System
implementiert wird. Um dies zu beschreiben, soll das Modell sowohl die Modellierung des
optischen Systems als auch die Wechselwirkung zwischen dem Objekt und dem optischen
System umfassen. In diesem Abschnitt wird zuerst ein etabliertes wellenoptisches Modell [70]
zur Berechnung des Kontrastes im Fokus eines abbildenden optischen Systems vorgestellt. An-
schließend wird das Modell durch Einbeziehung der Defokussierung des Messobjekts erweitert,
wobei die raue und spiegelnde Oberflächenbeschaffenheiten berücksichtigt werden. Mit diesem
erweiterten Modell lässt sich ein idealer SIM-Aufbau vollständig mathematisch beschreiben.

Bildebene Austrittspupille Eintrittspupille Objektebene

‘ y‘ y 

‘ x‘ x 

zf‘ zf

Abbildung 5.1: Generalisiertes Modell eines abbildenden Systems

Wie in Abbildung 5.1 dargestellt, kann man jedes abbildende System durch eine einfache
geometrische Konfiguration generalisieren: Das komplexe Linsensystem, das einen Punkt von
der Objektebene auf die Bildebene abbildet, wird durch ein „optisches System“ repräsentiert.
Dies besteht aus einer Eintrittspupille und einer Austrittspupille, die jeweils die sphärische
Wellenfront aus der Objektebene und zur Bildebene begrenzen.
56 5 Theoretische Modellierung der Signalentstehung von SIM

In der Fourieroptik wird ein optisches System als lineares verschiebungsinvariantes System vor-
ausgesetzt. Kennt man die Impulsantwort vom optischen System und das Eingangssignal, kann
man das Ausgangssignal durch Faltung zwischen dem Eingangssignal und der Impulsantwort
berechnen. Bei SIM ist das Lichtfeld eines perfekten Punktbildes als hI (η, ξ) bezeichnet. Da
das projizierte Sinusmuster IE (η, ξ) in SIM inkohärent erzeugt wird, wird die beobachtete In-
tensitätsverteilung IA (η, ξ) durch die Faltung der Intensität des Eingangssignals IE (η, ξ) mit
dem | hI (η, ξ) |2 [157] berechnet,

IA (η, ξ) = IE (η, ξ)⊗ | hI (η, ξ) |2 . (5.1)


Wenn IA (η, ξ) ein Sinusmuster ist und man IA (η, ξ) (zu GA (ν, µ)) fouriertransformiert, kann der
Kontrast C des beobachteten Sinusmusters IA (η, ξ) nach der Gleichung 5.2 berechnt werden,

GA (ν, µ)
C(ν, µ) = 2 | |, (5.2)
GA (0, 0)
wobei GA die Fouriertransformierte von IA , ν und µ die räumliche Gitterfrequenz in η- und ξ-
Richtung der Obejektebene sind.

Fouriertransformiert man die Gleichung 5.1, erhält man,

GA (ν, µ) = GE (ν, µ)·H(ν, µ), (5.3)


wobei H(ν, µ) die inkohärente OTF des ganzen optischen Systems und die Fouriertransfor-
mierte von | hI (η, ξ) |2 ist.

Wenn man die Gleichung 5.3 in Gleichung 5.2 einsetzt und die Erhaltung der mittleren Inten-
sität (GA (0, 0) = GE (0, 0)) annimmt, erhält man folgenden Ausdruck,

GA (ν, µ) GE (ν, µ)
C(ν, µ) = 2 | |= 2 | H(ν, µ) | . (5.4)
GA (0, 0) GE (0, 0)
Falls der Kontrast des zu projizierenden Eingangssinusmusters IE (η, ξ) in der Bildebene bei
allen Gitterfrequenzen 1 wäre, wird Gleichung 5.4 zu Gleichung 5.5,

C(ν, µ) =| H(ν, µ) | . (5.5)


Dadurch wird gezeigt, dass der Messwert von SIM bei der Gitterfrequenz ν und µ äquivalent
zu der zweidimensionalen MTF | H(ν, µ) | des ganzen optischen Systems ist.

Um die MTF eines optischen Systems zu berechnen, wird die skalare Beugungstheorie verwen-
det. Sobald die Beobachtungsebene in der Nähe der Fokusebene der abbildenden Linse ist und
die Pupillengröße ausreichend größer als die Wellenlänge ist, liefert die skalare Beugungstheorie
trotz der vektoriellen Eigenschaft der elektromagnetischen Wellen eine gute Genauigkeit. Dabei
kann man die Inpulsantwort hI (η, ξ) aufgrund der Eliminierung der quadratischen Phasenter-
me durch die Linsenwirkung mit der Fraunhoferschen Näherung berechnen [158]. Aufgrund des
Fourierzusammenhangs zwischen H(ν, µ) und | hI (η, ξ) |2 kann man die OTF H(ν, µ) durch
die normierte Autokorrelation der Pupillenfunktion P (x, y) darstellen [159],
˜
P (x, y)P (x − λzf ν, y − λzf µ)dxdy
H(ν, µ) = , (5.6)
P 2 (x, y)dxdy
˜
5.1 Wellenoptisches Modell eines inkohärenten abbildenden Systems 57

wobei die reale Pupillenfunktion P (x, y) innerhalb der Eintrittspupille den Wert 1 hat und
außerhalb überall 0 ist.

Bis jetzt wurde die Signalentstehung von SIM nur im Fokus modelliert. Für die Modellierung
der kompletten Kontrastkurve muss das Modell für den Fall der Defokussierung erweitert wer-
den. Bei geometrischer Optik kann man sich die Defokussierung in einem abbildenden System
als Verschiebung des Fokuspunkt entlang der optischen Achse vorstellen. Im wellenoptischen
Modell wird sie als Wellenaberration in der Pupillenfunktion modelliert.

20

zf zd

Abbildung 5.2: Modellierung der Defokussierung in einem abbildenden optischen System

In Abbildung 5.2 wird die durch Fokusverschiebung verursachte Wellenaberration in der Ein-
trittspupille dargestellt. Ist der Defokussierungsabstand zd deutlich kleiner als der Fokusab-
stand zf , gilt die Berechnung des Punktbildes über die Fraunhofersche Näherung weiterhin
[160]. Deshalb kann man die „defokussierte“ OTF H(ν, µ, zd ) mittels der Gleichung 5.6 berech-
nen, wobei die Defokussierungsaberration im Phasenterm der Pupillenfunktion hinzu addiert
werden muss. Wird die optische Weglängendifferenz zwischen nicht aberrierten und defokussier-
ten Wellenfronten am Rand der Eintrittspupille als ω20 bezeichnet, kann die um zd defokussierte
OTF mit den auf dem Pupillenradius r normierten x̄− und ȳ−Koordinanten umformuliert wer-
den,
˜ λz ν λzf µ
PD (x̄, ȳ)PD (x̄ − rf , ȳ − r )dx̄dȳ
H(ν, µ, zd ) = H(ν, µ, ω20 ) = ˜ 2 , (5.7)
PD (x̄, ȳ)dx̄dȳ
wobei x̄ und ȳ die auf Radius normierten Ortskoordinaten (x̄ = x/R, ȳ = y/R) in der Pupil-
lenebene sind. PD (x̄, ȳ) ist die komplexe aberrierte Pupillenfunktion, die das Produkt von der
unaberrierten realen Pupillenfunktion P (x̄, ȳ) und der von Defokussierung abhängigen Aber-
rationsfunktion exp(ikω20 (x̄2 + ȳ 2 )) ist,
2 +ȳ 2 )
¯ 20 ) = P (x̄, ȳ)eikω20 (x̄
PD (x̄, ȳ, zd ) = PD (x̄, y,ω . (5.8)
Die optische Weglängendifferenz ω20 am Puppillenrand hat einen unmittelbaren geometrischen
Zusammenhang mit dem Defokussierungsabstand zd . Sie ist äquivalent zu der Differenz der
58 5 Theoretische Modellierung der Signalentstehung von SIM

Pfeilhöhen von zwei sphärischen Wellenfronten, die jeweils ihre Zentren am ursprünglichen und
verschobenen Fokus haben,

1 R2 R2
ω20 ≈ ( − ). (5.9)
2 zf zf + zd
Wird die Gleichung 5.9 nach zd um zd = 0 Taylor entwickelt und nur der lineare Term beibe-
halten, erhält man,

zd R 2 zd sin2 u
ω20 ≈ 2 ≈ . (5.10)
2zf 2
Setzt man die Gleichung 5.10 in Gleichungen 5.7 und 5.8 ein, erhält man den finalen vom
Defokussierungsabstand zd abhängigen Ausdruck der defokussierten OTF H(ν, µ, zd ),

2 u(x̄2 +ȳ 2 ) λzf ν λzf µ


P (x̄, ȳ)eik0.5zd sin
˜
P (x̄ − R , ȳ − R )×
H(ν, µ, zd ) = ˜ ...
(P (x̄, ȳ)×
2 λzf ν 2 λzf µ 2 (5.11)
e−ik0.5zd sin u((x̄− R ) +(ȳ− R ) ) dx̄dȳ
... .
eik0.5zd sin2 u(x̄2 +ȳ2 ) )2 dx̄dȳ

Die sehr komplizierte Gleichung 5.11 kann in eine kompakte Form dargestellt werden,
D E
λz ν λz µ
PD (x̄, ȳ)PD∗ (x̄ − Rf , ȳ − Rf )
H(ν, µ, zd ) = . (5.12)
PD (x̄, ȳ)PD∗ (x̄, ȳ)
Die Gleichungen 5.11 bzw. 5.12 beschreiben mathematisch vollständig die vom Defokussierungs-
abstand zd abhängige OTF eines aberrationsfreien optischen Systems. Dieses mathematische
Modell bietet eine notwendige Grundlage für weitere Modellierung der Kontrastkurven in einem
SIM-System.

5.2 Kontrastkurve in einem aberrationsfreien System

In einem SIM-System wird das Sinusmuster auf das Objekt projiziert und nach der Reflexion
oder Streuung wieder durch dasselbe optische System1 beobachtet. Wird das Objekt aus der
Fokusebene verschoben, reduziert sich der beobachtete Kontrast des Sinusmusters. Dabei kann
man sich das Objekt als ein Teil des gesamten Systems vorstellen. Durch Verschiebung des
Objekts lässt sich die Fokuslage des gesamten optischen Systems verschieben. Ein mathemati-
sches Modell zur quantitativen Beschreibung dieses Mechanismus wurde bereits im vorherigen
Abschnitt diskutiert. Dieses Modell kann man zum SIM-System erweitern, indem man den
Zusammenhang zwischen dem Objektabstand dM in Bezug zur Fokusebene des Objektives
und dem effektiven Defokussierungsabstand zd des gesamten Systems auf der Objektebene
ermittelt. Dafür muss man zwischen rauen und spiegelnden Oberflächen differenzieren.

Spiegelnde Oberfläche
Um anschaulich das gesamte SIM-System darzustellen, wird die Propagation der Strahlen
des Beleuchtungs- und Beobachtungsarms eines SIM-Systems entfaltet von links nach rechts
1
Dies gilt wenn die Beobachtungs- und Beleuchtungsoptik mit den gleichen oder denselben optischen Kompo-
nenten umgesetzt werden.
5.2 Kontrastkurve in einem aberrationsfreien System 59

dargestellt. In der Abbildung 5.3 werden die Strahlengänge in einem SIM-System bei Mes-
sung spiegelnder Oberflächen illustriert. Liegt das Objekt mit einem Abstand dM außerhalb
der Fokusebene, wird der einfallende Lichtkegel vom Objekt gespiegelt und mit unveränderter
Wellenfront von der Beobachtungsoptik aufgesammelt. Durch die Spiegelung erscheint im Beob-
achtungsarm ein virtuelles Spiegelbild des Sinusmusters mit einem Defokussierungsabstand 2dM
außerhalb seiner Fokusebene und wird unscharf auf dem Kameradetektor abgebildet. Deshalb
hat der beobachtete Kontrast folgende Zusammenhang mit der defokussierten OTF H(ν, µ, zd )
der Beobachtungsoptik,

Cspiegelnd (ν0 , µ0 , dM ) = |H(ν0 , µ0 , 2dM )|. (5.13)

zd
1: Beleuchtung
dM dM 2: Beobachtung

Sinusmuster Detektor
blanke Oberfläche

Abbildung 5.3: Entfalteter Aufbau eines SIM-Systems für Messung auf spiegelnden Oberflächen

Raue Oberfläche
Auf rauen Oberflächen, wie dargestellt in der Abbildung 5.4, ist der Abbildungsmechanis-
mus unterschiedlich. Bei der Projektion eines Sinusmusters auf eine nicht im Fokus stehende
Mattscheibe mit einem Abstand dM entsteht auf dem Objekt ein defokussiertes Bild mit re-
duziertem Kontrast |H(ν0 , µ0 , dM )|. Nach der Streuung wird dieses Bild bei der Beobachtung
wiederum mit demselben Abstand dM defokussiert auf den Kamerachip abgebildet. Der resul-
tierende Kontrast ist das Produkt der defokussierten MTF jeweils von der Beleuchtungs- und
Beobachtungsoptik. Wenn die Beleuchtung und Beobachtung dieselbe Optik verwendet und
mit demselben Abstand defokussiert ist, kann das Produkt wie folgt formuliert werden,

Crau (ν0 , µ0 , dM ) = |H(ν0 , µ0 , dM )|2 . (5.14)


Dieses Model ist eine Vereinfachung, als wäre ein Mattscheibe als Objekt rotiert. Diese Ver-
einfachung gilt eigentlich nur für inkohärente Abbildung des an rauen Objekten gestreuten
Bildes im Beobachtungsarm, wobei die durch Oberflächenrauigkeit entstandene Speckle nicht
berücksichtigt wird. Diese Näherung ist gerechtfertigt, wenn die laterale Auflösung deutlich
größer als die Kohärenzzelle ist. Das ist der Fall bei SIM mit aberrationsbehafteten Objektiven,
Für aberrationsfreie Objektive wie z. B. Mikroobjektive gilt sie ebenfalls bei den Flanken
der Kontrastkurven niedriger Gitterfrequenzen ν̄ < 0.5 (0 ≤ ν̄ ≤ 2) , die in Praxis aufgrund
besserer Präzision bzw. Messgeschwindigkeit benutzt wird.

Setzt man die Gleichungen 5.13 und 5.14 in die Gleichung 5.12 ein, können die Kontrastkurven
auf spiegelnden und rauen Oberflächen numerisch berechnet werden. Hopkins hat die kompli-
zierte Integralform der OTF auf einen analytischen Ausdruck reduziert [135], der aus einer
60 5 Theoretische Modellierung der Signalentstehung von SIM

zd zd
1: Beleuchtung dM dM 2: Beobachtung

Sinusmuster raue Oberfläche Detektor

Abbildung 5.4: Entfalteter Aufbau eines SIM-Systems für Messung auf rauen Oberflächen

1
0.9 Normierte Gitterfrequenz: 0.5
0.8
MTF [0-1] 0.7

MTF [0-1]
0.6
1
0.5
0.4
0.5
0.3
0.2
0
0 0.1
Nor

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
mie

Defokusabstand [µm]
0.5
1
rte

0.9 Defokusabstand: 0 µm
Git

1 0.8
terf

MTF [0-1]

0.7
req

0.6
1.5
0.5
uen

0.4
z [0

2 3 4 5 0.3
0 1 2
-2 -1
-2]

-5 -4 -3 0.2
0.1
Defokusabstand [µm] 0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Normierte Gitterfrequenz [0-2]

Abbildung 5.5: Nach der Gleichung 5.15 berechnete von Gitterfrequenz und Defokusabsand abhängigen
MTF auf spiegelnden Oberflächen mit NA = 0,85.

linearen Kombination von unendlichen Serien von Besselfunktionen besteht. Ein noch kompak-
terer Ausdruck wurde später von Stokseth gefunden [134]. Somit lässt sich die Kontrastkurve
auf rauen und spiegelnden Oberflächen mit der Besselfunktion erster Art und erster Ordnung
J1 in Gleichungen 5.15 und 5.16 in geschlossener Form beschreiben.
 
J1 (a − 0, 5aν̄)
2 3
Cspiegelnd (ν, µ, dM ) = |2(1 − 0, 69ν̄ + 0, 0076ν̄ + 0, 043ν̄ ) |, (5.15)
a − 0, 5aν̄
und

Crau (ν, µ, dM ) = CSpiegelnd (ν, µ, dM /2)2 , (5.16)



2 ν 2 +µ2
wobei die normierte radiale Gitterfrequenz ν̄ = νN yquist und a = 2π 2
λ sin (u)2dM ν̄.

In der Abbildung 5.5 werden die MTF-Kurven des in Abbildung 5.3 gezeigten Systems für un-
terschiedliche Defokusabstände dM und Gitterfrequenz ν̄ dargestellt. Die vom Defokusabstand
5.2 Kontrastkurve in einem aberrationsfreien System 61

abhängige MTF-Kurve an einer bestimmten Gitterfrequenz ist äquivalent zur Kontrastkurve,


die mit der Gitterfrequenz auf einem scannenden Spiegel gemessen wird.

NA 0.25 spiegelnd
NA 0.25 rau
NA 0.5 spiegelnd
NA 0.5 rau
Kontrast C

Defokusierungsabstand
z0 zM [µm]

Abbildung 5.6: Analytisch berechnete Kontrastkurven mit Gleichungen 5.15 und 5.16 auf rauen und
spiegelnden Oberflächen mit ν̄ = 0, 4 und zwei NAs (0,25 und 0,5).

In der Abbildung 5.6 sind die mittels der Gleichungen 5.15 und 5.16 berechneten Kontrast-
kurven bei derselben normierten Streifenfrequenz ν̄ = 0, 4 (0 ≤ ν̄ ≤ 2) für unterschiedliche
Objektivaperturen N A = 0, 5 und N A = 0, 25 jeweils für spiegelnde und raue Objekte darge-
stellt. Daraus erkennt man, dass die Kontrastkurve auf rauen Oberflächen breiter als die auf
spiegelnden Oberflächen ist. Ein quantitativer Ausdruck für die Kurvenbreite F W HM lässt
sich ableiten, indem man nach der Null-Stelle in der Besselfunktion J1 der Gleichungen 5.15
und 5.16 sucht, an der der Kontrastwert C auf die Häfte des Maximums abfällt. Die F W HM
der Kontrastkurve auf beiden Oberflächentypen sind jeweils im Folgenden ausgedruckt,

0, 35λ
F HW Mspiegelnd = , (5.17)
sin2 uν̄(1 − 0, 5ν̄)
und

0, 52λ
F HW Mrau = . (5.18)
sin2 uν̄(1 − 0, 5ν̄)
Daraus wird ersichtlich, dass die F W HM mit der Gitterfrequenz ν̄(1 − 0, 5ν̄) und genauso wie
die Rayleighschen Schärfentiefe mit 1/sin2 u skaliert. Bei der gleichen Apertur und Gitterfre-
quenz ist die FWHM der Kontrastkurve auf spiegelnden Oberflächen mit dem Verhältnis von
35:52 schmaler als die Kontrastkurve auf rauen Oberflächen.

In der Abbildung 5.7 werden die nach der Gleichung 5.15 berechneten Kontrastkurven jeweils
mit den experimentell gemessenen Kontrastkurven verglichen, wobei die Kontrastkurven mit
einer Gitterfrequenz von ν̄ = 0, 2 jeweils bei vier unterschiedlichen NAs der Mikroobjektive von
0,15, 0,25, 0,5 und 0,8 auf einem Spiegel aufgenommen. Dabei kann eine gute Übereinstimmung
zwischen der Theorie und Experiment bestätigt werden. Diese Ergebnisse können zur theore-
tischen Abschätzung der Lokalisationsunsicherheit aus der Kurvengeometrie verwendet werden.
62 5 Theoretische Modellierung der Signalentstehung von SIM

0.7 0.7
Gemessene Kontrastkurve NA 0,15 Gemessene Kontrastkurve NA 0,25
0.6 Analytisch berechnete Kontrastkurve 0.6 Analytisch berechnete Kontrastkurve

0.5 0.5

0.4 0.4

Kontrast C
Kontrast C

0.3 0.3

0.2 0.2

0.1 0.1

0 0
−200 −150 −100 −50 0 50 100 150 200 −30 −20 −10 0 10 20 30
Defokusierungsabstand
z dM [µm]
0 Defokusierungsabstand
z 0 dM [µm]

(a) Mikroobjektiv 5x/0,15 (b) Mikroobjektiv 10x/0,25

0.5
Gemessene Kontrastkurve NA 0,5 Gemessene Kontrastkurve NA 0,8
0.6 Analytisch berechnete Kontrastkurve 0.45
Analytisch berechnete Kontrastkurve
0.4
0.5 0.35
0.4 0.3
Kontrast C
Kontrast C

0.25
0.3
0.2
0.2 0.15
0.1
0.1
0.05
0 0
−10 −5 0 5 10 −2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
Defokusierungsabstand
z dM [µm]
0
Defokusierungsabstand
z dM [µm]
0

(c) Mikroobjektiv 20x/0,5 (d) Mikroobjektiv 50x/0,8

Abbildung 5.7: Vergleich zwischen der Theorie und den experimentell gemessenen Kontrastkurven bei
ν̄ = 0, 2 (50lp/mm bei 5x/0,15, 90lp/mm bei 10x/0,25, 180lp/mm bei 20x/0.5 und
290lp/mm bei 50x/0.8).

0,5 9
Höhenmessunsi cherheit  z [µm]

Experiment
Höhenmessunsic herheit  z [µm]

Experiment NA 0,12
NA 0,12 ~1/sin 2 u 8 ~1/sin 2 u
0,4 7
6 ~ 1/sin 2 u
0,3 ~ 1/sin 2 u
5
4
0,2
3 Oberflächen-
NA 0,25 9 nm NA 0,25 rauheit 0,8µm
0,1 2
NA 0,45 NA 0,45 NA 0,8
NA 0,8 1
0 0
}
0 0,2 0,4 0,6 0,8 0 0,2 0,4 0,6 0,8
Numerische Apertur NA Numerische Apertur NA

(a) Messungen auf einem Spiegel (b) Messungen auf einem Rauheitsnormal mit σ= 0,8 µm

Abbildung 5.8: Einfluss der numerischen Apertur auf die Höhenmessunsicherheit der Messungen auf
spiegelnden und rauen Oberflächen. Die Messungen wurden bei gleicher Lichtquelle und
Mikroobjektiven mit unterschiedlichen NAs durchgeführt, wobei die normierte Gitterfre-
quenz ν̄ konstant gehalten wurde. Damit wird die Korrelation zwischen Messunsicherheit
und FWHM der Kontrastkurve anhand Gleichungen 5.17 und 5.18 demonstriert.

Experimentell kann man durch die Korrelation zwischen Messunsicherheit und 1/sin2 u zeigen,
dass sowohl auf spiegelnden als auch bei rauen Oberflächen die Höhenmessunsicherheit propor-
5.3 Kontrastkurve in einem aberrationsbehafteten System 63

tional zur FWHM der Kontrastkurve variiert. FWHM ist damit ein effektiver Parameter, um
die Präzision zu beeinflussen. Im Abschnitt 6.1 wird quantitativ der Zusammenhang zwischen
Präzision und allen Sensorparametern untersucht.

5.3 Kontrastkurve in einem aberrationsbehafteten System

In der Praxis ist es für die Messung makroskopischer Objekte unvermeidbar, aberrationsbe-
haftete Objektive einzusetzen, weil ein Objektiv mit einem beugungsbegrenzten Abbildungs-
vermögen, großem Feld und gleichzeitig einer großen NA extrem aufwendig und wirtschaftlich
unrealistisch herzustellen ist. Wird SIM mit aberrationsbehafteten Objektiven implemen-
tiert, ist es wichtig zu wissen, welche Konsequenzen diese auf die Messergebnisse haben.
Um diese Frage zu beantworten, ist ein Modell zur Simulation der Kontrastkurven in einem
aberrationsbehafteten SIM-System notwendig. In diesem Abschnitt wird ein numerisches
Modell vorgestellt, das auf den Erkenntnissen der Abschnitte 5.1 und 5.2 beruht. Es ermög-
licht uns, die Kontrastkurve eines aberrationsbehafteten SIM-Systems numerisch zu simulieren.

W

Abbildung 5.9: Ein aberrationsbehaftetes abbildendes System.

In einem aberrationsfreien System ist die Phase der Wellenfront in der Puppile konstant. Da-
durch entsteht ein beugungsbgerenztes Punktbild. Ist das System mit Aberrationen behaftet,
wird das Licht nicht mehr an einem Fokuspunkt zusammengeführt. Wie in der Abbildung 5.9
illustriert, wird die Abweichung der verzerrten Wellenfronten von der idealen Wellenfront als
die Wellenaberration ∆W (x̄, ȳ) bezeichnet. Die Pupillenfunktion eines aberrationsbehafteten
Systems kann wie folgt formuliert werden,

P A (x̄, ȳ) = P (x̄, ȳ)eik∆W (x̄,ȳ) . (5.19)


64 5 Theoretische Modellierung der Signalentstehung von SIM

Die primären Teile der Pupillenaberration ∆W (x̄, ȳ) sind die Seidel-Aberrationen die mit fünf
Polynomtermen wie in Gleichung 5.20 beschrieben werden [161]. Für eine kreisförmige Apertur
wird sie in Polarkoordinatensystem dargestellt,

∆W (h̄, r, θω ) = ω040 r̄4 + ω131 h̄r̄3 cosθω + ω222 h̄2 r̄2 cos2 θω + ω220 h̄2 r̄2 + ω311 h̄3 r̄cosθω , (5.20)

wobei θω den Polarwinkel zur x- bzw. η- Achse bezeichnet, r̄ sowie h̄ jeweils den radialen
Abstand in der Pupillen- und Bildebene beschreibt. In der Tabelle 5.1 wird jedem Term die
dazugehörige Aberrationstyp zugehordnet. Eine detaillierte Erklärung der Seidel-Aberrationen
findet sich im Anhang I.

Aberrationsterm Aberrationsname

ω040 R4 Sphärische Aberration

ω131 hR3 cosθω Koma

ω222 h2 R2 cos2 θω Astigmatismus

ω220 h2 R2 Bildfeldwölbung

ω311 h3 Rcosθω Verzeichnung

Tabelle 5.1: Seidel-Aberrationen [161].

Um ein Modell für ein aberrationsbehaftetes System zu entwickeln, soll das im Abschnitt 5.2
vorgestellte Modell mit der aberrierten Pupillenfunktion P A erweitert werden. Dafür ist die
Unterscheidung zwischen rauen und spiegelnden Oberflächen ebenfalls wichtig.

A B A

W1 W1 W2

B A B

blanke Oberfläche

Abbildung 5.10: Entfalteter Aufbau eines SIM-Systems für die Messung auf spiegelnden Oberflächen.

Spiegelnde Oberflächen
Im Abschnitt 5.2 wurde dargestellt, dass sich die defokussierte Kontrastkurve C(ν, µ, zd )
mittels der Autokorrelation der Pupillenfunktion PD berechnen lässt. Bei Einbeziehung der
5.3 Kontrastkurve in einem aberrationsbehafteten System 65

Aberrationen im Modell ist die Pupillenfunktion PD mit Aberrationen zu konstruieren. Auf


spiegelnden Oberflächen wird die einfallende Wellenfront gespiegelt und unverändert durch die
gleiche Optik2 auf den Detektor abgebildet. Wie in Abbildung 5.10 dargestellt, propagiert die
reflektierte Wellenfront seitenverkehrt durch die Beobachtungsoptik. Da die Wellenaberrationen
von hintereinander stehenden optischen Systemen additiv ist, kann die aberrierte Pupillenfunk-
tion PDA durch Multiplikation zweier seitenverkehrter komplexer Pupillenfunktionen konstruiert
werden,

2 u(x̄2 +ȳ 2 ) 2 u(x̄2 +ȳ 2 )


PDA (x̄, ȳ, dM ) = P A (x̄, ȳ)eikdM sin P A (−x̄, −ȳ)eikdM sin . (5.21)

Durch Autokorrelation der aberrierten Pupillenfunktion ergibt sich der Ausdruck der inkohä-
renten Kontrastkurve eines aberrationsbehafteten SIM-Systems auf spiegelnden Oberflächen,

λz ν λzf µ
PDA (x̄, ȳ, dM )PDA (x̄ − rf , ȳ −
˜
A r , dM )dx̄dȳ
Cspiegelnd (ν, µ, dM ) = |H(ν, µ, dM )| = | ˜ A2 |.
PD (x̄, ȳ, 0)dx̄dȳ
(5.22)

Mittels der Gleichung 5.22 können die Kontrastkurven jeweils für die fünf primären Aber-
rationen bei einer Gitterfrequenz (ν = 0, 1νcutof f 3 und µ = 0) numerisch berechnet und in
der Abbildung 5.11 gemeinsam mit der aberrationsfreien Kontrastkurve auf geplottet werden.
Die sphärische Aberration reduziert nicht nur wegen der verminderten lateralen Auflösung die
Kurvenhöhe sondern verursacht auch eine asymmetrische Kurvengeometrie (siehe Abbildung
5.11 (a)). Außerdem wird die Lage des Fokus axial zum Objektiv verschoben. In der Abbildung
5.11 (b) kann man sehen, dass die Koma keinen Einfluss auf die Kurvenlage und -geometrie
hat. Dieses Ergebnis muss man aber mit Vorsicht genießen. Die Aberrationsfunktion der
Koma am Rand des Messfeldes ist bezüglich einer Achse symmetrisch und bezüglich einer
dazu senkrechten Achse inverssymmetrisch (siehe Abbildung 10.1 (b)). Wenn das Zentrum der
reflektierenden Wellenfront durch die Mitte der Beobachtungspupille durchgeht, kompensieren
sich die Koma-Beiträge bei durchdringen durch die Beleuchtungs- und Beobachtungsoptik. Die
Kompensierung erfolgt aber nur, solange die Kippachse der Oberflächennormalen senkrecht
zur Symmetrieachse der Aberrationsfunktion der Koma steht. Ist dies nicht der Fall, wird
die Kontrastkurve auch durch die Koma verformt. Die Wellenaberration des Astigmatismus
ist eine parabolisch zylindrische Funktion. Für die Sinusmuster, deren Raumfrequenz nicht
parallel zur Symmetrieachse der Aberrationsfunktion steht, erfährt die Kontrastkurve eine
axiale Fokusverschiebung. Die Verschiebung variiert abhängig von der Richtung des Musters.
Eine axiale Fokusverschiebung existiert ebenfalls bei der Bildfeldwölbung. Allerdings ist die
Verschiebung aufgrund der Rotationssymmetrie Geometrie der Aberrationsfunktion an einem
festen Feldpunkt bei allen Musterrichtungen konstant. Als letzte primäre Aberration verändert
die Verzeichnung nur die laterale Fokuslage, ohne die Geometrie und Lage der Kontrastkurve
zu beeinflussen.

2
Dies gilt wenn die Beobachtungs- und Beleuchtungsoptik mit den gleichen oder denselben optischen Kompo-
nenten umgesetzt werden.
3
νcutof f ist die Grenzfrequenz der lateralen optischen Auflösung bei einer inkohärenten Abbildung.
66 5 Theoretische Modellierung der Signalentstehung von SIM

1
1
SphärischeAberration  Koma 
0.9 Aberrationsfrei
0.9 Aberrationsfrei

0.8
0.8

0.7
0.7
Kontrast C

Kontrast C
0.6
0.6

0.5
0.5

0.4
0.4

0.3
0.3

0.2
0.2

0.1 0.1

0 0
−0.02 −0.015 −0.01 −0.005 0 0.005 0.01 0.015 0.02 −0.02 −0.015 −0.01 −0.005 0 0.005 0.01 0.015 0.02

Defokusierungsabstand
z0 dM [mm] Defokusierungsabstand dM [mm]

(a) bei sphärischer Aberration ω040 = 2λ (b) bei Koma ω131 = 2λ und h = 1
 
1 1 
Astigmatismus  Bildfeldwölbung 
0.9 Aberrationsfrei 0.9 Aberrationsfrei

0.8 0.8

0.7 0.7
Kontrast C

Kontrast C

0.6 0.6

0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
−0.02 −0.015 −0.01 −0.005 0 0.005 0.01 0.015 0.02 −0.02 −0.015 −0.01 −0.005 0 0.005 0.01 0.015 0.02

Defokusierungsabstand dM [mm] Defokusierungsabstand dM [mm]

(c) bei Astigmatismus ω222 = 2λ und h = 1 (d) bei Bildfeldwölbung ω220 = 2λ und h = 1

 
1 
Verzeichnung 
0.9 Aberrationsfrei

0.8

0.7
Kontrast C

0.6

0.5

0.4

0.3

0.2

0.1

0
−0.02 −0.015 −0.01 −0.005 0 0.005 0.01 0.015 0.02

Defokusierungsabstand dM [mm]

(e) bei Verzeichnung ω311 = 2λ und h = 1




Abbildung 5.11: Simulierte Kontrastkurven auf ebenen spiegelnden Oberflächen bei fünf simulierten
Wellenaberrationen vierter Ordnung.
5.3 Kontrastkurve in einem aberrationsbehafteten System 67

A A

W1 W1

B B

raue Oberfläche

Abbildung 5.12: Entfalteter Aufbau eines SIM-Systems für die Messung von rauen Oberflächen

Raue Oberflächen
Auf rauen Oberflächen sind die Aberrationen von Beleuchtungs- und Beobachtungsoptik
nicht mehr kohärent additiv kombinierbar, weil die Wellenaberration nach der Streuung nicht
mehr erhalten bleibt. Da der Specklekontrast bei Defokussierung aufgrund der räumlich parti-
ellen Kohärenz stark reduziert wird, wird das Specklerauschen in diesem Modell vernachlässigt.
Dadurch kann das gesamte System als zwei inkohärent gekoppelte optische Systeme betrachtet
werden. Die Pupillenfunktionen von beiden Systemen werden im Folgenden formuliert,
2 u(x̄2 +ȳ 2 )
PDA (x̄, ȳ, dM ) = P A (x̄, ȳ)ei0,5kdM sin . (5.23)
Aufgrund der inkohärenten Kopplung ist die aberrationsbehaftete Kontrastkurve auf rauen
Oberflächen genauso wie bei Gleichung 5.14 äquivalent zur quadrierten MTF eines Einzelsys-
tems,

λz ν λzf µ
PDA (x̄, ȳ, dM )PDA (x̄ − rf , ȳ −
˜
A 2 r , dM )dx̄dȳ 2
Crau (ν, µ, dM ) = |H(ν, µ, dM )| = | ˜ A2 | . (5.24)
PD (x̄, ȳ, 0)dx̄dȳ

In Abbildung 5.13 werden die mittels Gleichung 5.24 simulierten Kontrastkurven für die fünf
primären Aberrationen dargestellt. Während sphärische Aberration, Astigmatismus, Bildfeld-
wölbung und Verzeichnung ähnlichen Einflüssen wie auf spiegelnden Oberflächen unterliegen,
kann der Einfluss der Koma aufgrund der inkohärenten Kopplung auch bei senkrechten Einfall
nicht kompensiert werden. Wie in Abbildung 5.13 b) illustriert, verursacht die Koma unabhän-
gig von der Objektorientierung immer eine verzerrte Kontrastkurve, wobei die Kurvenbreite
vergrößert ist.

Das hier dargestellte numerische Modell kann zur Simulation der Kontrastkurven bei aberrati-
onsbehafteten optischen Systemen verwendet werden. Dies ermöglicht die Analyse der Einflüsse
von Objektivaberrationen auf den systematischen Fehler von SIM und numerische Kompensati-
on solcher Fehler bei bekannten Wellenaberrationen, die durch Interferometer vorher gemessen
werden.
68 5 Theoretische Modellierung der Signalentstehung von SIM

1 1  
Sphärische Aberration  Koma 
0.9 Aberrationsfrei 0.9 Aberrationsfrei

0.8 0.8

0.7 0.7
Kontrast C

Kontrast C
0.6 0.6

0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
−0.04 −0.03 −0.02 −0.01 0 0.01 0.02 0.03 0.04 −0.04 −0.03 −0.02 −0.01 0 0.01 0.02 0.03 0.04

Defokusierungsabstand dM [mm] Defokusierungsabstand dM [mm]

(a) bei Sphärischer Aberration ω040 = 2λ (b) bei Koma ω131 = 2λ und h = 1
 
 
1 1  
Astigmatismus  Bildfeldwölbung 
0.9 Aberrationsfrei 0.9 Aberrationsfrei

0.8 0.8

0.7 0.7

0.6
Kontrast C

Kontrast C

0.6

0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
−0.04 −0.03 −0.02 −0.01 0 0.01 0.02 0.03 0.04 −0.04 −0.03 −0.02 −0.01 0 0.01 0.02 0.03 0.04

Defokusierungsabstand dM [mm] Defokusierungsabstand dM [mm]

(c) bei Astigmatismus ω222 = 2λ und h = 1 (d) bei Bildfeldwölbung ω220 = 2λ und h = 1
 
 
1 
Verzeichnung 
0.9 Aberrationsfrei

0.8

0.7
Kontrast C

0.6

0.5

0.4

0.3

0.2

0.1

0
−0.04 −0.03 −0.02 −0.01 0 0.01 0.02 0.03 0.04

Defokusierungsabstand dM [mm]

(e) bei Verzeichnung ω311 = 2λ und h = 1




Abbildung 5.13: Simulierte Kontrastkurven auf ebenen rauen Oberflächen bei fünf simulierten Aberra-
tionen vierter Ordnung.
69

6 Charakterisierung und Grenzen von SIM

In Kapitel 4 wurden bereits fünf messtechnische Eigenschaften von SIM qualitativ diskutiert
und damit ein Überblick über die Vor- und Nachteile von SIM gegenüber WLI und KM gegeben.
In diesem Abschnitt wird auf jede Eigenschaft ausführlich eingegangen und untersucht, wie sie
sich in Abhängigkeit von den Sensorparametern genau verhält und wo ihre Grenze liegt.

6.1 Präzision

Die Präzision charakterisiert die Höhenauflösung von SIM. Das Intensitätsrauschen von SIM
an verschiedenen Tiefenpositionen auf spiegelnden Oberflächen ist unkorreliert und auf rauen
Oberflächen partiell korreliert. Da die Signalwerte auf der Kurvenflanke mehr Gewicht bei der
Lokalisierung der Maximumposition hat und die Korrelation an der Kurvenflanken auf rauen
Oberflächen durch eine größere Auflösungszelle reduziert wird, kann die untere Grenze der
Präzision mit Laboureuxs Modell [138] nach der Gleichung 4.6 sowohl für spiegelnde Oberflä-
chen als auch annäherungsweis für raue Oberfläche angegeben werden, wobei die Präzision δz
von der spektralen Leistungsdichte N0 des Rauschens, der Krümmung κ0 am Kurvenmaximum
und der Bereite △T der Datendomäne abhängt.

Für weißes Rauschen ist die spektrale Leistungsdichte N0 bei diskreter Abtastung der Kontrast-
kurve äquivalent zum Produkt der Varianz VC des Kontrastrauschens und der Schrittweite △s
des axialen Scans [162],

2
N0 = VC △s = σC △s. (6.1)
Der andere Parameter - die Krümmung κ0 am Kurvenmaximum - lässt sich als eine Funktion
von maximalen Kontrast Cmax und der Halbwertsbreite FWHM darstellen. Anschaulichkeit
halber wird die Kontrastkurve C(z) mit einer Gaußfunktion nach der Gleichung 6.2 approxi-
miert,
(z−zo )2

2( F W2HM )2
C(z) = Cmax e . (6.2)
Nach der Gleichung 6.3 erfolgt die Berechnung der Krümmung κ0 am Kurvenmaximum durch
die zweite Ableitung von der Kontrastfunktion C(z) nach z,

4Cmax
κ0 (z = zo ) = C ′′ (z = zo ) = . (6.3)
F W HM 2
Setzt man die Gleichungen 6.1 und 6.3 in die Gleichung 4.6 ein, erhält man die Gleichung 6.4,
√ s
3 F W HM F W HM △s
δz = σC . (6.4)
2 Cmax △T △T
Da in der Praxis meistens nur die Messdaten innerhalb der halben Kurvenbreite
p zur Auswertung

verwendet werden, ist der Term F W HM/△T gleich 1. Zusätzlich mit △s/△T = 1/ N , wo-
bei N die Anzahl der Messdaten innerhalb der halben Kurvenbreite ist, lässt sich die Gleichung
6.4 auf die Gleichung 6.5 vereinfachen,
70 6 Charakterisierung und Grenzen von SIM


3 σC 1
δz = F W HM √ . (6.5)
2 Cmax N
Die Gleichung 6.5 zeigt eine lineare Abhängigkeit der Präzision√δz von 1/SNR des Kontrastrau-
schens σC /Cmax , der halben Kurvenbereite FWHM und 1/ N . Um die untere Grenze der
Präzision mit konkreten Sensorparametern verknüpfen zu können, soll die Gleichung 6.5 unter
Berücksichtigung der Abhängigkeit von den Sensorparametern erweitert werden. Dabei ist eine
Unterscheidung zwischen rauen und spiegelnden Objekten erforderlich.

Spiegelnde Oberflächen

Betrachtet man die physikalische Grenze der Präzision auf spiegelnden Oberflächen, muss man
zwischen technologischen und fundamentalen Fehlerquellen differenzieren. Das Kamerarauschen
und das Motorenrauschen können als technologische Rauschquellen bezeichnet werden, weil sie
sich mit verbesserten Technologien weiter minimieren lassen. Im Gegensatz dazu ist das Photo-
nenrauschen ein fundamentales physikalisches Phänomen und wirkt als die limitierende Rausch-
quelle. Aufgrund der statistischen Verteilung des auf den Detektor einfallenden Photonenflusses
schwankt die Anzahl nph der zu integrierenden Photonen innerhalb eines Zeitintervalls mit einer
Standardabweichung σph um den Mittelwert < nph >. Nach der Poissonverteilung der Photo-
nenstatistik lässt sich die Standardabweichung σph aus der mittleren Photonenzahl < nph >
berechnen,

(6.6)
p
σph = < nph >.
Aus der Gleichung 6.6 erhält man mit der Quantisierungsstufe [Photon/Digit] die Gleichung
6.7 über die Standardabweichung σI der Intensität I,
r
I
σI = . (6.7)
αu
Da man den Kontrast über die Phasenschiebung indirekt aus mehreren Kameraaufnahmen
berechnet, ist die Ursache des Kontrastrauschens auf die Fehlerfortpflanzung des Intensitäts-
rauschens in jeder einzelnen Kameraaufnahme Ii zurückzuführen. Im Anhang II wird die Her-
leitung und Verifizierung durch numerische Simulation gezeigt, wie die Standardabweichung
σC des Kontrastrauschens explizit vom SNR des Photonenrauschens SN Rschrot , der Anzahl
M der Phasenschiebungen und dem Kontrast C des beobachteten Sinusmusters abhängt. Die
Beziehung wird mit der Gleichung 6.8 angegeben,
r
2 C2
σC = √ 1− . (6.8)
SN Rschrot M 2
Die Gleichung 6.8 zeigt die bekannte Charakteristik des durch Photonenrauschen
√ limitierten
Kontrastrauschens,
p dass σ C linear proportional zu 1/SN R schrot und zu 1/ M variiert. Der
Term 1 − C /2 zeigt, dass das Kontrastrauschen nicht linear mit dem Musterkontrast C
2

variiert.
√ Das Kontrastrauschen bei einem Musterkontrast C = 0 ist lediglich um einem Faktor
von 2 kleiner als das bei einem Musterkontrast C = 1.

Nachdem man die Gleichung 6.8 in Gleichung 6.5 eingesetzt hat, muss man außerdem die
FWHM in der Gleichung 6.5 durch die aus dem Abschnitt 5.2 bekannte Gleichung 5.17 ersetzen.
Daraus ergibt sich die Gleichung 6.9, welche die untere Grenze der Präzision auf spiegelnden
Oberflächen in Abhängigkeit von den Sensorparametern beschreibt.
6.1 Präzision 71

Experiment
100
164.5*1/N

Messunsicherheit z [nm]
1/2

NA 0.5
80

60

40

20

0
0 5 10 15 20 30
Anzahl der benutzten Messdaten N

Abbildung 6.1: Die auf einem Spiegel bestimmte Standardabweichung σz des Höhenrauschens wird mit
einem Mikroobjektiv 20x/0.5 und der Gitterfrequenz ν̄ = 0, 1 für eine unterschiedliche
Anzahl von Messdaten N ∈ [3, 30] innerhalb der halben Kurvenbreite bestimmt.


Die 1/ N -Abhängigkeit soll in der Gleichung 6.5 überprüft werden, indem ein Spiegel mit
einem Mikroobjektiv 20x/0.5 und der Gitterfrequenz ν̄ = 0, 1 mit unterschiedlicher Anzahl der
Messdaten N gemessen wird. Die√in der Abbildung 6.1 dargestellten Messwerte σz zeigen eine
Abhängigkeit proportional zu 1/ N .

q
1
1 1 1 λ 2
Cmax
− 0.5
δz = 0, 6 √ √ (6.9)
N M SN RSchrot sin2 u ν̄(1 − 0, 5ν̄)

Das Ergebnis der Gleichung 6.9 kann wie folgt physikalisch interpretiert werden. Bei der Be-
rechnung der Höhenwerte aus N Kontrastwerten entlang der longitudinalen Richtung und M
phasenverschobenen Kamerabildern,
√ √ wird die Präzision δz aufgrund Mittelung des unkorrelier-
ten Rauschens mit 1/ N und 1/ M verbessert. Der Term 1/SN RSchrot spiegelt den Einfluss
des Photonenrauschens wieder. Der Term 2
p λ/sin u zeigt eine lineare Abhängigkeit von der Ray-
leigh Schärfentiefe. Der letzte Term 1/Cmax2 − 0.5/(ν̄(1 − 0, 5ν̄)) beschreibt den Einfluss der
Abbildungsqualität des Objektives. Dieser Term ist eine Funktion von der normierten Gitter-
frequenz ν̄ und verfügt theoretisch bei einem beugungsbegrenzten Objektiv über ein globales
Minimum bei ν̄ = 0, 5. Diese Funktion variiert allerdings langsam um dieses Minimum. Deshalb
kann man in der Praxis die optimale Gitterfrequenz innerhalb eines bereiten Bereichs wählen.
Eine niedrigere Frequenz ermöglicht eine größere Schrittweite und somit eine schnellere Scan-
geschwindigkeit, ohne dass die Präzision deutlich abnimmt.
72 6 Charakterisierung und Grenzen von SIM

1.6
Experiment Experiment
5 Theorie (gemessene MTF) Theorie (gemessene MTF)
1.4

Messunsicherheit z [µm]

Messunsicherheit z [µm]
Theorie (ideale MTF) Theorie (ideale MTF)
4 1.2
NA 0.15 NA 0.25
1
3
0.8

2 0.6

0.4
1

0.2
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
normierte Gitterfrequenz [0-2]
normierte Gitterfrequenz [0-2]

(a) mit 5x/0.15 Mikroobjektiv (b) mit 10x/0.25 Mikroobjektiv

0.35 Experiment 0.07 Experiment


Theorie (gemessene MTF) Theorie (gemessene MTF)
Messunsicherheit z [µm]

Messunsicherheit z [µm]
0.3 Theorie (ideale MTF) 0.06 Theorie (ideale MTF)
0.25 NA 0.5 0.05 NA 0.85

0.2 0.04

0.15 0.03

0.1 0.02

0.05 0.01

0 0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8
normierte Gitterfrequenz [0-2] normierte Gitterfrequenz [0-2]

(c) mit 20x/0.5 Mikroobjektiv (d) mit 50x/0.85 Mikroobjektiv

Abbildung 6.2: Vergleich zwischen der theoretischen Untergrenze der photonenrauschen-limitierten Prä-
zision δz und den experimentellen Ergebnissen auf spiegelnden Oberflächen. Die Mes-
sungen wurden auf einem ebenen Spiegel durchgeführt jeweils mit einem Mikroobjektiv
von 5x/0.15, 10x/0.25, 20x/0.5 und 50x/0.85, wobei λ = 0,5 µm, N = 3, M = 4 und
SN Rschrot = 100.

Die Gleichung 6.9 wurde auch experimentell verifiziert: Ein ebener Spiegel wird bei unterschied-
lichen Gitterfrequenzen mit unterschiedlichen Mikroobjektiven mit dem in der Abbildung 3.16
dargestellten Aufbau gemessenen. Als Messobjekt wird ein senkrecht zur optischen Achse
ausgerichteter Spiegel longitudinal gescannt, wobei an jeder z-Position der Kontrast durch
4-Phasenschiebung berechnet wurde. Die Höhenkarte resultiert aus einem Gaussfit mit drei
Messpunkten innerhalb der Halbwertsbreite. Auf der resultierenden Höhenkarte wurde die
mittlere Standardabweichung der Höhenwerte von 9 nebeneinander stehenden Subbereichen
(jeweils 100x100 Pixel) ausgewertet. Die damit berechneten Ergebnisse werden mit der Theorie
nach der Gleichung 6.9 verglichen. In der Abbildung 6.2 wird der Vergleich für unterschiedliche
Mikroobjektive illustriert. In jedem Diagramm werden drei Kurven abhängig von der nor-
mierten Gitterfrequenz ν̄ dargestellt. Die unterste Kurve ist berechnet mit der Gleichung 6.9
für ein beugungsbegrenztes Objektiv. In diesem Fall wird Cmax nach der Gleichung 5.15 für
einen Defokussierungsabstand dM = 0 berechnet. Die mittlere Kurve ist ebenfalls berechnet
aus der Gleichung 6.9, wobei stattdessen der experimentell gemessene Cmax verwendet wird.
Die oberste Kurve ist die experimentell gemessene Standardabweichung des Höhenrauschens,
die auf einem ebenen Spiegel bestimmt wurde. Eine gute Übereinstimmung des prinzipiellen
Verlaufs der Messergebnisse mit der Theorie kann festgestellt werden. Aber es gibt einen
Versatz zwischen den Messkurven.
6.1 Präzision 73

Die Herkunft dieses Versatzes kann mit folgender Überlegungen begründet werden: Zum einen
verfügt der Laboraufbau neben Photonenrauschen über zusätzliche Rauschquellen wie Kamera-
rauschen und Motorrauschen. Zum anderen definiert die Theorie die Untergrenze der erreichba-
ren Präzision. Deshalb ist es zu erwarten, dass die oberste Kurve eine größere Messunsicherheit
als die mittlere Kurve zeigt. Der prinzipielle Verlauf von beiden Kurven stimmt überein. Au-
ßerdem ist es bemerkenswert, dass die Präzision eines idealen Systems ca. zweimal besser ist als
das realistische System. Dies liegt daran, dass die MTF des Mikroobjektives im Laboraufbau
aufgrund Streulicht deutlich von der idealen abweicht und dies zu einer schlechteren Messun-
sicherheit führt. Falls man alle Parameter optimal wählt, sollte man z.B. eine Präzision von
5 nm mit der Standardkamera mit SN RSchrot = 100 und einem guten Mikroskop mit N A =
0.85 erreichen können.

Raue Oberfläche

Bei gleichen numerischen Aperturen von beiden Beleuchtungs- und Beobachtungsoptik bei
SIM, herrscht große räumliche Kohärenz. Deshalb limitiert das Specklerauschen stattdessen
als die dominierende Rauschquelle die Präzision [163].

Während der Phasenschiebung ist das Specklerauschen in jedem phasenverschobenen Kamera-


bild Ii stark korreliert. Diese Korrelation muss für eine analytische Untersuchung der Präzision
berücksichtigt werden. Um die mathematische Analyse anschaulich zu halten, wird die Glei-
chung 3.1 in die Gleichung 6.10 umgeschrieben, wobei sich der Kontrast C als eine Funktion
der Terme T1 und T2 formulieren lässt,

T1 − T2
C(T1 , T2 ) = , (6.10)
T1 + T2
mit

v
M u M M
1 X uX (i − 1)2π 2 X (i − 1)2π 2
T1 = ( I i + 2t ( Ii cos ) +( Ii sin ) )
M M M
i=1 i=1 i=1
= Im + CIm , (6.11)

und

v
M u M M
1 X uX (i − 1)2π 2 X (i − 1)2π 2
T2 = ( Ii − 2 (
t Ii cos ) +( Ii sin ) )
M M M
i=1 i=1 i=1
= Im − CIm . (6.12)

T1 und T2 sind jeweils numerisch äquivalent zu der maximalen Intensität Im + CIm und der
minimalen Intensität Im − CIm , wobei Im die mittlere Intensität und C der Musterkontrast
des Sinusmusters ist.

In erster Näherung wird das Specklerauschen durch einen multiplikativen Rauschfaktor ρ mit
σρ ∈ [0, 1] modelliert, wobei σρ durch dividieren durch die mittlere Intensität auf 1 normiert
wird. Der durch Specklerauschen bedingte Intensitätsfehler des i−ten phasenverschobenen Ka-
merabildes △Ii wird durch die Gleichung 6.13 formuliert,
74 6 Charakterisierung und Grenzen von SIM

△Ii = Ii ρ. (6.13)
Der Specklekontrast ist,
σρ
CS = . (6.14)
1
Kombiniert man die Gleichungen 6.11, 6.12 und 6.14, kann man die Standardabweichung des
Rauschens in T1 und T2 mit den Gleichungen 6.15 und 6.16 angeben,

σT1 = CS (Im + CIm ), (6.15)

σT2 = CS (Im − CIm ). (6.16)


Nach der in der GUM [164] definierten Gleichung über die kombinierte Messunsicherheit von
zwei korrelierten Eingangsgrößen ist die Standardabweichung σC des Kontrastrauschens für
raue Objekte im Anhang III herleitet und numerisch verifiziert. Das Ergebnis wird mit der
Gleichung 6.17 dargestellt,
1
√ CS (1 − C 2 ) 1 − r(△T1 , △T2 ),
p
σC = (6.17)
2

wobei r(△T1 , △T2 ) der Korrelationskoeffizient zwischen dem Rauschen △T1 und △T2 ist.

In der Praxis ist aufgrund der Gegenwart von anderen Rauschquellen das Specklerauschen von
unterschiedlichen Kameraaufnahmen Ii nie perfekt miteinander korreliert (r(△T1 , △T2 ) < 1).
Wie in 6.3 (a) dargestellt, ist r(△T1 , △T2 ) kleiner als 1 und ändert sich abhängig von der
Gitterfrequenz. Da r(△T1 , △T2 ) in der Praxis von Aufbau zu Aufbau unterschiedlich ist,
muss er experimentell bestimmt werden. Bei der Bestimmung der in 6.3 (a) dargestellten
Korrelationskoeffizienten r(△T1 , △T2 ) wurden vier phasenverschobene Intensitätsbilder bei
unterschiedlichen Gitterfrequenzen aufgenommen. Aus den vier Bilden wurden T1 und T2
anhand der Gleichungen 6.11 und 6.12 berechnet und die Berechnung des Rauschens △T1
und △T2 anschließend erfolgte. Das Korrelationskoeffizient r(△T1 , △T2 ) ließ sich aus dem
Verhältnis von deren Kovarianz und dem Produkt von deren Varianzen berechnen [164].

Zur Überprüfung der Richtigkeit der Gleichung 6.17 wurde die Standardabweichung σC
des Kontastrauschens auf einem Rauheitsnormal mit Ra = 0.8µm (aufgrund von Speckle)
bei unterschiedlichen Gitterfrequenzen mit einem Mikroobjektiv 5x/0.15 gemessen. In der
Abbildung 6.3 werden die Messergebnisse mit theoretischen Kurven gegenüber variierendem
Gitterkontrast aufgezeichnet, wobei der Korrelationskoeffizient r(△T1 , △T2 ) (siehe Abbildung
6.3 (a)) experimentell bestimmt und bei der Berechnung der theoretischen Kurven in die
Gleichung 6.17 eingesetzt wird. Eine gute Übereinstimmung kann festgestellt werden.

Anders als beim Photonenrauschen ist das Kontrastrauschen an unterschiedlichen Tiefenpo-


sitionen nicht komplett unkorreliert. Dieser Effekt führt dazu, dass mehrere Aufnahmen in
der longitudinalen Richtung nicht zur deutlichen Minderung der Präzision beitragen können.
Die√ in der Abbildung 6.4 gezeigte Messung kann diesen Effekt bestätigen. Deshalb fällt die
1/ N -Abhängigkeit in der Gleichung 6.5 weg.
6.1 Präzision 75

Experiment Experiment
1
Korrelationskoeffizient r(T ,T )

0.2
2

Theorie
0.9 0.18
NA 0.15
1

Kontrastrauschen  C
0.8 0.16
0.7 0.14
0.6 0.12
0.5 0.1
0.4 0.08
0.3 0.06
0.2 0.04
0.1 0.02
0 0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.5 0.6 0.7 0.8 0.9 1
normierte Gitterfrequenz [0-2] Gitterkontrast C [0-1]

(a) (b)

Abbildung 6.3: (a) Experimentell bestimmter Korrelationskoeffizient r(△T1 , △T2 ) auf einem Rauheits-
normal mit Ra = 0.8µm bei einem Mikroobjektiv 5x/0.15. (b) Das experimentell gemes-
sene Kontrastrauschen σC wird mit dem theoretischen Verlauf des Kontrastrauschens
bei variierender Gitterfrequenz bzw. variierendem Musterkontrast C verglichen.

18
Experiment
16
Messunsicherheit z [µm]

NA 0.12
14

12

10

2
0 10 20 30 40 50 60 70
Anzahl der benutzten Messdaten N

Abbildung 6.4: Wiederholte Messungen auf einem Rauheitsnormal mit Ra = 0,8 µm bei einem Mikro-
objektiv 5x/0.15 und einer normierten Gitterfrequenz ν̄ = 0,1, wobei die Anzahl der
Messdaten N innerhalb der Halbwertsbreite der Kontrastkurve von 3 bis 65 variiert.

Durch Einsetzen der Gleichungen 5.18 und 6.17 in die Gleichung 6.5 erhält man den Ausdruck
über die untere Grenze der Präzision auf rauen Oberflächen in der Gleichung 6.18, wobei die
Anzahl der Messpunkte N auf den minimal notwendigen Wert von drei gesetzt wird,
1
λ Cmax − Cmax p
δz = 0, 2CS 1 − r(△T1 , △T2 ). (6.18)
sin2 u ν̄(1 − 0, 5ν̄)
Die Gleichung 6.18 zeigt sehr interessante Konsequenzen: Die Höhenpräzision hängt von drei
Termen ab, welche die Physik von SIM auf rauen Oberflächen erklären können. Der „klassi-
76 6 Charakterisierung und Grenzen von SIM

25
Experiment
Theorie (gemessene MTF)

Messunsicherheit z [µm]
20 Theorie (ideale MTF)
NA 0.15
15

10

0
0 0.05 0.1 0.15 0.2 0.25 0.3

normierte Gitterfrequenz [0-2]

Abbildung 6.5: Vergleich zwischen der theoretischen Untergrenze der specklerauschen-limitierten Mes-
sunsicherheit und den experimentellen Ergebnissen auf einem Rauheitsnormal mit
Ra = 0.8µm bei einem Mikroobjektiv 5x/0.15. Die Gitterfrequenz ist 2 normiert, weil die
Grenzfrequenz der OTF eines inkohärenten optischen System doppelt so groß gegenüber
einen kohärenten System ist.

sche“ Term CS λ/sin2 u ist generell gültig für alle triangulativen 3D-Sensoren, wie von Dorsch
in [48] beschrieben. Die Präzision von einem Laser-Triangulationssensor kann nicht besser als
CS λ/(2πsin2 u) sein. Der Term (1/Cmax − Cmax )/(ν̄(1 − 0, 5ν̄)) beschreibt den Einfluss der Ab-
bildungsqualität des Objektives,
p hat allerdings ein breites Minimum im niedrigen und mittleren
Frequenzbereich. Der Term 1 − r(△T1 , △T2 ) beschreibt den Effekt der Korrelation des Speck-
lerauschens. Er variiert in der Praxis abhängig von der Gitterfrequenz. Bei r = 0.93, was experi-
mentell bei Mikroobjektiven als praktisch erreichbarer Wert festgestellt wird, geht die Gleichung
6.18 bei einem beugungsbegrenzten Objektiv (min[(1/Cmax − Cmax )/(ν̄(1 − 0, 5ν̄))] ≈3 ) in
die Gleichung 6.19 über,

CS λ
δz = . (6.19)
2πsin2 u
Für die Validierung der Gleichung 6.18 wurde eine SIM-Messung (mit Mikroobjektiv 5x/0.15)
auf einem Rauheitsnormal mit Ra = 0.8 µm durchgeführt. Der Specklekontrast CS von 0.5
wurde experimentell festgestellt und zur Berechnung der theoretischen Kurve verwendet. Die
in der Abbildung 6.5 dargestellten Vergleichsergebnisse zeigen eine gute Übereinstimmung im
Frequenzbereich ν̄ ≥ 0.1. Die Abweichung im niedrigen Bereich liegt daran, dass der Speckle-
kontrast bei einer Weißlichtquelle mit einer sehr bereiten Kontrastkurve so drastisch abnimmt,
dass der Specklerauschen nicht mehr dominant ist. Wie auf spiegelnden Oberflächen ist ebenso
kein scharfes Minimum der Präzision zu beobachten. Die Messgeschwindigkeit kann auch durch
Wahl einer niedrigeren Gitterfrequenz ohne deutliche Reduzierung der Präzision auf rauen
Oberflächen angepasst werden. Für die Wahl der optimalen Gitterfrequenz ist die erreichbare
Präzision hauptsächlich wie bei einem Laser-Triangulationssensor nach der Gleichung 6.19
durch den Specklekontrast CS und die Rayleigh Schärfentiefe λ/sin2 u limitiert.
6.2 Richtigkeit 77

Zusammenfassung

Basierend auf das im Abschnitt 5.2 vorgestellte Modell der Signalentstehung und Laboureux
Modell über die untere Grenze der Signalverarbeitung wurden zwei Modelle entwickelt, die
den Zusammenhang zwischen den obengenannten Sensorparametern und der höchstmöglich
erreichbaren Präzision beschreiben. Die zwei Modelle gelten jeweils für spiegelnde und raue
Oberflächen. Damit kann man einen SIM-Sensor für die beste Präzision optimieren.

Auf spiegelnden Oberflächen ist das Photonenrauschen die dominierende Rauschquelle. Eine
optimale Gitterfrequenz von 1/4. der Grenzfrequenz des Objektivs liefert die beste Präzision.
Diese beste Präzision lässt sich weiter optimieren, indem man die Objektivapertur, die Anzahl
der Phasenschiebungen und die Anzahl der Tiefenschritte erhöht. Auf rauen Oberflächen
dominieren stattdessen Speckle. Die Präzision kann nur durch die Reduzierung des Speckle-
kontrasts und der Rayleighschen Schärfentiefe verbessert werden, das ist konsistent mit dem
in [48] berichteten Präzisionsverhalten eines Lasertriangulationssensors.

Es ist bemerkenswert, dass die von der Gitterfrequenz abhängige Präzision ein Minimum mit
einem langsam variierenden Verlauf hat. Eine niedrige Gittefrequenz führt zu einer schnellen
Scangeschwindigkeit. Deshalb kann man die Messgeschwindigkeit ohne deutlichen Verlust der
Präzision durch die günstige Wahl der Gitterfrequenz anpassen.

6.2 Richtigkeit

Richtigkeit ist die zweite Größe, die gemeinsam mit der Präzision die Genauigkeit eines 3D-
Sensors charakterisiert. Sie beschreibt die Abweichung zwischen Mittelwert von mehrmals wie-
derholten Messgrößen und der wahren Messgröße. Sie gibt an, inwieweit die Ergebnisse eines
Messsystems die Realität wiederspiegeln. Im Abschnitt 4.2.2 wurden die möglichen Typen der
Fehlerquellen des systematischen Fehlers aufgezählt und diskutiert. Aufgrund der schwieri-
gen Kalibrierbarkeit wird die Fehlerquelle „Retrace-Fehler“ auf spiegelnden Oberflächen als die
dominierende Fehlerquelle identifiziert, während sich die anderen systematischen Fehler mit
etablierten Kalibrierungsverfahren einfach kompensieren lassen. Je nach dem Entstehungsme-
chanismus werden zwei Arten von Ursachen des Retrace-Fehlers in diesem Abschnitt diskutiert.
Diese sind die nichtübereinstimmenden Fokusebenen und die Aberrationen des Objektivs.

Nichtübereinstimmende Fokusebenen

Für einen idealen SIM-Aufbau soll das Luftbild des projizierten Sinusmusters mit der Fo-
kusebene der Kamera an dergleichen Position zusammenfallen. Diese konfokale Konfiguration
gewährleistet, dass das System eine eindeutige Referenzebene aufweist, gegen die man das Mes-
sobjekt vergleicht. Sind die Ebenen wegen schlechter Justierung oder voneinander abweichender
Grundformen nicht an der gleichen Position, ist die Referenzebene nicht mehr eindeutig.
78 6 Charakterisierung und Grenzen von SIM

Luftbild

Gekippter Spiegel
z
Zd Spiegel

Zd/2

Fokusebene

Abbildung 6.6: Retrace-Fehler △zo , der durch Nichtübereinstimmung des Luftbilds des Sinusmusters
und der Fokusebene der Kamera bedingt ist.

Wie in der Abbildung 6.6 verdeutlicht: Falls das Luftbild des Sinusmusters und die Fokusebene
der Kamera mit einem Abstand von zd entfernt sind, wird ein Kamerapixel bei einem nicht-
gekippten Spiegel erst einen maximalen Kontrast erfahren, wenn sich der Spiegel in der Mitte
zwischen beiden Ebenen befindet. Die „Referenzebene“ befindet sich genau in der Mitte. Zeigt
dieser Spiegel eine lokale Neigung α, wird das Spiegelbild des Luftbildes um 2α gekippt. Damit
beobachtet derselbe Pixel eine andere Phase, die allerdings wegen der Kippung nicht mehr im
Fokus liegt. Die Referenzebene, an welcher der maximale Kontrast beobachtet werden kann, ist
um △zo verschoben. Diese nichteindeutige Position der Referenzebene führt zu einem systema-
tischen Fehler, der sich abhängig von der lokalen Neigung der spiegelnden Oberfläche ändern
kann. Für die Betrachtung des lokalen Fehlers kann man das Luftbild und die Fokusebene als
zwei parallel verlaufende Ebenen annehmen, wenn die zwei Ebenen nicht weit voneinander ent-
fernt sind. Durch diesen geometrischen Zusammenhang hängt der Retrace-Fehler △zo für ein
aberrationsfreies System nach der Gleichung 6.20 von dem lokalen zd und der lokalen Neigung
tanα ab,

△zo = 0, 5zd tan2 α. (6.20)

Für den Fall, dass der Bildschirm und der Kamerachip keine identische Formen haben, muss
mit dem Vorhandensein von neigungsabhängigen systematischen Fehlern auf spiegelnden
Oberflächen gerechnet werden. Sie lassen sich durch Hardwareanpassung vermeiden, wie durch
einen Common-Path-Setup oder durch einen Aufbau mit symmetrischer Beleuchtungs- und
Beobachtungsoptik.
6.2 Richtigkeit 79

Aberrationen des Objektivs

Obwohl die Fokusebenen von Bildschirm und Kamera theoretisch ideal aufeinander justiert
werden können, kann SIM trotzdem für Retrace-Fehler anfällig sein, und zwar wegen Aberra-
tionen der abbildenden Optik.

Dies lässt sich mit einer numerischen Simulation darstellen. Für die Simulation wird das
im Abschnitt 5.3 vorgestellte Modell verwendet. Bei Verwendung dieses Modells wird ein
Vignettierungseffekt der Apertur bei einem lokal gekippten Spiegel berücksichtigt: Beim
gekippten Spiegel wird der reflektierte Lichtkegel durch die Apertur teilweise blockiert. Mit
Berücksichtigung dieses Effekts wird der Intensitätsverlauf der PSF innerhalb der XZ-Ebene
und die damit zusammenhängende Kontrastkurve jeweils für zwei lokalen Spiegelneigungen 0°
und 15° bei einem Objektiv mit NA 0,5 und einer Gitterfrequenz ν̄ = 0, 1 simuliert und in
der Abbildung 6.7 illustriert. Dabei wird nur eine sphärische Aberration mit ω040 = 2λ als
einzig vorhandene Aberration in der Pupillenfunktion PA modelliert. Wie in der Abbildung
6.7 (b) dargestellt, wenn eine lokale Spiegelneigung von 15° vorliegt, wird die effektive Apertur
des gesamten Systems ein Kreiszweieck. Die Form und Größe des Kreiszweiecks wird durch
den überlappenden Bereich von zwei lateral verschobenen kreisförmigen Aperturen bestimmt,
wobei der Verschiebungsabstand in guter Näherung linear zum Kippwinkel des Spiegels pro-
portional ist. Die wichtigste Konsequenz einer verkleinerten effektiven Apertur, die man in den
Simulationsergebnissen beobachten kann, ist die axiale Verschiebung des Kurvenmaximums um
in diesem Fall 7 µm im Vergleich zu dem in der Abbildung 6.7 (a) dargestellten Spiegel ohne
Kippung. Diese Verschiebung wird als neigungsabhängiger systematischer Fehler bezeichnet,
der auf die sphärische Aberration zurückzuführen ist.

Nachdem man die durch sphärische Aberration bedingten neigungsabhängigen systematischen


Fehler identifiziert hat, ist eine weitere Frage von allgemeinem Interesse: Werden andere
Typen von Aberrationen auch einen neigungsabhängigen systematischem Fehler verursachen?
Diese Frage ist deshalb interessant, weil man damit beurteilen kann, ob man durch Wahl
eines spezifischen Objektivdesigns den Retrace-Fehler reduzieren kann. Um die Antwort
dieser Frage zu finden, werden fünf primären Aberrationstypen getrennt modelliert und die
dadurch verursachten Positionsverschiebungen gegenüber einem aberrationsfreien System in
Abhängigkeit von zunehmenden Spiegelneigungen simuliert. Die Simulationsergebnisse sind
in den Abbildungen 6.8 (a) - (e) dargestellt. Bei der numerischen Simulation werden die fünf
primären Aberrationen für NA=0.5 jeweils mit ω040 = 2λ, ω131 = 2λ, ω222 = 2λ, ω220 = 2λ
und ω311 = 2λ im System modelliert. Daraus wird ersichtlich, dass nur sphärische Aberration,
Koma und Astigmatismus eine neigungsabhängige Verschiebung des Kurvenmaximums auf
spiegelnden Oberflächen verursachen können. Zusätzlich wird die Simulation für NA=0.25
durchgeführt, wobei die Apertur bei denselben Aberrationsfunktionen um 50% abgeblendet
wird. Damit wird der Einfluss des Abblendens der Apertur auf den Retrace-Fehler untersucht.
Dabei ist festzustellen, dass der neigungsabhängige Retrace-Fehler beim Abblenden deutlich
geringer wird.
80 6 Charakterisierung und Grenzen von SIM

0.05

0.15

0.25

0.35
0.1

0.2

0.3

0.4
0
100 80
100
z
80 x zo=10.5µm

60
60

40
40

20
20
zo

0
0

­20
­20

0 20 40 60 80 100 120

(a)

15°
0.1

0.2

0.3

0.4

0.5

0.6

0.7
0

100
100

80 zo=17.5µm
80

60
60

40
40

20
20
zo

zo=7µm

0
0

­20
­20

0 20 40 60 80 100 120

(b)

Abbildung 6.7: Numerisch simulierte Kontrastkurven auf einem ebenen Spiegel mit Kippwinkel von
0° und 15°. Dabei wird nur die sphärische Aberration mit ω040 = 2λ im optischen
System modelliert. (a) Beim ebenen Spiegel mit Kippwinkel von 0° können die ein-
fallenden Strahlen nach der Reflexion die Apertur der Beobachtungsoptik vollständig
durchdringen. Dabei ist die effektive Apertur des gesamten optischen Systems kreisför-
mig. Aufgrund der sphärischen Aberration ist das Kurvenmaximum um 10.5 µm hin zur
Apertur verschoben. b) Beim ebenen Spiegel mit Kippwinkel von 15° wird ein Teil der
reflektierten Strahlen von der Beobachtungsapertur blockiert und die effektive Aper-
tur zweikreiseckeförmig. Der führt dazu, dass das Kurvenmaximum um weitere 7 µm
verschoben ist.
6.2 Richtigkeit 81

80

Fokusverschiebung in z−Richtung [μm]


80
70 NA0.5
Fokusverschiebung in z−Richtung [μm] NA0.5
70 NA0.25
NA0.25 60
60
50
50
40
40

30
30

20
20

10
10

0
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Normierter Neigungswinkel [0−1] Normierter Neigungswinkel [0−1]

(a) bei sphärischer Aberration ω040 = 2λ und h = 1 (b) bei Koma a ω131 = 2λ und h = 1
80 80
Fokusverschiebung in z−Richtung [μm]

Fokusverschiebung in z−Richtung [μm]


NA0.5 NA0.5
70 70
NA0.25 NA0.25
60 60

50 50

40 40

30 30

20 20

10 10

0
0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Normierter Neigungswinkel [0−1] Normierter Neigungswinkel [0−1]

(c) bei Astigmatismus ω222 = 2λ und h = 1 (d) bei Bildfeldwölbung ω220 = 2λ und h = 1
80
Fokusverschiebung in z−Richtung [μm]

70
NA0.5
NA0.25
60

50

40

30

20

10

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Normierter Neigungswinkel [0−1]

(e) bei Verzeichnung ω311 = 2λ und h = 1.

Abbildung 6.8: Neigungsabhängige Fokusverschiebung auf spiegelnden Oberflächen, die jeweils bei der
ausschließlichen Anwesenheit der eine von fünf Aberrationstypen (Sphärische Aberra-
tion, Koma, Astigmatismus, Bildfeldwölbung und Verzeichnung) simuliert wurde. Da
einige Aberrationstypen im Zentrum des Gesichtsfeldes nicht existieren, wurden das
Betrachtungspunkt am Rand h = 1 für die numerische Simulation gewählt.

Wie oben numerisch gezeigt wurde, führen sphärische Aberration, Koma und Astigmatismus
zu einem neigungsabhängigen systematischen Fehler auf spiegelnden Oberflächen. Man kann
auch die durch Aberrationen bedingte Retrace-Fehler experimentell verifizieren. Es wurde eine
Kugellagerkugel mit einem Durchmesser von 1 mm jeweils mit einem Mikroobjektiven 20x/0.5
mit zwei unterschiedlichen Tubuslinse gemessen. Darunter stammt eine Tubuslinse aus dem-
selben Hersteller wie das Mikroobjektiv. Durch die gute Abstimmung mit dem Mikroobjektiv
liefert sie bessere Abbildungsqualität, während die andere Tubuslinse aus dem fremden Herstel-
ler weniger gut abgestimmt ist und größere Aberration verursachen soll. Als Messobjekt wurde
82 6 Charakterisierung und Grenzen von SIM

eine Kugellagerkugel (Durchmesser: 1mm) mit hoher Präzision bei der Sphärizität (Sphärizi-
tät: 0,13 µm) und dem Durchmesser (Durchmessertoleranz: ± 1,3 µm) eingesetzt. Mit dem
bekannten Radius der Kugellagerkugel kann man die Bestfit-Kugel von den Messdaten ab-
ziehen. Die resultierende Höhenabweichung spiegelt die Größe des Retrace-Fehlers wider. Die
Höhenabweichungen von beiden Messungen sind in der Abbildung 6.9 dargestellt,

(a) (b)

Abbildung 6.9: (a) Höhenabweichung zwischen der gemessenen Höhenkarte einer Kugellagerkugel und
der Bestfitkugel mit dem vorgegebenen Durchmesser von 1 mm bei nicht abgestimm-
ten Mikroobjektiv und Tubuslinse. (b) Höhenabweichung auf demselben Objekt bei
abgestimmten Mikroobjektiv und Tubuslinse. Beide Messungen wurden mit einem Mi-
kroobjektiv 20x/0.5 auf einer Kugellagerkugel mit hoher Präzision (Sphärizität: 0,13
µm, Durchmessertoleranz: ± 1,3 µm) mit Durchmesser von 1 mm durchgeführt.

Dieser Fehler ist aufgrund der Abhängigkeit von der Objektgeometrie mit der Standardkali-
brierung nur schwer kalibrierbar. Mit Mikroobjektiven, deren Aberrationen auf Null korrigiert
sind, lassen sich die aberrationsbedingten systematischen Fehler eliminieren. Allerdings, für ein
makroskopisches System ist ein solches Objektiv mit hoher NA, beugungsbegrenzter lateraler
Auflösung (keine Aberrationen vorhanden) und gleichzeitig einem großen Messfeld kommerzi-
ell nur mit extrem hohem technologischem Aufwand erhältlich. Deshalb ist die Richtigkeit bei
einem makroskopischen SIM-System praktisch durch die Objektivaberrationen limitiert. Um
dabei eine gute Richtigkeit zu erzielen, ist eine zuverlässige Kalibrierungsmethode notwendig.
Im Abschnitt 8.2 wird eine modellfreie Kalibrierungsstrategie zur Kalibrierung des aberrati-
onsbedingten Retrace-Fehlers diskutiert.

Zusammenfassung
Die Richtigkeit von SIM charakterisiert die Größe des systematischen Fehlers im Sensor. Bei
Standardmethoden wird er durch Kalibrierung korrigiert. Während die meisten Fehlerquellen
mit Standardmethoden zu beseitigen sind, kann der Retrace-Fehler auf spiegelnden Oberflä-
chen aufgrund seiner Abhängigkeit von der Objektform nur sehr schwer kompensiert werden
und wird dadurch als die dominierende Fehlerquelle identifiziert.

Der Retrace-Fehler wird durch imperfekte Implementierung eines SIM-Systems verursacht. Zum
einen gibt es keine eindeutige Referenzebene, wenn sich die Fokusebenen von Beleuchtungs- und
Beobachtungsarm nicht auf derselben Position befinden. Der dadurch verursachte systemati-
sche Fehler ist linear proportional zum Abstand der beiden Fokusebenen und der quadrierten
Oberflächenneigung. Zum anderen entsteht auch bei Objektivaberrationen ein systematischer
Fehler. Mithilfe von dem im Abschnitt 5.3 vorgestellten Modell können die Kontrastkurven
6.3 Laterale Auflösung 83

numerisch simuliert und die Einflüsse von allen primären Aberrationen auf den systemati-
schen Fehler untersucht werden. Damit wird gezeigt, dass die sphärische Aberration, Koma
und Astigmatismus bei zunehmender Oberflächenneigung zu Retrace-Fehlern führen können.
Die Bildfeldwölbung und die Verzeichnung haben keine Auswirkung darauf.

6.3 Laterale Auflösung

Während die laterale Auflösung von KM und WLI in der Regel nur durch das 2D-
Auflösungsvermögen der verwendeten Optik bestimmt wird, kann bei SIM eine Aussage
über die laterale Auflösung der 3D-Messung nicht eindeutig getroffen werden. Da die Höhenin-
formation bei SIM aus den Kontrastwerten auch außerhalb der Fokusebene berechnet werden
muss, ist die effektive laterale Auflösungszelle einer 3D-Messung größer als die Auflösungszelle
innerhalb der Rayleigh-Schärfentiefe, und ihre Größe kann in Abhängigkeit von der verwende-
ten Gitterfrequenz variabel sein. Um eine quantitative Aussage über die 3D laterale Auflösung
von SIM treffen zu können, müssen die Einflüsse der großen Übersprechzone auf die laterale
Auflösung der Höhenkarte betrachtet werden.

p/2

Abbildung 6.10: Laterale Auflösung der Kontrastkarten an unterschiedlichen Tiefenpositionen

In der Praxis findet die Höhenberechnung durch eine numerische Interpolation in Form von ei-
nem Gaußfit statt. Aufgrund drei zulösender Unbekannten in der Gaußfunktion sind mindestens
drei Messwerte zur Durchführung der Ausgleichsrechnung notwendig. Nach der Abtasttheorie
soll die defokussierte Kontrastfunktion mindestens mit der Nyquist-Frequenz abgetastet wer-
den. Bei der axialen Abtastung mit der Nyquist-Frequenz entspricht die Schrittweite einer
Hälfte der halben Kurvenbreite. Wie in Abbildung 6.10 illustriert, wird zur lateralen Auflö-
sung ein spezieller Fall angenommen, wobei ein Messpunkt im Fokus und die anderen zwei
sich beim halben Kurvenmaximum befinden. Da die optimale Gitterfrequenz deutlich kleiner
als die Grenzfrequenz der Optik ist, kann man die Defokussierung in Näherung geometrisch
modellieren: der halbe maximale Kontrast kann erreicht werden, wenn der Durchmesser des
Zerstreuungskreises auf dem virtuellen Bild des Sinusmusters gerade so groß wie die halbe
Gitterperiode ist. Da die Signalwerte auf der Kurvenflanke überwiegenden Einfluss auf die Be-
stimmung der Maximumposition hat, kann man den Zusammenhang zwischen der effektiven
3D-Gerenzfrequenz νSIM und der Gitterfrequenz νGitter mit geometrischer Näherung abschät-
zen: Die effektive 3D-Grenzfrequenz νSIM ist etwa doppelt so groß wie die Gitterfrequenz νGitter
des projizierten Sinusmusters ist,
84 6 Charakterisierung und Grenzen von SIM

νSIM ≈ 2νGitter . (6.21)

Um den oben genannten Zusammenhang experimentell zu verifizieren, wurden Experimente


nach den Angaben der VDI/VDE-Richtlinien (VDI/VDE 2655 Blatt 1.2 [151]) durchgeführt.
Darin werden die Methoden zur Feststellung der lateralen Auflösung eines tiefenscannenden
3D-Sensors, wie WLI und KM, standardisiert. Nach diesen Angaben soll ein Stufennormal
mit unterschiedlichen Gitterkonstanten g und gleicher Stufenhöhe mit einem 3D-Messgerät ge-
messen werden. In den Messergebnissen soll die Gitterkonstante gesucht werden, bei der der
Abstand zwischen der höchsten und der tiefsten gemessenen Amplitude gerade noch 50% der
wahren Stufenhöhe beträgt. Aus dieser ermittelten Gitterkonstante wird die Grenzfrequenz
des lateralen Auflösungsvermögens von einem 3D-Messgerät bestimmt. Zur Feststellung des
lateralen Auflösungsvermögens von SIM werden nach dem vorgeschriebenen Messvorgang Hö-
henmessungen mit mehreren unterschiedlichen Gitterperioden p auf einem Stufennormal durch-
geführt. Bei jeder Messung wird der Peak-Valley-Abstand Tm des Höhenprofiles ausgelesen und
gegen die Gitterperiode p aufgetragen. Die Gitterperiode p50% , an welcher der gemessene Peak-
Valley-Abstand Tm 50% der wahren Stufenhöhe T beträgt, ist zu interpolieren. Das Verhältnis
zwischen p50% und T liefert den Zusammenhang der νSIM der lateralen Auflösung von SIM
und der Gitterfrequenz νGitter des Sinusmusters.

Auflösungsnormal

50 µ 50 µ
50 µ

200 µ 50 µ 50 µ
10 µ

4µ 0,4 µ 2µ
20 µ
10 µ

0,8 µ 3µ 0,6 µ
20 µ

150 µ

1,2 µ 0,3 µ 6µ
50 µ

120 µ

Abbildung 6.11: Auflösungsnormal RS-N von der Firma SiMETRICS GmbH.

Als Messobjekt wurde ein Stufennormal RS-N von der Firma SiMETRICS GmbH verwen-
det. Darauf befinden sich neun Stufenprofile mit Gitterperioden g von 0,3 µm bis 6 µm, die
alle dieselbe Stufenhöhe T von 0,2 µm aufweisen. Bei den Verifizierungsexperimenten wurde
das Stufenprofil (g = 2 µm) mit fünf unterschiedlichen Gitterperioden (p = 1 µm, 2 µm, 4
µm, 8 µm und 16 µm) mit einem 50x/0.85-Mikroobjektiv gemessen. Als Messergebnisse wer-
den die Quotienten von dem gemessenen Peak-Valley-Abstand Tm und der wahren Stufenhöhe
T = 0.2 µm berechnet. Da aufgrund des „Bat-Wing“-Effektes Überhöhungsartefakte bei großen
Gitterperioden an Stufenkanten auftreten können, wurden die gemessenen Amplituden manuell
ausgelesen. In der Abbildung 6.12 werden die Quotienten Tm /T gegenüber den Gitterperioden
P auf geplottet. Durch lineare Interpolation wurde die Gitterperiode P50% = 4 µm mit Tm /T =
50% bestimmt. Mit der Gitterperiode P50% = 4 µmkann die Stufenhöhen mit Gitterkonstan-
te g = 2 µm gerade 3D aufgelöst werden. Die 3D-Grenzfrequenz νSIM ist für die ermittelte
Gitterperiode P50% mit dem Kehrwert der dazugehörigen Gitterkonstante 1/g festgestellt.
6.3 Laterale Auflösung 85

p = 1µm µm
0.2
0.1
0 Tm=0.2µm
T=0.2µm -0.1
-0.2
0 1 2 3 4 5 6 7 8 9 10 µm
g=2µm
µm
p = 2µm 0.2
0.1
0 Tm=0.13µm
-0.1
T=0.2µm -0.2
0 1 2 3 4 5 6 7 8 9 10 µm
g=2µm

µm
p = 4µm 0.2
0.1
0 Tm=0.10µm
T=0.2µm -0.1
-0.2
0 1 2 3 4 5 6 7 8 9 10 µm
g=2µm

µm
p = 8µm 0.2
0.1
0
-0.1 Tm=0.07µm
T=0.2µm -0.2
0 1 2 3 4 5 6 7 8 9 10 µm
g=2µm

µm
p = 16µm 0.2
0.1
0 Tm=0µm
-0.1
T=0.2µm -0.2
0 1 2 3 4 5 6 7 8 9 10 µm
g=2µm
e
(a)
1
0.9
0.8
0.7
0.6
Tm/T [0-1]

0.5
0.4
0.3
0.2
0.1 p50%
0
0 2 4 6 8 10 12 14 16
Musterperiode p [µm]

(b)

Abbildung 6.12: Messdaten des Stufenprofils mit Gitterkonstante g = 2 µm (gemessen mit einem
50x/0.85-Mikroobjektiv).

Die obengenannte Testmessung wurde auch für andere Stufenprofile mit g =


0, 6 µm, 1,2 µm, 6 µm wiederholt. In der Abbildung 6.13 werden die vier festgestellten mittle-
ren Grenzfrequenzen νSIM gegenüber den dazugehörigen Gitterfrequenzen νGitter dargestellt,
wobei die beiden Frequenzen auf die 2D-Grenzfrequenz νGrenz des Mikroobjektives normiert
sind. Damit kann man feststellen, dass alle Messdaten nah an der Gerade von νSIM = 2νGitter
liegen. Dadurch kann eine lineare Abhängigkeit der lateralen Auflösung νSIM der 3D-Messung
von der Gitterfrequenz νGitter bei SIM beim Frequenzbereich bestätigt νGitter /νGrenz < 0.25
werden: Die effektive 3D Grenzfrequenz von SIM ist etwa doppelt so groß wie die Gitterfrequenz
des verwendeten Sinusmusters.
86 6 Charakterisierung und Grenzen von SIM

3D-Auflösung SIM/Grenz = (1/G)/Grenz [0-1]


0.9
SIM = 2Gitter
0.8

0.7

0.6

0.5

0.4 G=0,6µm

0.3
G=1,2µm
0.2
G=2µm
0.1
G=6µm
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
Musterfrequenz Gitter/Grenz = (1/P3D)/Grenz [0-1]

Abbildung 6.13: Experimentell ermittelte laterale Auflösung von SIM. Die gemessenen mittlere Grenz-
frequenzen des lateralen Auflösungsvermögens νSIM und die dazugehörigen Gitterfre-
quenzen νGitter des Sinusmusters werden auf die 2D-Grenzfrequenz νGrenz des verwen-
deten 50x/0.85-Mikroobjektivs (νGrenz = 3090lp/mm) normiert.

Zusammenfassung

Die Höhenwerte von SIM werden aus defokussierten Kontrastkurven berechnet. Deshalb be-
einflusst das vergrößerte Unschärfenscheibchen im defokussierten Fall maßgeblich das Auflö-
sungsvermögen der 3D-Messung. Da die optimale Gitterfrequenz kleiner als 0.25νGrenz , kann
man mit geometrischer Näherung den Zusammenhang der Bandbreite der 3D-Messung und der
Gitterfrequenz des projizierten Sinusmusters abschätzen: Die 3D Systembandbreite soll dop-
pelt so groß wie die Gitterfrequenz des Sinusmusters sein. Mit einem Auflösungsstandard wird
experimentell gezeigt, dass die erreichte Bandbereite im niedrigen Bereich der Gitterfrequenz
(< 0.25νGrenz ) etwa der doppelten Gitterfrequenz entspricht.

6.4 Winkeldynamik

Eine große Winkeldynamik ist eine wichtige Eigenschaft, die dafür sorgt, dass stark gekrümm-
te Objekte mit einer einzigen Messung erfasst werden können. Generell hängt die maximal
messbare Steigung von den Streueigenschaften ab. Bei guter Streueigenschaft (z.B. wie ein
Lambertscher Strahler) sind Objekte mit Steigungen von bis zu ±90° theoretisch messbar, weil
die einfallenden Photonen unabhängig von der Beobachtungsrichtung in die Detektionsein-
heit zurückgestreut werden. Bei wenig streuenden und spiegelnden Oberflächen ist stattdessen
die numerische Apertur der Beleuchtungsoptik und der Beobachtungsoptik der entscheidende
Aspekt zur Bestimmung der maximal messbaren Objektsteigung.
6.4 Winkeldynamik 87

Horizontales Vertikales
Muster Muster

Ba
f 2a

a
Ba

Abbildung 6.14: Effektive numerische Apertur des gesamten SIM-Systems bei einem gekippten Spiegel.

Um die Charakteristik der Winkeldynamik von SIM auf spiegelnden Oberflächen zu verstehen,
muss man den in [133] beschriebener Mechanismus der Signalentstehung im Zusammenhang
mit variierenden Oberflächensteigungen betrachten. In der Abbildung 6.14 wird ein geneigter
ebener Spiegel im Fokus von einem SIM-System dargestellt. Wird der ebene Spiegel um einen
Winkel α aus der zur optischen Achse senkrecht stehenden Lage geneigt, wird der gekippte
Lichtkegel nach der Reflexion auf dem Spiegel nach außen um einen Winkel 2α geneigt. Dies
führt dazu, dass nur ein Teil des reflektierten Lichtkegels in die Beobachtungsoptik eindringen
kann. Dies hat zur Folge, dass die effektive Apertur des gesamten Systems eine Form hat, die
dem überlappenden Bereich von zwei verschobenen Kreisen entspricht. Dabei ist der Abstand
zwischen den Kreiszentren proportional zum Kippwinkel des Spiegels. Der überlappende Be-
reich wird als „Kreiszweieck“ bezeichnet, das von zwei Hauptachsen mit dem jeweils längsten
und kürzesten Längen bestimmt wird. Die lange Hauptachse ist parallel zur Drehachse des
Spiegels. Aufgrund der nicht-rotationsymmetrischen Form der effektiven Apertur auf geneig-
ten Oberflächen kann bei unterschiedlicher Orientierung des projizierten Sinusmusters eine
unterschiedliche Signalform auftreten. Diese Effekte haben einen erheblichen Einfluss auf die
Winkeldynamik [133].

Wie im Kapitel 5.2 mit den Gleichungen 5.15 und 5.16 theoretisch gezeigt wurde, ist die Kon-
trastkurve von SIM eine Funktion der Gitterfrequenz ν̄ und des Aperturwinkels u entlang
der Streifenrichtung des projizierten Sinusmusters. Werden Sinusstreifen parallel zur kürzeren
Hauptachse projiziert (wie das horizontales Muster in der Abbildung 6.14) , lässt sich der Win-
kel u der effektiven Apertur aus dem vollen Aperturwinkel uV oll und dem Kippwinkel α des
Spiegels berechnen. Aus geometrischen Überlegungen beträgt der effektive Aperturwinkel u in
diesem Fall nach der Gleichung 6.22,

Ba
sinu = = sinuV oll − sinα. (6.22)
2f
Beim Streifenrichtung parallel zur längeren Hauptachse (wie das vertikales Muster in der Ab-
bildung 6.14) erfolgt die Berechnung des Aperturwinkels u nach der Gleichung 6.23,
q
Ba
sinu = = sinu2V oll − sina2 . (6.23)
2f
In der Abbildung 6.15 werden bei einem Objektiv mit NA0,85 Änderungen der effektiven nu-
merischen Apertur sinu jeweils für beide Streifenrichtungen in Abhängigkeit des Kippwinkels
88 6 Charakterisierung und Grenzen von SIM

α des Spiegels dargestellt. Bei einem monotonen steigenden Kippwinkel α nimmt die effekti-
ve numerische Apertur des horizontalen Musters viel schneller als die des vertikalen Musters
ab. Als Konsequenz der schnelleren Abnahme der effektiven Apertur wird die Kontrastkurve
schneller niedriger und bereiter. Liegt der maximale Kontrastwert in der gleichen Größenord-
nung wie das Rauschen, ist eine Auswertung der Höhe nicht mehr möglich. Dadurch wird die
Winkeldynamik begrenzt. Da die effektive Apertur des vertikalen Musters langsamer abfällt,
ist die Winkeldynamik des vertikalen Musters daher viel größer als die vom horizontalen. Aus
diesem Zusammenhang lässt sich die Charakteristik der Winkeldynamik ableiten: Die Win-
keldynamik von SIM ist anisotrop und wird bei einer Streifenrichtung parallel zur Drehachse
der Objektoberfläche maximal.

1
Horizontales Muster
0.9 Vertikales Muster

0.8
Effektive NA sinu = Ba/2f

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0 10 20 30 40 50
Neigungswinkel  [°]

Abbildung 6.15: Abhängigkeit der effektiven numerischen Apertur vom monotonen steigenden Kipp-
winkel α jeweils bei zwei Streifenrichtungen (Wie in dargestellt, Horizontales Muster:
Streifenrichtung senkrecht zur Drehachse des ebenen Spiegels, Vertikales Muster: Strei-
fenrichtung parallel zur Drehachse des ebenen Spiegels).

Diese Aussage über die Charakteristik der Winkeldynamik wurde experimentell auf einer spie-
gelnden Kugellagerkugel verifiziert. Wie in der Abbildung 6.16 (a) dargestellt, wurde diese
zentriert an Stelle mit Elevationswinkel von 45° jeweils mit horizontalem, vertikalem und kom-
binierten Muster gemessen. Die drei resultierenden Höhenkarten sind in der Abbildung 6.16
(b) gegenübergestellt. Aus dem Messergebnis lässt sich die theoretisch erwartete anisotrope
Winkeldynamik bestätigen: Der maximal messbare Winkel beträgt beim vertikalen Muster 53°
bei einem Öffnungswinkel 58° des NA0.85-Mikroobjectives und ist höher als die Winkeldyna-
mik von 46° beim horizontalen Muster. Um eine isotrope Winkeldynamik zu erhalten, sind
Messungen mit mehreren Streifenrichtungen notwendig.
6.4 Winkeldynamik 89

Testobjekt Topansicht Seitenansicht


Kugellagerkugel mit R:0,5mm
R:0,5mm 90µm

:45° R:0,5mm
:45°

120µm
90µm

(a)

Höhenkarte (vertikales Muster) Höhenkarte (horizontales Muster) Höhenkarte (kombiniertes Muster)


80 80 80

60 60 60
20

20
20

40 40 40
40

40
40

20 20 20
y [µm]

y [µm]
y [µm]
60

60
60

0 0 0
80

80
80

-20 -20 -20


100

100
100

-40 -40 -40


120

120
120

-60 -60 -60

-80 -80 -80


10 30 50 60 70 80 90 100 10 20 30 40 50 60 70 80 90 100 10 20 30 40 50 60 70 80 90 100
20 40

x [µm] x [µm] x [µm]

(b)

Abbildung 6.16: (a) Testkonfiguration für Demonstration der anisotropischen Winkeldynamik. (b) Hö-
henkarten einer Kugellagerkugel, die an derselben Stelle jeweils mit dem horizontalen,
vertikalen und kombinierten Muster gemessen wurden. Das kombinierte Muster wird
durch Mittelwertbildung von beiden Kontrastkurven beim vertikalen und horizonta-
len Muster realisiert. Bei den Messungen wurde ein 50x/0.85-Mikroobjektiv mit einer
Feldgröße von 120µm x 90µm verwendet.

Optimierung der Winkeldynamik

Wie oben erklärt, ist die Winkeldynamik von SIM auf spiegelnden Oberflächen von der Strei-
fenrichtung abhängig. Wenn eine Richtung eines Sinusmusters die kleinste Winkeldynamik lie-
fert, wird die maximale Winkeldynamik bei der dazu orthogonalen Streifenrichtung erreicht.
Deshalb ist eine Kombination von zwei senkrecht stehenden Sinusmustern eine optimale Opti-
on, um zu vermeiden, dass man mit ungünstigster Richtung die Oberflächen misst. Dabei soll
versucht werden, die Höhendaten aus dem Signal mit der günstigeren Streifenrichtung auszu-
werten. Da die günstige Streifenrichtung aufgrund der Form der Pupille bei geneigten Flächen
immer einen größeren maximalen Kontrast als die ungünstige Streifenrichtung hat, kann man
die Höhen von beiden Messungen mithilfe des maximalen Kontrasts der Kontrastkurven mitein-
ander kombinieren. Allerdings führt dieser Ansatz oft aufgrund von Astigmatismus zur Sprünge
auf der Höhenkarte. Eine in der Praxis bewährte Alternative ist, die Mittelwerte von beiden
Kontrastkurven zu bilden. Wie in der Abbildung 6.17 (a) dargestellt wird, hat die Kontrastkur-
ve einer ungünstigeren Streifenrichtung aufgrund des schlechten Kontrastes weniger Gewicht
als die der günstigeren Streifenrichtung. Von daher ist der Beitrag der Streifenrichtung bei der
Auswertung der Höhenkarte dominierend. Dadurch lässt sich die Anisotropie der Winkeldyna-
mik beseitigen. Der Effekt der Kombination von beiden orthogonalen Streifenrichtungen lässt
sich mit den in der Abbildung 6.17 illustrierten Messergebnissen bestätigen: Die Winkeldyna-
90 6 Charakterisierung und Grenzen von SIM

mik der kombinierten Messungen ist vergleichbar mit der Winkeldynamik der Messung mit der
günstigeren Streifenrichtung.

0.35
Vertikales Muster
Horizontales Muster
Kombination von vertikalen
0.3 und horizontalen Mustern

0.25
Kontrast C(z)

0.2

0.15

0.1

0.05

0
142 144 146 148 150 152 154 156 158 160
Objektposition z [µm]

(a)

Horizontales Muster
Vertikales Muster
Kombiniation von horizonalen
und vertikalen Mustern
Höhe [µm]

44° 52° 53°


Neigungswinkel der Kugel [°]

(b)

Abbildung 6.17: (a) Drei Kontrastkurven von SIM-Messungen mit vertikalem, horizontalem und kom-
biniertem Muster an einem Objektpunkt mit Oberflächenneigung von 45°. (b) Drei
Höhenprofile an der steilen Flanke einer Kugellagerkugel, die an derselben Stelle je-
weils mit horizontalem, vertikalem und kombiniertem Muster gemessen wurde.

Zusammenfassung
Obwohl die theoretisch maximale Winkeldynamik von der Objektivapertur limitiert wird,
hängt in der Praxis aufgrund der Anwesenheit des Messrauschens die Winkeldynamik stark
von der relativen Orientierung der Oberflächennormale und der Streifenrichtung des proji-
zierten Sinusmusters ab. Bei Projizierung eines unidirektionalen Sinusmusters entsteht eine
6.5 Skalierbarkeit 91

anisotrope Winkeldynamik, wobei diese bei parallellaufender Oberflächennormale und Strei-


fenrichtung am größten und bei orthogonaler Streifenrichtung am kleinsten ist. Um eine isotro-
pe Winkeldynamik zu erhalten, können zwei orthogonal stehende Sinusmuster projiziert und
die Höhenauswertung aus den Kontrastwerten mit höherem maximalem Kontrast durchgeführt
werden. Diese kombinierte Auswertung liefert eine fast isotrope1 Winkeldynamik.

6.5 Skalierbarkeit

Für ein mikroskopisches Messfeld zeigt SIM ausgezeichnete Präzision: Die Höhenmessunsi-
cherheit δz liegt im Submikrometer-Bereich und kann bis zu einigen Nanometern optimiert
werden. Damit steht SIM neben KM und WLI als eine interessante Alternative für hochpräzise
und hochauflösende 3D-Messung mikroskopischer Objekte. Für Messung von großen Objekten
bzw. kleinen Objekten mit großer Stückzahl (wie z.B. die Inspektion von Lötbumps) ist jedoch
ein makroskopisches Messfeld von Nöten. In diesem Abschnitt werden drei Möglichkeiten zur
Hochskalierung des Messfelds sowie die Vor- und Nachteile diskutiert.

Als erste Möglichkeit kann man das vergrößerte Messfeld durch ein anderes Objektiv erzielen.
Der Vorteil liegt darin, dass man alle Messpunkte im Messfeld durch einmaliges axiales Scannen
gleichzeitig aufnehmen kann. Allerdings benötigt man bei hochauflösenden und hochpräzisen
Messaufgaben ein Objektiv mit hoher lateraler Auflösung, großer numerischer Apertur und
gleichzeitig einem großen Messfeld. Ein solches Objektiv ist in der Realität sehr aufwändig
herzustellen. Oft muss man als Kompromiss beim Objektivdesign entweder kleinere numerische
Apertur oder ein geringeres Auflösungsvermögen in Kauf nehmen. Dies hat nach Abschnitt
4.2.1 eine Verminderung der Präzision zur Folge. Deshalb ist das Messfeld bei SIM für eine
hochauflösende und hochgenaue Messung in der Praxis praktisch immer klein.

Eine weitere Möglichkeit ist laterales Stitchen. Dieser Ansatz ist technologisch einfach zu
realisieren und kann laterale Auflösung und Präzision unabhängig vom Messfeld des Objektivs
erhalten. Da mit diesem Ansatz eine sowohl axiale als auch laterale Bewegung der Probe gegen-
über dem Sensor notwendig ist, kann die laterale Bewegung nicht kontinuierlich durchgeführt
werden. Deshalb ist die Messgeschwindigkeit stark durch den „Stop-And-Go“-Scanmechanismus
limitiert, obwohl die Kamerabandbreite eine deutliche höhere Messgeschwindigkeit erlauben
würde.

Die letzte Möglichkeit ist ein zeilenscannender Ansatz: Mit einer einzelnen Kameraaufnah-
me werden die Intensitätsdaten aus unterschiedlichen Tiefenpositionen innerhalb des gesamten
axialen Bereichs erfasst, wie im Abschnitt 7.3 erklärt. Damit kann man ohne axiales Scannen
das Messfeld in eine laterale Richtung beliebig erweitern. Da die laterale Bewegung kontinu-
ierlich durchgeführt wird, kann die Messgeschwindigkeit ohne mechanische Einschränkung so
hoch sein, wie die Lichtmenge und Kamerabandbreite es zulassen. Nichtsdestotrotz ist es bei ei-
ner makroskopischen Messung mit SIM möglich, hohe laterale Auflösung, hohe Präzision sowie
bestmögliche Messgeschwindigkeit gleichzeitig zu erzielen. Damit dient dieser Ansatz als eine
optimale makroskopische Methode für hochgenaue, hochauflösende und hochschnelle Messauf-
gaben. Dieser Ansatz wurde bereits im Lichtschnittssensor [35], im passiven fokussuchenden
Sensor[165] sowie in WLI [166] implementiert. Nach unserem Wissen zum Zeitpunkt der Ent-
wicklung dieses Ansatzes gibt es noch keinen zeilenscannenden Ansatz für SIM. Im Rahmen
1
Im Gegensatz zu einer rotationsymmetrischen isotropen Winkeldynamik ist die damit erreichte Winkeldyna-
mik bei 45°, 135°,225° und 315° etwa kleiner als bei 0°, 90°, 180° und 270°.
92 6 Charakterisierung und Grenzen von SIM

dieser Dissertation wurde eine neue Methode entwickelt und implementiert. Der Messmecha-
nismus wird im Abschnitt 7.3 vorgestellt.

Zusammenfassung
SIM leidet bei Hochskalierung grundsätzlich unter einer technischen Grenze, welche dafür
sorgt, dass die Präzision bei Hochskalierung des Messfelds abnimmt. Der Grund dafür ist, dass
man für eine Vergrößerung des Messfeldes in der Praxis immer eine Verkleinerung der NA
und/oder der lateralen Auflösung in Kauf nehmen muss. Dies führt zu einer Reduzierung der
Präzision. Eine optimale Hochskalierung kann aber durch einen zeilenscannenden Ansatz ohne
Einfluss auf die Präzision erfolgen.
93

7 Optimierung der Messgeschwindigkeit

Für industrielle Inspektion ist die Messgeschwindigkeit ein Schlüsselparameter. In diesem Ka-
pitel wird die theoretische und technologische Grenze der Messgeschwindigkeit von SIM disku-
tiert. Es werden Ansätze gezeigt, wie die theoretische Grenze auch in der Praxis erreicht werden
kann und wie die Messgeschwindigkeit für makroskopische Messung durch Parallelisierung von
kostengünstigen Systemen ermöglicht wird.

7.1 Grenze der Messgeschwindigkeit

In manchen Anwendungen, wie z.B. der In-Line-Inspektion von elektronischen Komponen-


ten, ist neben den notwendigen Spezifikationen für hohe laterale Auflösung und hohe Genau-
igkeit eine extrem hohe Messgeschwindigkeit erforderlich. Dadurch wird gewährleistet, dass
die Inspektionsaufgabe innerhalb eines vordefinierten Zeitfensters im gesamten Fertigungs-
prozess durchgeführt werden kann und damit die elektronischen Komponenten günstig her-
stellt werden können. Die dabei erforderliche Messgeschwindigkeit lässt sich durch den Begriff
OBAP (Orts-Bandbreite-Aufnahmerate-Produkt) charakterisieren [17]. Beim Messfeld („Ort“)
des Sensors △x△y m2 und der Bandbreite in lateraler Richtung 1/(δxδy) m−2 beinhaltet
eine 3D-Höhenkarte △x△y/(δxδy) 3D-Punkte. Die Aufnahmerate der 3D-Aufnahme A [3D-
Aufname/Sekunde] definiert, dass A 3D-Höhenkarten pro Sekunde generiert werden können.
Das Produkt dieser drei Terme legt die Anzahl der generierbaren 3D-Punkte pro Sekunde
fest. Um die Dynamik des 3D-Sensors berücksichtigen zu können, wird Kanalkapazität CC3D
[Bit/Sekunde] als ein allgemeines Kriterium für Messgeschwindigkeit verwendet [18],

∆z
CC3D = OBAP · log2 (1 + )· (7.1)
σz
Die Diskussion über die Grenze der Messgeschwindigkeit wird auf zwei Ebenen durchgeführt.
Zum einen, wird die theoretisch maximal erreichbare Kanalkapazität CC3D eines 3D-Sensors
aus der informationstheoretischen Perspektive betrachtet. Dabei ist die Frage, mindestens aus
wie viele 2D-Information der Kamera kann 3D-Information gewonnen werden. Zum anderen
spielen die technologischen Einschränkungen in der Realität eine entscheidende Rolle. Sie kön-
nen verhindern, dass die theoretisch mögliche Grenze auch erreicht wird.

Informationstheoretische Grenze
Ein optischer 3D-Sensor lässt sich als Kommunikationssystem betrachten. In den Doktorar-
beiten von Wagner [142] und Hybl [7] wird dieses Konzept verwendet und die Informationseffi-
zienz von optischen 3D-Sensoren diskutiert. Dabei wird die zu bestimmende Form des Objekts
z(x, y) als Informationsquelle betrachtet. Über die Beleuchtung wird die Höheninformation op-
tisch kodiert. Die optische Information durchläuft den Übertragungskanal (leerer Raum, Optik
und Elektronik). Am Ende des Kanals wird die Information durch die Kamera empfangen und
die Objektform anschließend im Rechner dekodiert. Zur Charakterisierung der Effizienz eines
optischen 3D-Sensors wird die Informationseffizienz ηI mit der Gleichung 7.2 definiert [142],

I(z, zm )
ηI = , (7.2)
0.5Mx · My · E · log2 (SN Rcam )
94 7 Optimierung der Messgeschwindigkeit

wobei I(z, zm ) als die Transinformation zwischen der wahren Höhenkarte z(x, y) und der
gemessenen Höhenkarte zm (x, y) definiert ist. Mx und My sind jeweils die Anzahl der Ab-
tastpunkte in x- und y-Richtung und E ist die Anzahl der notwendigen 2D-Bildpunkte für
Berechnung eines 3D-Punkts. SN Rcam ist das Signal-Rausch-Verhältnis der Kamera, wenn
die Kamera komplett ausgesteuert ist. Dabei werden die optischen, elektrischen und diskreten
Kanäle in einem Kamerasystem gemeinsam betrachtet [142].

Wenn die gemessene Höhenkarte zm (x, y) mit einer Quantisierungsstufe von gleicher Größe wie
das Höhenrauschen zur zmq (x, y) quantisiert wird, ist die Transinformation gleich der Entropie
HI (zmq ) der quantisierten Höhenkarte [142],

I(z, zm ) = HI (zmq ). (7.3)


Die Entropie HI (zmq ) definiert die mittlere Information der Höhenkarte eines 3D-Scanners und
hängt von der Wahrscheinlichkeitsverteilung P (zmqi ) ab. Mit der Log-Basis 2 hat sie die Einheit

von „Bit“.
n
X
i i
HI (zmq ) = −Mx My P (zmq )log2 (P (zmq )). (7.4)
i=1

Wird angenommen, dass alle Höhenwerte innerhalb der Messtiefe ∆z gleich wahrscheinlich
vorkommen, ist die Entropie maximal und kann mit der Dynamik ∆z/σz umgeformt werden,

∆z
HI (zmq ) = Mx My log2 ( ). (7.5)
σz
Die Gleichung 7.5 spezifiziert die mittlere Information ein einziger 3D-Aufnahme. Das Produkt
von der Entropie HI (zmq ) und der Aufnahmerate A entspricht der Kanalkapazität eines 3D-
Sensors CC3D ,

∆z
CC3D = Mx · My · log2 (1 + ) · A ≈ HI (zmq ) · A. (7.6)
σz
CC3D quantifiziert die Information sowohl für die Messgeschwindigkeit als auch für die Dy-
namik eines 3D-Sensors. Deshalb ist dieser ein idealer Parameter zum Vergleich zwischen
3D-Sensoren aus unterschiedlichen Typen oder Herstellern.

Die Leistung eines Kamerasystems lässt sich analog auch mit der Kanalkapazität CC2D spezi-
fizieren,

CC2D = 0.5Mx · My · E · log2 (SN Rcam ) · A. (7.7)


Berücksichtigt man die Gleichung 7.2, 7.3, 7.6 und 7.7, lässt sich die Informationseffizienz auch
durch den Quotient zwischen CC3D und CC2D ausdrücken,

CC3D
ηI = . (7.8)
CC2D
Weil man sich für Messgeschwindigkeit interessiert und die logarithmierte Dynamik bei der
3D-Aufnahme (log2 (500 : 1)) und der 2D-Aufnahme (log2 (256 : 1)) etwa gleich sind, wird die
Informationseffizienz durch den Kehrwert der Anzahl der Aufnahmen E genähert,

1
ηI ≈ . (7.9)
E
7.1 Grenze der Messgeschwindigkeit 95

Mit der Gleichung 7.9 kann man die Informationseffizienz grob abschätzen. Sie deutet darauf
hin, dass die Informationseffizienz wesentlich durch die Anzahl der notwendigen Aufnahmen
limitiert ist. Bei gleicher Hardware lässt sich die Informationseffizienz durch Reduktion der
Aufnahmezahl E steigern und CC3D wird damit erhöht. Für eine Abschätzung von E bei SIM
ist allerdings eine genauere Betrachtung des Kodierungsmechanismus erforderlich.

Bei jeder optischen 3D-Messung muss ein grundsätzliches Problem behandelt werden: Wie
wird die Objekthöhe (mit optischer Beleuchtung) kodiert und dekodiert? Da drei Unbekannte
- Umgebungslicht, Oberflächenreflektivität und Objekthöhe - optischen kodiert werden müssen
[167], werden mindestens drei Messdaten benötigt, um einen Höhenwert an einem Objektpunkt
zu berechnen. Deshalb kann die Informationseffizienz ηI eines optischen 3D-Sensors 33% im
allgemeinen nicht überschreiten. Bei der klassischen SIM-Messung ist die Informationseffizienz
aber deutlich geringer. Hierbei müssen entlang der axialen Achse mindestens drei Kontrast-
werte zur Interpolation des Kurvenmaximums und an jeder axialen Position mindestens drei
phasenverschobenen Aufnahmen zur Berechnung des Kontrasts aufgenommen werden. Min-
destens 9 Aufnahmen sind notwendig.

Wie in der Abbildung 7.1 gezeigt, kodiert SIM als ein aktiv fokussuchendes Messprinzip die Hö-
heninformation des Objekts in den „defokussierenden“ MTF-Werten der Optik, während man
das Objekt entlang der optischen Achse verschiebt. Zur Messung eines Objekts mit einer Hö-
henvariation von △z muss der Verfahrweg verlängert werden, zwar um eine die Breite (F W HM
) der Kontrastkurve, um die Daten am Rand der Messtiefe erfassen zu können. Für die axia-
le Abtastung der Kontrastkurve muss das Abtasttheorem erfüllt sein und eine Schrittweite s
von nicht länger als FWHM/2 gewählt werden. Aus der Schrittweite s und dem Verfahrweg
△z + F W HM ergibt sich die Anzahl nz der axialen Abtastpositionen,

△z + F W HM
nz = + 1. (7.10)
s
An jeder axialen Position wird die MTF der Optik in Form von projizierten Intensitätsmus-
tern kodiert. Je nachdem welche Methode verwendet wird, benötigt man zusätzlich noch nt
temporäre (z.B. bei Phasenschiebung) und nx räumliche Datenpunkte (z.B. bei Benutzung von
Nachbarinformation). Das Produkt von nz , nt und nx bestimmt die Anzahl der notwendigen
Datenpunkte, aus denen ein 3D-Punkt berechnet werden kann. Diese Anzahl lässt sich implizit
auch mit dem Parameter E unabhängig von Kodierungsmechanismus bezeichnen,

E = nz · nt · nx . (7.11)
Die theoretisch maximal erreichbare Kanalkapazität des 3D-Sensors CC3D wird durch die Ka-
nalkapazität des Kamerasystems CC2D und die Informationseffizienz η limitiert,

CC2D
CC3D = CC2D · η = . (7.12)
E
Zur Erhöhung von CC3D kann man leider nicht auf Verfügbarkeit schnellerer und besserer
Kamera warten. Stattdessen soll hier die Informationseffizienz η erhöht werden, indem die
Anzahl der notwendigen Aufnahmen E reduziert wird. Im Abschnitt 7.2.1 wird die theoretisch
erreichbare Informationseffizienz und eine mögliche Implementierung diskutiert.

Technologische Grenzen
Auch wenn die Theorie ein optimales Resultat liefert, ist in der Realität die theoretische
96 7 Optimierung der Messgeschwindigkeit

en
... folg
x

Ab
he
lic
um
...

t
x
n

nt zeitliche Abfolgen

FWHM
... ... ... ... ... ...
s

z
nz axiale Abfolgen

Messtiefe: z
Scanntiefe: z + FWHM

E(= nxntnz) Aufnahmen 1 3D-Punkt

Abbildung 7.1: Modell zur Veranschaulichung der Anzahl der notwendigen Datenpunkte E für die Be-
rechnung eines 3D-Punkts.

Grenze nicht einfach zu erreichen, weil die benötigte Technologie nicht perfekt oder gar nicht
verfügbar ist. Damit gilt die Einschränkung der verfügbaren Technologien als der Flaschenhals
für die maximal mögliche Messgeschwindigkeit.

Da der Kontrast bei SIM mindestens aus drei Intensitätswerten berechnet wird, benötigt man
bei der klassischen Methode zur Berechnung mindestens drei Aufnahmen an jeder axialen
Position. Damit kann das Objekt nicht kontinuierlich durchgescannt werden. Die Zeit, die der
Motor für Beschleunigung, Bremsen und Ausschwingen braucht, liegt in der Realität deutlich
über der Zeit für einen kontinuierlichen Scan. Die Messgeschwindigkeit ist also hier durch das
„Stop-And-Go“ für die Phasenschiebung limitiert.

Die in [126, 128, 127] vorgestellten Methoden 2 - 4 in der Tabelle 7.1 reduzieren die minimale
notwendige Anzahl der Aufnahmen auf zwei bzw. eine, damit ein kontinuierlicher Scan möglich
ist. Dabei wird zur eindeutigen Berechnung des Kontrasts die fehlende Information statt aus
der zeitlichen Abfolge nun aus der örtlichen Nachbarschaft entnommen. Wie in der Tabelle
7.2 Methoden zur Optimierung der Messgeschwindigkeit 97

7.1 gezeigt, nimmt die Informationseffizienz aufgrund der gestiegenen Anzahl der Messdaten ab.

Methode nz nt nx E „Stop-And-Go“
1 3-Phasenschiebung 3 3 1 9 Ja
2 2-Phasenschiebung 3 2 2 12 Nein (bedingt)
3 Multilinien-Muster 6 1 2 12 Nein
4 Faltung-Methode 3 1 4 12 Nein

Tabelle 7.1: Vergleich der Informationseffizienz zwischen den vier Methoden (Stand der Technik) zur
Kontrastmessung (nur drei axiale Abtastpunkte für jeden Pixel angenommen).

In der Tabelle 7.1 wird die Informationseffizienz für alle Methoden miteinander verglichen.
Da die relative Informationseffizienz unabhängig von der Anzahl der axialen Aufnahmen
immer gleich bleibt, werden einfachheitshalber nur drei axiale Abtastpunkte für jeden Pixel
angenommen. Daraus wird ersichtlich, dass der Preis beim Vermeiden von „Stop-And-Go“ mit
den Methoden 2 - 4 eine verschlechterte Informationseffizienz ist.

In den nächsten Abschnitten werden zwei informationseffizientere Ansätze zum Vermeiden von
„Stop-And-Go“ vorgestellt, wobei der letztere Ansatz eine makroskopische Messung durch Par-
allelisierung von kostengünstigen Sensoren ermöglicht.

7.2 Methoden zur Optimierung der Messgeschwindigkeit

In diesem Abschnitt wird erstens eine Lösung vorgestellt, die ein kontinuierliches Scannen ohne
Verluste an Informationseffizienz und lateraler Auflösung ermöglicht und gleichzeitig sogar die
Informationseffizienz im Vergleich zur klassischen Phasenschiebung verbessert.

Diese Methode wird dann erweitert, um das „Stop and Go“-Problem auch bei der Optimie-
rung der Winkeldynamik von SIM und bei der Kombination mit der Mikrodeflektometrie (der
Kombinationsansatz wird im Abschnitt 8.1 vorgestellt) zu behandeln. Zum einen ist aus dem
Abschnitt 6.4 bekannt, dass eine isotrope Winkeldynamik bei SIM mit orthogonalen Strei-
fenrichtungen erreicht werden kann. Zum anderen kann man durch vorteilhafte Kombination
der Höhenkarten aus SIM und Mikrodeflektometrie die Messgenauigkeit erhöhen. Die Erfas-
sung von zwei Oberflächenneigungen sx und sy lässt keinen kontinuierlichen Tiefenscan zu.
Als Lösung vereinigt man beide Streifenmuster in einem Kreuzmuster und verschiebt dieses
Muster während des Tiefenscans kontinuierlich lateral mit, damit an jeder z-Position nur eine
Aufnahme akquiriert wird. Eine richtige Auswahl der Verschiebungsrichtung des Kreuzmusters
sorgt dafür, dass Kontrast und Phase von beiden Streifenmustern bei der Auswertung fehlerfrei
voneinander separiert werden können.

7.2.1 Informationseffizienter Ansatz für ein kontinuierliches axiales Scannen

Um informationstheoretisch optimal das „Stop-And-Go“-Problem zu lösen, wird ein neuer infor-


mationseffizienter Ansatz zum axialen Scannen entwickelt. Mit diesem Ansatz soll die fehlende
Information bei einer Single-Shot-Messung aus zusätzlichen axialen Aufnahmen entnommen
werden. Dieser Ansatz wurde in [168] zur Schärfentiefenerweiterung bei einem Triangulations-
sensor vorgestellt. Die dabei umgesetzte Idee der fliegenden Phasenschiebung wird auf SIM
98 7 Optimierung der Messgeschwindigkeit

übertragen. Analog zur AM-Modulation wird, wie in der Abbildung 7.2 gezeigt, das Sinus-
muster während des axialen Scans gleichzeitig auch kontinuierlich mit verschoben. Indem man
die Zeitpunkte der Kameraaufnahme mit der Verschiebung des Sinusmusters und dem axialen
Scannen synchronisiert, erhält man in jedem Pixel ein AM-moduliertes Signal, das mit der
Gleichung 7.13 beschrieben wird,

2π(z − z0 )
I(z) = Im + Im C(z)cos( + ϕ0 ), (7.13)
sM
wobei die Frequenz des Trägersignals frei einstellbar ist, indem man die axiale Schrittweite s
und die Anzahl der Phasenschiebungen M verändert.

Durch Justierung der Synchronisation zwischen den Zeitpunkten der Kameraaufnahme und
der Verschiebung des Sinusmusters, wird die Anzahl der Phasenschiebungen M festgelegt.
In der Abbildung 7.2 wird ein Tiefensignal für M = 4 dargestellt. Statt vier Aufnahmen
bei klassischer Phasenschiebung an einer z-Position zu akquirieren, wird das beobachtete
Sinusmuster nur von der Kamera gemessen, wenn das Sinusmuster bei jeder Tiefenposition z1 ,
z2 , z3 , z4 · · · jeweils um 0, 12 π, π, 23 π, · · · verschoben wird.

I1 I
2 I
3 I
4 I5 I
6 I
7 I
8

3/2 0 /2  3/2 0 /2 


Phase ...

Fliegendes Muster mit


4-Phasenschiebung
...
I(x0,y0)
z-Scan

I(x0,y0)

Abbildung 7.2: Prinzip der „fliegenden Phasenschiebung“, die ein informationseffizientes kontinuierliches
Tiefenscannen ermöglicht.

Das erhaltene Tiefensignal I(z) ist analog zum Korrelogrammsignal eines WLI-Sensors. Aus
der Einhüllende kann die Kontrastkurve C(z) mit den etablierten Demodulationsalgorithmen
[169, 170, 171] von WLI dekodiert werden. Allen Demodulationsalgorithmen liegt dasselbe
Prinzip zugrunde. Dieses Prinzip beruht auf der „Single-Side-Band“(SSB)-Demodulation im
Fourierraum und ist in der Abbildung 7.3 (a) - (d) dargestellt.

Mit der SSB-Demodulation wird das AM-modulierte Intensitätssignal I(z) in der Abbildung
7.3 (a) Fourier-transformiert. Die in der Abbildung 7.3 (b) dargestellte Fourier-Transformierte
besteht aus einem DC-Term bei ν = 0 und zwei weiteren gaußförmigen Termen, die sich jeweils
7.2 Methoden zur Optimierung der Messgeschwindigkeit 99
Intensität I(z) [digits]

Magnitude
Räumliche Frequenz n [µm ]
-1
Höhen z [µm]

(a) (b)

Phase 0(z) [rad]


Kontrast C(z)

Höhen z [µm] Höhen z [µm]

(c) (d)

Abbildung 7.3: Funktionsprinzip der „Single-Side-Band“(SSB)-Demodulation. (a) Ein simuliertes AM-


moduliertes axiales Intensitätssignal I(z) mit M = 4. (b) Die Magnitude der Fourier-
transformaion von I(z) und der SSB-Filter im Fourierraum. (c) Die Kontrastkurve C(z),
die mit der inversen Fouriertransformation des mit SSB-Filter gefilterten Spektrums re-
konstruiert wird. (d) Die Phasen ϕ0 (z), die von der inversen Fouriertransformation des
mit SSB-Filter gefilterten Spektrums rekonstruiert wurden.

zentriert um die Stellen ν = −1/(sM ) und ν = 1/(sM ) befinden. Mit einem rechteckigen
Filter wird der rechte gaußförmige Term ausgeschnitten und anschließend rücktransformiert.
Das resultierende komplexe Intensitätssignal ISSB (z) im Ortsraum lässt sich mit der Gleichung
7.14 beschreiben (siehe genaue Herleitung im Anhang V),
2π(z−z0 )
+ϕ0 )
ISSB (z) = 0.5Im C(z)e−i( sM . (7.14)
Die Kontrastkurve C(z) berechnet man aus der Magnitude von ISSB (z) und der mittleren
Intensität Im nach der Gleichung 7.15,

2|ISSB (z)|
C(z) = . (7.15)
Im
Für die im Abschnitt 8.1 beschriebene Mikrodeflektometrie sind die Phasen des angezeigten Si-
nusmusters von zentralem Interesse, weil die Objektneigungen in den Phasen kodiert sind. Die
aus ISSB (z) berechneten Phasen arg(ISSB ) beinhalten die in dem jeweiligem Pixel beobachtete
100 7 Optimierung der Messgeschwindigkeit

Phase ϕ0 des Sinusmusters und die künstlich verschobene Phasendifferenz 2π(z − z0 )/(sM ).
Daraus lassen sich die Musterphasen ϕ0 (z) an unterschiedlichen z-Positionen nach der Glei-
chung 7.16 berechnen,

2π(z − z0 )
ϕ0 (z) = −arg(ISSB ) − , (7.16)
sM
wobei (z − z0 )/s dem Index der angefahrenen z-Position und 2π/M der Phasendifferenz der
darauffolgenden Phasenschiebungen entsprecht.

Untere Grenze der minimalen Anzahl der Tiefenschritte

Mit dem oben dargestellten Ansatz wird die Anzahl nt der zeitlich nacheinander aufzuneh-
menden Bilder an jeder z-Position von drei auf eins reduziert. Dadurch wird ein kontinuierliches
axiales Scannen ermöglicht. Um die Informationseffizienz dieses Ansatzes zu beurteilen, muss
noch untersucht werden, wie groß die minimale Anzahl nz der angefahrenen z-Positionen für
eine Messtiefe △z ist. Es ist entscheidend, die größtmögliche Schrittweite △s zu bestimmen.

Diese Fragestellung ist äquivalent zur Fragestellung im Abtasttheorem. Wird ein analoges
Signal diskret abgetastet, muss die Abtastsfrequenz fAbtast die Nyquist-Frequenz nicht über-
schreiten. Nur so kann man das diskret abgetastete Signal fehlerfrei rekonstruieren. Bei einem
harmonisch modulierten Signal mit der Signalfrequenz f0 ist die kleinste Abtastsfrequenz
die doppelte Signalfrequenz 2f0 . Da unser Tiefensignal I(z) ein Signal ist, das sich aus der
Multiplikation von einem harmonisch modulierten Trägersignal und einer gaußförmigen Kon-
trastkurve ergibt, hängt die Bestimmung der kleinsten Abtastsfrequenz stark von der Lage
und Breite von dessen Fourier-Transformierte ab.

Wie erwähnt, ist die Frequenz des Trägersignals fT räger durch die Wahl der Schrittweite s
und die Anzahl der Phasenschiebungen M (fT räger = 1/(sM )) frei einstellbar, während die
Einhüllende durch die Physik (Apertur des Objektives und Gitterfrequenz) festgelegt wird.
Durch Veränderung der Frequenz fT räger lässt sich die Position des Seitenbandes variieren.
Bei konstanter Breite des Seitenbandes soll dessen optimale Position genau der Hälfte der Ab-
tastfrequenz fAbtast entsprechen, damit die Bandbreite effizient besetzt wird und eine minimale
Abtastfrequenz fAbtast nötig ist. Somit bildet die erste Bedingung, die in der Gleichung 7.17
angegeben ist,

1 1
= fAbtast . (7.17)
sM 2
Als zweite Bedingung für die kleinste Abtastsfrequenz gilt die Situation, wenn die volle Breite
des Seitenbandes (~ 2/F W HM ) gleich der Abtastsfrequenz fAbtast ist. Damit ergibt sich die
Gleichung 7.18,

2
= fAbtast . (7.18)
F W HM
Wenn man fAbtast = 1/(2△s) in den Gleichungen 7.17 und 7.18 einsetzt, ergeben sich die Glei-
chungen 7.19 und 7.20. Die Gleichung 7.19 deutet darauf hin, dass die maximale Schrittweite
△s ein Viertel der Halbwertsbreite F W HM der Kontrastkurve C(z) entspricht,

F W HM
s= , (7.19)
4
7.2 Methoden zur Optimierung der Messgeschwindigkeit 101

und die maximale Schrittweite △s existiert nur dann, wenn eine 4-Phasenschiebung durchge-
führt wird,

M = 4. (7.20)

Misst man nur innerhalb der Halbwertsbreite der Kontrastkurve, berechnet sich die Anzahl der
notwendigen Aufnahmen nur zu 5 (die beiden linken und rechten Randpunkte sind eingeschlos-
sen). Das Ergebnis lässt sich in der Tabelle 7.2 veranschaulichen und so interpretieren, dass der
neue Lösungsansatz in Vergleich zu dem Stand der Technik [126, 128, 127] wesentlich informa-
tionseffizienter ist. Die klassische Phasenschiebung benötigt mindestens 3 Phasenschiebungen
an jeder z-Position und insgesamt 9 Aufnahmen an drei z-Positionen innerhalb der halben
Kontrastkurve. Der neue Ansatz ist deutlich effizienter als die klassische Phasenschiebung.

Methode nz nt nx E „Stop-And-Go“
3-Phasenschiebung 3 3 1 9 Ja
2-Phasenschiebung[128] 3 2 2 12 Nein (Polarisation)
Multilinie-Muster[126] 6 1 2 12 Nein
Faltung-Methode[127] 3 1 4 12 Nein
Fliegende Phasenschiebung 5 1 1 5 Nein

Tabelle 7.2: Vergleich der Informationseffizienz zwischen dem neuen Lösungsansatz, der klassischen
Phasenschiebung und weiteren Lösungsansätzen vom Stand der Technik [126, 128, 127].

Dieses Ergebnis kann mit folgenden Überlegungen begründet werden. Die beiden obengenann-
ten Bedingungen in den Gleichungen 7.17 und 7.18 gelten nur, wenn die mittlere Intensität
I0 und die beobachteten Phasen ϕ0 auf dem projizierten Sinusmuster über den gesamten
Messbereich konstant sind. Da in dem realistischen SIM-Aufbau die mittlere Intensität Im
und die Phasen ϕ0 innerhalb der Kontrastkurve hinreichend konstant sind, müssen statt 9
Unbekannten bei der klassischen Phasenschiebung nur 5 Unbekannte (drei Kontrastwerte, eine
mittlere Intensität und eine Musterphase) gelöst werden. Bei dem vorgestellten Ansatz lassen
sich die 5 Unbekannten innerhalb der halben Kontrastkurve aus den 5 Tiefenaufnahmen lösen.
Aus diesem Grund wird mit diesem Ansatz nicht nur das „Stop-And-Go“-Problem beim axia-
len Scannen gelöst, sondern auch eine theoretisch maximal erreichbare Informationseffizienz
erreicht.

Messergebnisse

Dieser Ansatz wurde im Experiment verifiziert. Dabei wurde ein ebener Spiegel mit dem in der
Abbildung 8.9 gezeigten makroskopischen Aufbau gemessen. Als Referenz wurde dasselbe Ob-
jekt mit der klassischen 4-Phasenschiebung gemessen. Aus den in der Abbildung 7.4 (a) darge-
stellten Ergebnissen der Referenzmessung kann das Höhenrauschen zu σz = 0, 5µm festgestellt
werden. Die Messergebnisse in der Abbildung 7.4 (b) wurden mit dem informationseffizienten
kontinuierlichen Messansatz erzielt, wobei die Schrittweite s auf den maximalen erlaubten Ab-
stand von F W HM/4 eingestellt wurde. Die damit erzielte Höhenkarte zeigt ein vergleichbares
Rauschniveau im Vergleich zur klassischen Methode. Damit kann man bestätigen, dass es mit
der fliegenden Phasenschiebung möglich ist, ein kontinuierliches axiales Tiefenscannen ohne
Verlust von Datenqualität und so schnell wie theoretisch erlaubt durchzuführen.
102 7 Optimierung der Messgeschwindigkeit

z [µm]
A B

A B
x [µm]

(a)
z [µm]

A B

A B

x [µm]

(b)

250 2000
1800
200 1600
|FFT[I(z)]|
I(z) [digits]

1400
150 1200
1000
100 800
600
50 400
200
0 0
0 0.05 0.1 0.15 0.2 0.25 0.3 −1000 −500 0 500 1000
z [mm]  [mm-1]
(c)

Abbildung 7.4: (a) Höhenkarte auf einem Spiegel mit klassischer 4-Phasenschiebung gemessen. (b) Die
Höhenkarte auf demselben Spiegel, die mit dem neuen Lösungsansatz gemessen wurde.
Dabei ist die Schrittweite s so gewählt, dass genau 5 Messpunkte innerhalb der halben
Kontrastkurve liegen. (c) Ein Tiefensignal I(z) in einem ausgewählten Pixel und dessen
Fourier-Transformierte |F F T [I(z)]|.
7.2 Methoden zur Optimierung der Messgeschwindigkeit 103

7.2.2 Kontinuierliches axiales Scannen bei simultaner Projizierung mehrerer


multidirektionaler Sinusmuster
Die im Abschnitt 7.2.1 vorgestellte Methode stellt eine optimale Lösung für schnelles axiales
Scannen dar, wenn nur ein Sinusmuster mit einer Streifenrichtung verwendet wird. Zur Realisie-
rung eines kontinuierlichen axialen Scans sowohl bei SIM als auch bei Mikrodeflektometrie ist
dies in der Praxis oft keine ausreichende Lösung, weil hierbei oft mindestens zwei Sinusmuster
mit unterschiedlichen Streifenrichtungen nacheinander projiziert werden müssen. Zum einen
sind, wie im Abschnitt 6.4 vorgestellt, bei SIM kombinierte Messungen mit (mindestens) zwei
orthogonalen Streifenrichtungen notwendig, um eine isotrope Winkeldynamik zu erreichen.
Zum anderen sind bei der Erweiterung der Schärfentiefe in der Mikrodeflektometrie ebenso
zwei Sinusmuster mit orthogonalen Streifenrichtungen an jeder z-Position erforderlich.

Um ein kontinuierliches axiales Scannen bei der Projektion mehrerer multidirektionaler Sinus-
muster zu ermöglichen, müssen folgende Fragen beantwortet werden:

– Kann man mehrere Sinusmuster mit unterschiedlichen Streifenrichtungen in einem ein-


zelnen Muster kombinieren?

– Kann man sie nach der Detektion wieder fehlerfrei voneinander trennen?

– Wie kodiert und dekodiert man sie bei einem kontinuierlichen axialen Scan mit nur einer
Aufnahme pro z-Position?

Die Antworten auf die ersten beiden Fragen kann man für die simultane Projizierung von zwei
Mustern mit einem Kreuzmuster bereits in [172] finden. Dort wird eine Methode vorgestellt, mit
der zwei Sinusmuster mit horizontalen und vertikalen Streifenrichtungen in einem Kreuzmuster
kodiert und mit einer anisotropen Phasenschiebung voneinander getrennt werden. Darauf ba-
sierend wurde diese Idee mit der im Abschnitt 7.2.1 vorgestellten fliegenden Phasenschiebung
kombiniert. Der daraus resultierende Ansatz kann prinzipiell Sinusmuster von mehr als zwei
(mit unterschiedlichen Streifenrichtungen und Frequenzen) in einem kontinuierlichen axialen
Scan fehlerfrei kodieren und dekodieren. In diesem Abschnitt wird diese Methode lediglich
anhand eines speziellen Falls, bei dem zwei Streifenmuster mit orthogonalen Streifenrichtungen
und gleichen Streifenfrequenzen in einem Kreuzmuster integriert sind, erklärt.

Die Methode aus [172] kombiniert linear das horizontale und das vertikale Sinusmuster mit
gleicher Streifenfrequenz in einem Kreuzmuster. Die Phasen ϕh0 des horizontalen Sinusmusters
und ϕv0 des vertikalen Sinusmusters lassen sich eindeutig berechnen, wenn man das horizontale
Sinusmuster mit Mh Phasenabständen und das vertikale Sinusmuster mit Mv Phasenabstän-
den verschiebt. Diese Operation erfolgt in der Praxis durch eine schräge Verschiebung eines
Kreuzmusters unter dem Winkel θP ,

Mh
θP = arctan( ). (7.21)
Mv
Diese Methode funktioniert nur unter der Voraussetzung, dass Mh größer als Mv und gleich-
zeitig durch Mv teilbar ist, oder umgekehrt. Mit dieser Methode lassen sich die Phasen von
beiden Richtungen aus max(Mh , Mv ) Aufnahmen eindeutig dekodieren. Für den Extremfall
reichen schon 5 Aufnahmen (Mh = 2, 5 und Mv = 5) für eine Auswertung aus, während bei
einer klassischen Phasenschiebung mindestens 6 Aufnahmen notwendig sind.
104 7 Optimierung der Messgeschwindigkeit

Zur Erweiterung dieser Methode auf ein kontinuierliches axiales Scannen mit Kreuzmuster
lehnt man sich an die im Abschnitt 7.2.1 vorgestellte fliegende Phasenschiebung an. An-
schaulichkeitshalber wird die erweiterte Methode im Folgenden durch die Beobachtungen der
fliegenden Phasenschiebung bei unidirektionalen Sinusmustern mit orthogonalen Streifenrich-
tungen erklärt.

Verschiebt man ein horizontales Sinusmuster jedes Mal um einen Phasenabstand von 2π/Mh ,
während der Motor beim axialen Scannen jedes Mal um △s zur nächsten z-Position fährt,
entsteht bei der Detektion ein Tiefensignal Ih ,

2π(z − z0 )
Ih (z) = Im + Im Ch cos( + ϕh0 ). (7.22)
sMh

Wird ein vertikales Sinusmuster mit Mv -Phasenschiebung projiziert, entsteht stattdessen ein
Tiefensignal Iv ,

2π(z − z0 )
Iv (z) = Im + Im Cv cos( + ϕv0 ). (7.23)
sMv

Wie in der Abbildung 7.5 veranschaulicht wird, kann man die beiden fliegenden Phasenschie-
bungen von beiden orthogonalen Sinusmustern mit nur einem einzelnen Kreuzmuster gleich-
zeitig implementieren, indem man das Kreuzmuster schräg unter dem nach der Gleichung 7.21
bestimmten Winkel θP verschiebt. Das damit erzielte Tiefensignal Ik (z) ist äquivalent zur li-
nearen Kombination von Ih und Iv ,

Ik (z) = Ih (z) + Iv (z). (7.24)

Aus dem Ik (z) sollen Ch , Cv , ϕh0 und ϕv0 dekodiert werden. Der Mechanismus der Dekodierung
erfolgt analog zur im Abschnitt 7.2.1 vorgestellten SSB-Demodulation.

In den Abbildungen 7.5 (a) - (i) werden die simulierten Kamerabilder einer SIM-Messung mit
einem Kreuzmuster an neun z-Positionen (z1 ,z2 ,· · · z9 ) dargestellt. Das Kreuzmuster bewegt
sich kontinuierlich unter dem Winkel θP bei einem kontinuierlichen axialen Scan. Bei der Simu-
lation werden Mh = 8 und Mv = 3 für die fliegende Phasenschiebung von beiden horizontalen
und vertikalen Komponenten verwendet. Aus den Bildern 7.5 (a)-(i) kann man erkennen, dass
an einem fixierten Beobachtungspunkt (blauer Punkt) die Phase ϕv0 der vertikalen Komponen-
te sich alle drei Aufnahmen wiederholt, während die Phase ϕh0 der horizontalen Komponente
erst nach acht Aufnahmen wieder dieselbe Phase aufweist. Der Winkel θP der Bewegungsrich-
tung (relativ zur horizontalen Achse) einer fixierten Phase (roter Punkt) auf dem Kreuzmuster
beträgt dabei ~ 70° .
7.2 Methoden zur Optimierung der Messgeschwindigkeit 105

(a) (b) (c)

(d) (e) (f)

(g) (h) (i)

Abbildung 7.5: (a)-(i) Simulierte Kreuzmuster an 9 unterschiedlichen z-Positionen eines axialen Scans
während einer SIM-Messung. Die horizontalen und vertikalen Komponenten des Kreuz-
musters verschieben sich jeweils mit Mh = 8 und Mv = 3. Blauer Punkt: Ein fixierter
Beobachtungspunkt. Roter Punkt: Ein fixierter Punkt mit konstanter Phase auf dem
Kreuzmuster. Der Winkel θP der Bewegungsrichtung zur horizontalen Achse lautet ~70°.

Das nach dem obengenannten Mechanismus mit Kreuzmuster simulierte Tiefensignal Ik (z) an
einem fixierten Beobachtungspunkt wird in der Abbildung 7.6 (b) dargestellt. Aufgrund der
Linearität des optischen Systems ist Ik (z) äquivalent zur linearen Kombination von Ih (z) der
horizontalen Komponente (blaues Signal in der Abbildung 7.6 (a)) und Iv (z) der vertikalen
Komponente (rotes Signal in der Abbildung 7.6 (a)). Nach der Fouriertransformation von
Ik (z) sind im Fourierraum zwei räumlich getrennte Seitenbänder in der Abbildung 7.6 (c)
zu beobachten, die jeweils den Fourierspektren von Ih (z) und Iv (z) entsprechen. Mit der
SSB-Demodulation lassen sich die beiden in der Abbildung 7.6 (d) dargestellten Seitenbänder,
wie in der Abbildung 7.6 (c) gezeigt, ausfiltern und anschließend rücktransformieren. Aus
den Magnituden und Phasen der beiden rücktransformierten Signale lassen sich Ch (z), Cv (z)
(siehe Abbildung 7.6 (e)), ϕh0 (z) und ϕv0 (z) (siehe Abbildung 7.6 (i)) eindeutig dekodieren.
Mit diesem Ansatz ist ein kontinuierliches axiales Scannen bei einer SIM-Messung und bei der
Deflektometrie mit einem Kreuzmuster realisierbar. Als nächste Frage stellt sich, wie Mh , Mv
und △s gewählt werden müssen, damit eine erfolgreiche Dekodierung von Ch , Cv , ϕh0 und ϕv0
stattfinden kann.

Der entscheidende Aspekt für eine erfolgreiche Kodierung und Dekodierung eines Kreuzmus-
106 7 Optimierung der Messgeschwindigkeit

ters ist, dass die Spektren von beiden Komponenten bandbegrenzt sein müssen und miteinander
nicht überlappen dürfen. Damit die beiden Spektren innerhalb der Bandbreite der diskreten
Abtastung liegen, muss s ausreichend klein sein. Eine adäquate Auswahl der axialen Schrittwei-
te △s stellt eine Bandbegrenzung sicher, sobald das Seitenband mit kleinerer Trägerfrequenz
nicht mit dem DC-Term und das Seitenband mit größerer Trägerfrequenz nicht mit der Grenz-
frequenz überschneidet. Damit gelten die folgenden zwei Bedingungen,

1 1 1
min( , )≧ , (7.25)
sMh sMv F W HM

und
1 1 1 1
− max( , )≧ . (7.26)
2s sMh sMv F W HM

Die weitere Bedingung, die zusätzlich noch gelten muss, ist dass die beiden Spektren nicht
überlappend dürfen. Daraus folgt,

1 1 1 1 2
max( , ) − min( , )≧ . (7.27)
sMh sMv sMh sMv F W HM

Die Gleichungen 7.25 - 7.27 sind die notwendigen und die hinreichenden Bedingungen für eine
erfolgreiche fliegende Phasenschiebung mit einem Kreuzmuster.
7.2 Methoden zur Optimierung der Messgeschwindigkeit 107

3-Phasenschiebung
8-Phasenschiebung
Intensität [digits]

Intensität [digits]
Höhen [µm] Höhen [µm]
(a) (b)

3-Phasenschiebung
8-Phasenschiebung
a. u.
a. u.

Räumliche Frequenz [µm-1] Räumliche Frequenz [µm-1]

(c) (d)

3-Phasenschiebung 3-Phasenschiebung
8-Phasenschiebung 8-Phasenschiebung
Phase [rad]
Kontrast

Höhen [µm] Höhen [µm]

(e) (f)

Abbildung 7.6: (a)Simuliertes Intensitätssignal Ih (z) des horizontalen Sinusmusters mit 8-


Phasenschiebung und Intensitätssignal Iv (z) des vertikalen Sinusmusters mit
3-Phasenschiebung bei einer SIM-Messung. (b) Simuliertes Intensitätssignal Ik (z) eines
Kreuzmusters mit Mh = 8 und Mh = 3. (c) FFT des Intensitätssignals Ik (z). (d) Zwei
ausgefilterte Seitenbände aus FFT(Ik (z)). (e) Dekodierte Kontrastkurve Ch (z) und
Cv (z), die aus den Magnituden der rücktransformierten gefilterten Seitenbänder in (d)
berechnet werden. (f) Dekodierte Phasen ϕh0 (z) und ϕv0 (z), die aus den Phasen der
rücktransformierten gefilterten Seitenbänder in (d) berechnet werden.
108 7 Optimierung der Messgeschwindigkeit

Untere Grenze der minimalen Anzahl der Tiefenschritte

Genauso wie bei der Methode im Abschnitt 7.2.1 ist die Frage von großem Interesse für die
praktische Umsetzung, wie schnell das axiale Scannen mit dieser Methode durchgeführt werden
kann. Die schnellste Scangeschwindigkeit kann erst erreicht werden, wenn die benötigte Anzahl
der Tiefenschritte so gering wie möglich ist. Dafür soll die optimale Schrittweite △s so groß
wie möglich und so klein wie nötig ausgewählt werden. Die optimale s existiert dann, wenn
die Trägerfrequenzen von beiden Seitenbändern jeweils 1/4 und 3/4 der Grenzfrequenz fAbtast
sind,

1 1 1
min( , ) = fAbtast , (7.28)
sMh sMv 4
und
1 1 3
max( , ) = fAbtast . (7.29)
sMh sMv 4
Die Grenzfrequenz fAbtast muss mindestens so groß sein, dass die volle Bereite 2/F W HM des
einzelnen Seitenbandes gleich groß wie die halbe Grenzfrequenz ist. Somit können die notwen-
digen Bedingungen in den Gleichungen 7.25 - 7.27 gerade erfüllt werden,

2 fAbtast
= . (7.30)
F W HM 2
Setzt man fAbtast = 1/(2s) ein, kann man mit Gleichungen 7.28 - 7.30 nach s, Mh und Mv
lösen. Die Lösung ist,

F W HM
s= , (7.31)
8

Mh = 8, Mv ≈ 2, 67, (7.32)
oder

Mh ≈ 2, 67, Mv = 8. (7.33)
Daraus ergibt sich die größte erlaubte s = F W HM/8, wenn man die beiden Komponenten
des Kreuzmusters jeweils mit 2,67- und 8-Phasenschiebung oder andersherum verschiebt. Der
Winkel θP der optimalen Bewegungsrichtung des Kreuzmusters lautet 71,5° oder 18.5°. Mit den
optimalen Parametern benötigt man innerhalb der halben Kontrastkurve nur 9 Aufnahmen.
Vergleicht man die Informationseffizienz η = 1/E mit der der klassischen Phasenschiebung
mit zwei orthogonalen Sinusmustern in der Tabelle 7.3, kann man eine Optimierung der In-
formationseffizienz mit einem Faktor 2 bestätigen. Abgesehen davon, dass das Beseitigen des
„Stop-And-Go“-Problems die Scangeschwindigkeit deutlich verbessern kann, verdoppelt sich
die Messgeschwindigkeit aufgrund der Optimierung der Informationseffizienz im Vergleich zur
klassischen Phasenschiebung bei SIM und Mikrodeflektometrie.

Methode nz nt nx E „Stop-And-Go“
3-Phasenschiebung mit zwei othogonalen Mustern 3 6 1 18 Ja
Fliegende Phasenschiebung mit Kreuzmuster 9 1 1 9 Nein

Tabelle 7.3: Vergleich der maximal erreichbaren Informationseffizienz zwischen der Kreuzmustermetho-
de und der klassischen Methode mit Phasenschiebung von zwei orthogonalen Sinusmustern.
7.2 Methoden zur Optimierung der Messgeschwindigkeit 109

Messergebnisse

Dieser Ansatz wurde auch im Experiment für SIM und Mikrodeflektometrie [173, 174] (Mi-
krodeflektometrie wird im Kapitel 8 vorgestellt) implementiert und getestet. In der Abbildung
7.7 (a) wird die Höhenkarte, welche mit der fliegenden Phasenschiebung des Kreuzmusters
(Mh = 8 und Mv = 3 ) gemessen wurde, gezeigt. Dabei wird die Höhenkarte aus den gemittel-
ten Kontrastkurven von Ch (z) und Cv (z) ausgewertet. Die Datenqualität im Vergleich zu der
mit klassischer Phasenschiebung gemessenen Höhenkarte in der Abbildung 7.4 (a) zeigt, dass
das kontinuierliche Tiefenscannen mit Kreuzmuster eine stabile und informationseffizientere
Methode ist. Damit kann man eine isotrope Winkeldynamik bei SIM mit Projizierung eines
Kreuzmusters ermöglichen. Mit den in der Abbildung 7.8 gezeigten Messergebnissen der Mi-
krodeflektometrie, die auf einem um 15° gekippten ebenen Spiegel jeweils mit der klassischen
4-Phasenschiebung und der fliegenden Phasenschiebung mit Kreuzmuster gemessen wurden,
ist eine sehr gute Übereinstimmung deren Messergebnisse bestätigt. Somit wird gezeigt, dass
ein schnelles kontinuierliches axiales Scannen mit Kreuzmuster bei Mikrodeflektometrie ebenso
möglich ist.
z [µm]

A B

A B

x [µm]

(a)
250 2000
1800
200 1600
|FFT[Ik(z)]|
Ik(z) [digits]

1400
150 1200
1000
100 800
600
50 400
200
0 0
0 0.05 0.1 0.15 0.2 0.25 0.3 −3000 −2000 −1000 0 1000 2000 3000
z [mm]  [mm ]
-1

(b)

Abbildung 7.7: (a) Höhenkarte auf einem ebenen Spiegel, die mit dem kontinuierlich bewegten Kreuz-
muster gemessen wurde. Bei der Messung wurden die Schrittweiten △s = F W HM/8,
Mh = 8 und Mv = 3 eingestellt. (b) Ein Tiefensignal Ik (z) in einem ausgewählten Pixel
und dessen Fourier-Transformierte |F F T [Ik (z)]| .
110 7 Optimierung der Messgeschwindigkeit

0 0.29

Neigung Sx in x-Richtung
0.32
4-Phasenschiebung
0.3 0.28
500 Kreuzmuster
0.28
1000 0.27
0.26
1500 A B 0.26
y [µm]

0.24
2000 0.22 0.25
2500 0.2 0.24
0.18
3000 0.23
3500
0.16
0.14 0.22
A B
0 1000 2000 3000 4000 0 1000 2000 3000 4000 5000
x [µm] x [µm]

Abbildung 7.8: Die Oberflächenneigung eines um 15° gekippten Spiegels, die jeweils mit klassischer
4-Phasenschiebung und Kreuzmuster gemessen wurde. Die Ergebnisse von beiden Mes-
sungen zeigen eine gute Übereinstimmung.

7.3 Zeilenscannende Strategie zur optimalen makroskopischen Messung

Die zwei im Abschnitt 7.2 vorgestellten Ansätze dienen als technisch und informationstheo-
retisch optimale Methoden zur Implementierung des axialen Scannens. Durch das damit
ermöglichte kontinuierliche Scannen wird die technische „Stop-And-Go“-Grenze erfolgreich
umgangen, so dass die maximal erreichbare Scangeschwindigkeit nur durch die informations-
theoretische Grenze bestimmt wird. Es wurde bereits gezeigt, dass die theoretisch maximale
Informationseffizienz durch Einstellen der optimalen Parameter (s = F W HM/4, M = 4 beim
unidirektionalen Sinusmuster und s = F W HM/8, Mh = 8, Mv = 2.67 beim Kreuzmuster)
erreichbar ist.

Wenn man SIM für die Inspektion der Koplanarität von Lötbumps einsetzen möchte, muss man
noch überprüfen, ob man mit dem bestehenden flächenhaften Messmechanismus die geforderten
Spezifikationen (siehe Abschnitt 3.1) realisieren kann. Aus der Machbarkeitsanalyse geht hervor,
dass sich der flächenhafte Messmechanismus trotz der Optimierung nicht schnell genug für diese
Aufgabestellung ist. Dies ist auf zwei technologische Probleme zurückzuführen,
– Das erste Problem bezieht sich auf den technischen Aufwand zur Realisierung der kom-
pletten Messeinrichtung. Für die angeforderte laterale Auflösung von 10 µm ist nach den
Erkenntnissen im Abschnitt 6.3 eine Musterfrequenz von 100 lp/mm von Nöten. Wird
angenommen, dass die realistische Messgenauigkeit auf rauen Oberflächen die 1/20. der
FWHM der Kontrastkurve entsprechen würde, sollte die FWHM der Kontrastkurve min-
destens bei der angeforderten Messgenauigkeit von 1 µm nicht größer als 20 µm sein.
Misst man mit den optimalen Messparametern - s = F W HM/4, M = 4 - bei einem
unidirektionalen Sinusmuster, müssen für einen axialen Messbereich △z = 500 µm min-
destens 100 Messpunkte beim axialen Scannen angefahren werden. Für die angestrebte
Messgeschwindigkeit OBAP = 108 3D-Punkte/s sind rechnerisch 1010 Pixel pro Sekunde
zu akquirieren. Bei der schnellsten Kamera mit 5 × 108 Pixeln/s müssen damit mindes-
tens 20 Systeme zur Parallelisierung in einem Sensor implementiert werden. Nach der
Gleichung 5.17 ist eine NA von 0,2 notwendig, um eine FWHM von 20 µm bei einer Mus-
terfrequenz von 100 lp/mm zu erreichen. Bei 20 parallelen Systemen mit einer lateralen
Auflösung von 10µm und OBAP = 108 3D-Punkte/s , muss das Objektiv jedes Systems
ein Messfeld mit einer Diagonalen von 150 mm und mindestens eine Grenzauflösung von
7.3 Zeilenscannende Strategie zur optimalen makroskopischen Messung 111

200 lp/mm haben. Im Kombination mit der notwendigen NA=0,2 sind die Herstellungs-
kosten für ein solches Objektiv sehr hoch. Dies führt dazu, dass der gesamte Aufwand
bei der Implementierung von 20 Subsystemen „explodiert“.

– Man kann aber die Kosten des Systems deutlich reduzieren, indem man die Anzahl der
Systeme reduziert und das Messfeld durch laterales Stitchen mithilfe von lateralem me-
chanischem Scannen erweitert. Allerdings wird zwischen den einzelnen Flächenscans Zeit
benötigt, weil die Mechanik für Beschleunigen, Bremsen und Ausruhen zwischen hinter-
einander folgenden Scans immer warten muss. Die maximal erreichbare Messgeschwin-
digkeit wird deshalb von dem mechanischen Stop-And-Go beim lateralen Scannen stark
limitiert.

Aufgrund der beiden obengenannten technologischen Probleme stellt die flächenhafte Messung
von SIM trotz der optimierten Geschwindigkeit des axialen Scannens keine optimale Lösung
für eine hochgenaue und hochschnelle In-Line-Inspektion dar. Eine alternative kosteneffiziente
Lösung wurde gesucht und wird hier dargestellt.

Als optimale Lösung soll das Messfeld durch ein kontinuierliches laterales Scannen erweitert
werden. Dieses Konzept bietet zwei Vorteile. Zum einen ist die laterale Scangeschwindigkeit
bei Erweiterung des Messfeldes aufgrund der kontinuierlichen Bewegung nicht mehr durch die
Mechanik limitiert. Zum anderen ist für eine makroskopische Messung kein großes Feld des
Objektivs notwendig, da das Messfeld mit dem lateralen Scan erweitert wird. Dadurch können
die Systemkosten deutlich minimiert werden.

Ein typisches Beispiel für ein zeilenscannendes 3D-Messprinzip findet man beim Laser-
Lichtschnittssensor [35]. Für axial scannende 3D-Messmethoden wie WLI und KM sind auch
lateral scannende Systeme mit ultraschnell oszillierender Referenz (z. B. oszillierende Stimmga-
bel bei KM [175] und oszillierende Referenzspiegel bei WLI [176]) bekannt. Solche mechanisch
anspruchsvollen Ansätze können durch technisch einfachere Ansätze ersetzt werden, wobei das
explizite axiale Scannen komplett entfällt. Chromatische KM [116] ist eine etablierte Methode,
mit der die Tiefeninformation in unterschiedlichen Lichtwellenlängen ohne explizites axiales
Scannen kodiert und dekodiert werden kann. Ein Zeilenscannen bei chromatischer KM ist
implementierbar mit einer Schlitzblende.

Um das explizite axiale Scannen bei SIM zu vermeiden, wurde ein neuer Scanansatz im Rah-
men dieser Dissertation entwickelt und implementiert. Eine ähnliche Idee wurde bereits bei
WLI [166, 177, 178] und passiv fokussuchenden Sensoren [165] angewendet, wobei das Objekt
durch eine gekippte Fokusebene lateral gescannt wird. Zum Implementieren dieses Konzeptes
bei SIM müssen die Kodier- und Dekodiermechanismen bei Projizierung und Detektion des
Sinusmusters angepasst werden. Zum Zeitpunkt der Entwicklung dieser Anpassung bei uns,
ist dieses Konzept nach unserem Wissen zum ersten Mal bei SIM implementiert worden.
Erst später, nach der Veröffentlichung der in der vorliegenden Arbeit beschriebenen Idee [18]
wurde uns bekannt, dass eine ähnliche Methode bereits in der Patentoffenlegung [179] in
2004 beschrieben wurde. Die darin beschriebenen Kodier- und Dekodieransätze sind identisch.
Im Rahmen dieser Dissertation wurde die zeilenscannende Makroskopie mit strukturierter
Beleuchtung (Structured-Illumination-MAcroscopy: SIMA) unabhängig von dieser Patentof-
fenlegung entwickelt und realisiert. Dabei wird zusätzlich eine quantitative Regel zur Auswahl
der Sensorparameter im Abschnit 7.3 definiert und die Vorschrift zum Erreichen der maximal
möglichen Informationseffizienz wird in Abschnit 7.2 gegeben. Außerdem wird ein Ansatz zur
112 7 Optimierung der Messgeschwindigkeit

Verwendung eines Kreuzmusters beim lateralen Scannen beschrieben, wodurch die Präzision
und die Winkeldynamik bei gekrümmten blanken Oberflächen verbessert werden können. Mit
diesem Konzept ist die erreichbare Messgeschwindigkeit lediglich durch die Informationseffizi-
enz und die Geschwindigkeit der Kamera limitiert.

Die Grundidee zur Implementierung der zeilenscannenden SIMA wird in der Abbildung 7.9
illustriert. Man verkippt die Fokusebene um einen Winkel θF okus und detektiert mit räumlich
nebeneinander stehenden Pixeln die Intensitätswerte an unterschiedlichen z-Positionen gleich-
zeitig. Zum gleichen Zeitpunkt wird an einer lateralen Position nur eineinzelner Intensitätswert
an einer z-Position erfasst. Die fehlenden Messdaten an anderen z-Positionen werden beim
kontinuierlichen lateralen Scannen sukzessiv nachgemessen. Die optische Kodierung der Hö-
heninformation basiert auf dem im Abschnitt 7.2 vorgestellten Ansatz. Dabei wird ein sta-
tisches unidirektionales Sinusmuster projiziert, dessen Phasenvariationsrichtung parallel zur
Zeichnungsebene läuft. Die Fokusebenen der Beleuchtung und der Beobachtung müssen sich
an denselben Positionen befinden. Entlang der Detektorachse, die parallel zur Zeichnungsebene
steht, werden mehrere äquidistante Pixel selektiert, denen die Musterphasen mit Abstand von
π/2 zugeordnet sind. Entlang der zweiten Detektorachse, die senkrecht zur Zeichnungsebene
steht, werden alle Pixel ausgewählt. Die ausgewählten aktiven Kamerapixel können als ein
Multizeilen-Detektor gesehen werden, bei dem alle Pixelzeilen äquidistant mit Abstand dZeilen
die Intensitätswerte an unterschiedlichen z-Positionen abtasten. Der gesamte Sensor wird par-
allel zum Objekt lateral kontinuierlich bewegt und der Multizeilen-Detektor nimmt mit einem
festen Zeitabstand △tL die Daten auf. Der Zeitabstand △tL wird mit dem lateralen mechani-
schen Scan abgestimmt, so dass jeder Punkt auf dem Objekt sukzessiv mit der Phase 0, 1/2π,
π, 3/2π usw. gleichzeitig beleuchtet und beobachtet wird. Bei einer Scangeschwindigkeit vL gilt
die folgende Beziehung zur Bestimmung des Zeitabstands △tL ,

dZeilen cosθF okus


vL △tL = , o = 1, 2, 3 · · · ∈ Z+ (7.34)
o

wobei o eine positive ganze Zahl ist, die mit zunehmendem Wert die laterale Abtastauflösung
erhöht.

Nach der kompletten SIMA-Messung muss die erfasste originale Intensitätsstaffel IL (x, y, z)
im Rechner rückwärts zur sortierten Bildstaffel IS (x, y, z) verschoben werden, so dass die
Intensitätswerte IS (z) entlang der z-Achse an denselben lateralen Positionen (x, y) auf dem
Objekt angeordnet worden sind. Das Intensitätssignal IS (z) zeigt ein AM-moduliertes Signal,
in dem die lokale Kontrastkurve in die Einhüllende kodiert wird. Die Höhenauswertung erfolgt
nach derselben Methode - SSB-Demodulation.

Ein weiterer Vorteil neben dem damit ermöglichten kontinuierlichen Scan ohne explizites axiales
Scannen ist, dass die Phasenschiebung automatischen durchgeführt wird, während das Objekt
durch ein schräggestellte statisches Sinusmuster verschoben wird. Deshalb wird ein mecha-
nischer und digitaler Mustergenerator zum Anzeigen des Sinusmusters nicht mehr benötigt.
Damit kann der Sensor sehr kostengünstig konstruiert werden.
7.3 Zeilenscannende Strategie zur optimalen makroskopischen Messung 113

Sensor
kontinuierliches laterales Scannen mit Geschwindigkeit vL z
z
x
qFokus
B 3/2p
B dZeilen
p
s s s s s s s s s s s
1/2p
s s s s s s s s s s s 0
s s s s s s s s s s s
3/2p
s s s s s s s s s s s p
s s s s s s s s s s s

s s s s s s s s s s
A
s
Auf A A A A A A A
nah ufnah ufnah ufnah ufna ufnah ufnah ufnahAufnah ufnah
me me me me hme me me me me me 1
A A 10 9 8 7 6 5 4 3 2
Messvolumen
Intensität I(z)

Abbildung 7.9: Grundprinzip der zeilenscannenden Makroskopie mit strukturierter Beleuchtung


(Structured-Illumination MAcroscopy: SIMA).

Beleuchtung

Kamera

Pellicle-Strahlteiler

FLCoS-Display

Leica-Tubuslinse

Leica-Mikroobjektiv

laterale Scanrichtung

15° Linearversteller

Abbildung 7.10: Messaufbau der zeilenscannenden SIMA, die durch Verkippen des gesamten Sensors
implementiert wird.
114 7 Optimierung der Messgeschwindigkeit

Technische Implementierung und Messergebnis

Wie in der Abbildung 7.10 gezeigt, wird die zeilenscannende SIMA durch Verkippen eines
mikroskopischen SIM-Aufbaus implementiert. Mit einem 20x/0,5-Mikroobjektiv (Messfeld
320 x 240 µm2 und Kippwinkel θF okus = 15° wird ein axialer Messbereich von △z = 83 µm
erreicht. Es ist zu beachten, dass die Richtung des einfallenden Lichtkegels dabei auch um den
gleichen Winkel θF okus mit gekippt wird. Damit ist die Symmetrieachse der Winkeldynamik
des Messsystems verändert, was zur Abschattung der Messobjekte führen kann. Wenn man das
Problem umgehen will, muss die Verkippung der Fokusebene durch die Scheimpflugbedingung
realisiert werden, wobei die Symmetrieachse der Winkeldynamik trotz der gekippten Foku-
sebene senkrecht zur Oberfläche bleibt. Bei zeilenscanender WLI wird dieses Konzept bereits
gezeigt [178].

Zur Verifizierung der vorgestellten zeilenscannenden Methode wurde ein Wafer mit einer
lateralen Abtastauflösung von 3,9 µm mit dem in Abbildung 7.10 gezeigten Aufbau lateral
kontinuierlich gescannt. Drei originale Kamerabilder, die bei drei unterschiedlichen lateralen
Lagen des Objekts aufgenommen wurden, werden in den Abbildungen 7.11 (a) - (c) darge-
stellt. Entlang der x-Achse des Kameradetektors werden die Kamerazeilen mit einem Abstand
von 15 Pixeln ausgewählt, so dass die von jeder Kamerazeile beobachtete Musterphase im
Vergleich zu ihrer benachbarten Kamerazeile immer einen Phasenabstand von π/2 hat. Die
Pixelauflösung des aktiven Kameradetektors beträgt 93 x 1040. Nach der Gleichung 7.34
sollen bei kontinuierlicher lateraler Bewegung des Objekts die Zeitintervalle △tL zwischen
benachbarten Kameraaufnahmen und die Scangeschwindigkeit vL so miteinander synchroni-
siert werden, dass der lateral zurückgelegte Abstand bei o = 1 genau 3,9 µm ist. Die zeitlich
genaue Synchronisation gewährleistet, dass alle ausgewählten Kamerazeilen immer dieselben
Positionen auf dem Objekt wie deren benachbarte Kamerazeilen in der darauffolgenden Auf-
nahme abtasten. Bei der Testmessung wurden insgesamt 510 Aufnahmen akquiriert und damit
das Objekt um einen lateralen Verfahrweg von 1836 µm verschoben. Jedes aufgenommenes
Kamerabild IL (x, y) wird entlang der z- und y-Achsen in die Bildstaffel IL (x, y, z) eingetragen.
Die gesamte Bildstaffel IL (x, y, z) hat eine dreidimensionale Matrix mit 510 x 1040 x 93 Pixeln.

In der Abbildung 7.12 wird eine zweidimensionale Intensitätskarte IL (x, z) an einem festgeleg-
ten Pixel entlang der y-Achse dargestellt. Zur numerischen rückwärtigen Verschiebung werden
an der linken Seite der gesamten Bildstaffel 93 x 93 weitere Pixel mit Werten von 0 angefügt.
Die gesamte Intensitätskarte IL (x, y) soll an jedem Pixelindex von kz entlang der z-Achse um
kz − 1 Pixel nach links verschoben werden. Nach der kompletten Verschiebung ergibt sich eine
sortierte Bildstaffel IS (x, y, z). Um eine konstante mittlere Intensität entlang der z-Achse zu
unterdrücken, wird die sortierte Bildstaffel IS (x, y, z) entlang der z-Achse differenziert. Die
in der Abbildung 7.12 (c) dargestellte differenzierte Bildstaffel ISd (x, y, z) hat einen konstan-
ten Mittelwert von Null und stellt somit die größte Bandbreite für die Seitenbandssignale
zur Verfügung. Aus jedem AM-modulierten Intensitätssignal ISd (z) (siehe Abbildung 7.12
(d)) entlang der z-Achse ist die Höheninformation mit SSB-Demodulation und Kurvenfit
zu dekodieren. Die in der Abbildung 7.13 gezeigt ausgewertete Höhenkarte demonstriert,
dass eine lateral kontinuierlich scannende makroskopische Messung mit einer zeilenscan-
nenden SIMA möglich ist. Das Messfeld des Mikroobjektives (322 x 240 µm2 ) wurde damit
entlang der x-Achse auf 1630 x 240 µm2 mittels eines kontinuierlichen lateralen Scans erweitert.

Dieser Ansatz erfordert, wie oben erwähnt wird, keine aufwendige Hardwarekomponente (kein
digitaler Mustergenerator, kein großes Messfeld mit einem hochgeöffneten und hochauflösenden
7.3 Zeilenscannende Strategie zur optimalen makroskopischen Messung 115

Objektiv erforderlich) und kann deshalb in mehreren Systemen mit hoher Messgeschwindigkeit,
hoher laterale Auflösung und hoher Genauigkeit mit kostengünstigen Komponenten verwen-
det werden. Die maximal erreichbare Messgeschwindigkeit wird damit ausschließlich durch die
Kamerageschwindigkeit limitiert. Aus solchen Gründen kann die vorgestellte zeilenscannende
SIMA eine optimale Lösung zur Inspektion von Lötbumps werden.

(a)

(b)

(c)

Abbildung 7.11: Drei ausgewählte originale Kamerabilder bei einer zeilenscannenden Messung, die mit
einem 20x/0,5-Mikroobjektiv (Messfeld: 322 x 240 µm2 ) durchgeführt wurde (Horizon-
tal: x-Richtung ). (a) Kamerabild bei der lateralen Position x = 0 µm. (b) Kamerabild
bei der lateralen Position x = 36 µm. (c) Kamerabild bei der lateralen Position x = 72
µm.
116 7 Optimierung der Messgeschwindigkeit

(a) Originale Bildstaffel

(b) Verschobene Bildstaffel:

(c) Differenzierte Bildstaffel

(d) Intensitätsprofil entlang der z-Achse

Abbildung 7.12: Visualisierung der virtuellen Bearbeitung der originalen Bildstaffel IL (x, y, z). (a) Die
originale Bildstaffel IL (x, y, z) mit links angefügter 93x93-Matrix mit Werten von Null.
Jede Intensitätskarte IL (x, y) an dem kz ten Pixel entlang z-Achse soll um kz − 1 nach
links verschoben werden. (b) Die resultierende Bildstaffel IS (x, y, z) nach der Verschie-
bung. (c) Zur Bereitstellung der maximalen Bandbreite wird die Bildstaffel IS (x, y, z)
entlang z-Achse differenziert und erzeugt eine neue Bildstaffel ISd (x, y, z), an der der
Intensitätsverlauf ISd (z) entlang der z-Achse AM-moduliert ist und einen Erwartungs-
wert von Null aufweist. (c) Ein AM-moduliertes Intensitätssignal ISd (z), aus dem die
Kontrastkurve C(z) demoduliert werden kann.
7.3 Zeilenscannende Strategie zur optimalen makroskopischen Messung 117

Abbildung 7.13: Die Höhenkarte des Wafers, die basierend auf der virtuell sortierten Bildstaffel
ISd (x, y, z) ausgewertet wurde.

Mögliche Weiterentwicklungen

Die zeilenscannende SIMA wurde mit der Projektion eines unidirektionalen Musters imple-
mentiert und verifiziert. Wie bereits im Abschnitt 6.4 vorgestellt, liefern unidirektionale Muster
bei spiegelnden Oberflächen eine anisotrope Winkeldynamik. Als eine Lösung soll stattdessen
ein Kreuzmuster projiziert werden. Im Abschnitt 7.2.2 wird bereits gezeigt, dass man durch
eine fliegende Phasenschiebung mit einem Kreuzmuster ein kontinuierliches axiales Scannen
implementieren kann. Dabei erfolgt die laterale Verschiebung eines statischen Kreuzmusters
entlang einer festdefinierten Richtung unter einem Winkel θP . Sobald der Winkel nach den
Gleichungen 7.21 und 7.25 - 7.27 richtig eingestellt wird, können die Kontraste und Phasen von
horizontalen und vertikalen Komponenten fehlerfrei dekodiert werden. Da dabei das Kreuzmus-
ter nur in eine Richtung bewegt werden muss, kann die zeilenscannende SIMA auch mit einem
Kreuzmuster implementiert werden. Dies wird eine isotrope Winkeldynamik bei zeilenscannen-
der SIMA ermöglichen. Wie in der Abbildung 7.14 angedeutet, wird bei der Implementierung
das projizierte Kreuzmuster um einem festen Winkel gedreht, so dass die phasenschiebende
Achse des Kreuzmusters parallel zur Zeichnungsebene verläuft. Im Vergleich zu einem lateralen
Scan mit unidirektionalen Muster sollen mindestens doppelt so viele Kamerazeilen aktiviert
werden, um die Einhüllende wieder demodulieren zu können.
118 7 Optimierung der Messgeschwindigkeit

Abbildung 7.14: Ein Kamerabild von Lötbumps, auf denen ein gedrehtes Kreuzmuster mit gekippter
Fokusebene projiziert wird. Der Drehwinkel θP des Kreuzmusters wird parallel zur
Zeichnungseben angepasst, so dass eine anisotrope Phasenschiebung der horizontalen
und vertikalen Komponenten bei einer lateralen kontinuierlichen Bewegung des Objekts
intrinsisch durchgeführt wird.

Wird die zeilenscannende SIMA mit Kreuzmuster erfolgreich umgesetzt, kann dieser Ansatz
auf die Mikrodeflektometrie erweitert werden. Damit kann auch eine zeilenscannende Mikro-
deflektometrie implementiert werden. Diese Weiterentwicklung zu einer zeilenscannenden Mi-
krodeflektometrie wird auch die Kombination von SIM und Mikrodeflektometrie mit einem
zeilenscannenden Ansatz ermöglichen.

Limitierung
Da diese Methode auf eine Verkippung der objektseitigen Fokusebene angewiesen ist. ist der
maximale Kippwinkel vom Vergrößerungsmaßstab des optischen Systems abhängig. Der Kipp-
winkel bei einem optischen System mit kleiner Vergrößerung ist größer als bei dem mit großer
Vergrößerung (wie z.B. bei einem Mikroskop). Im Allgemeinen sind also flache Messobjekte
aufgrund des limitierten Kippwinkels und der kleinen Messtiefe gut messbar. Messungen von
Objekten mit steilen Oberflächen bzw. großen Höhenunterschieden sind nur durch Kombination
mit zusätzlichen mechanischen Translations- und Kippeinheiten möglich.
119

8 Modellfreie Kalibrierung der Retrace-Fehler

In diesem Kapitel wird der Ansatz zur vorteilhaften Kombination von SIM und Mikrodeflek-
tometrie und die dadurch ermöglichte modellfreie Kalibrierung der Retrace-Fehler vorgestellt.

8.1 Kombination von Mikrodeflektometrie und SIM

Wie bereits im Abschnitt 4.2.1 gezeigt wurde, verfügt SIM über eine Präzision im Nanometer-
bereich nur bei einem hochgeöffneten Mikroobjektiv mit NA=0.85. Dieses Mikroobjektiv hat
lediglich ein Messfeld von 100 µm und kann deshalb nur eine Messung innerhalb eines sehr
kleinen Ausschnitts ermöglichen. Zur Erweiterung des Messfelds des Objektivs muss man einen
Kompromiss zwischen NA, Auflösungsvermögen und Messfeld beim Optikdesign eingehen
und entweder eine kleinere NA oder eine schlechtere laterale Auflösung in Kauf nehmen. Als
Konsequenz daraus nimmt die Präzision ab. Diese Charakteristik von SIM erschwert den Ein-
satz in makroskopischen Anwendungen, bei welchen hohe Genauigkeit und laterale Auflösung
gleichzeitig erforderlich sind. Um dieses Problem zu lösen, ist eine Methode zu finden, um den
Einfluss des Objektivs auf die Präzision zu entkoppeln.

In [14, 15] wurde eine deflektometrische Methode vorgestellt, die mit derselben Hardware wie
SIM die Oberflächennormale von optisch spiegelnden Objekten messen kann. Aus den Nei-
gungsdaten lässt sich die Höhenkarte durch numerische Integration errechnen. Bei deflektome-
trischen Methoden hängt die Präzision der Höhenkarte nicht von NA, lateraler Auflösung und
Messfeld des Objektivs ab. Stattdessen hängt sie bei einer optimalen Gitterfrquenz lediglich
von der Wellenlänge der Lichtquelle λ und dem Qualitätsfaktor Q (proportional zum SNR des
Kamerarauschens) [95] ab,

λ
δz = δx · δα = . (8.1)
Q
Mit einer Standardkamera (Q = 500) und Weißlichtquelle (λ = 500 nm) liegt die Messunsicher-
heit δz (äquivalent zum Produkt von laterale Auflösung δx und Neigungsunsicherheit δα) des
Höhenrauschens unabhängig von NA und Messfeld bei allen Objektiven immer bei 1 nm [14, 95].

Als Nachteil zeigt die Mikrodeflektometrie gegenüber SIM eine deutlich schlechtere Richtigkeit.
Dies liegt daran, dass der niederfrequente Anteil der durch ungenaue Kalibrierung verursach-
ten systematischen Fehler der Neigungsdaten durch die numerische Integration erheblich
angehoben wird [94]. Dieser globale Fehler lässt sich nur durch hochgenaue Kalibrierung
kompensieren, die allerdings in einem SIM-Aufbau mit großer NA technisch sehr schwierig zu
realisieren ist.

Da die Charakteristiken von Präzision und Richtigkeit bei SIM und Mikrodeflektometrie
gegenseitig komplementär sind und beide Messprinzipien dieselbe Hardware verwenden, er-
scheint eine vorteilhafte Kombination von Mikrodeflektometrie und SIM sinnvoll und kann
mit geringem technischen Aufwand implementiert werden. Durch Datenfusion von beiden
120 8 Modellfreie Kalibrierung der Retrace-Fehler

Höhenkarten ist eine Präzision im Bereich von wenigen Nanometern unabhängig vom ver-
wendeten Objektiv (NA, Feld und laterale Auflösung) auf spiegelnden Oberflächen realisierbar.

Außerdem bietet der Kombinationsansatz einen zusätzlichen Vorteil: Die laterale 3D Auflö-
sung der resultierenden Höhenkarte ist nur durch das 2D-Auflösungsvermögen des verwendeten
Objektives limitiert, weil das Auflösungsvermögen der Mikrodeflektometrie unabhängig vom
projizierten Sinusmuster und gleich groß wie bei einer 2D-Bildgebung ist. Im Gegensatz dazu
ist die laterale 3D Auflösung von SIM mit der Gitterfrequenz des Sinusmusters gekoppelt und
schlechter als die bei der 2D-Bildgebung.

Da die deflektometrische Methode im Prinzip nur für spiegelnde und minimal streuende Ober-
flächen gut funktioniert [94], ist die Anwendung des Kombinationsansatzes lediglich bei optisch
spiegelnden Objekten möglich.

8.1.1 Mikrodeflektometrie

Deflektometrische Methoden werden in [94, 180] als ein konkurrierendes Verfahren zur Interfero-
metrie bezeichnet. Bei der Messung spiegelnder Freiformoberflächen zeichnen die Deflektometrie
sich durch ein großes Messfeld, lokale Nanometer-Präzision und eine Submikrometer-Richtigkeit
aus. Ihre Vorteile gegenüber der Interferometrie sind die Unempfindlichkeit gegenüber Vibrati-
on, hohe Flexibilität beim Handhaben der Messproben und extrem niedrige Systemkosten (kein
teures Computer-Generated-Hologramm nötig). Außerdem gibt es beim exakten Anzeigen des
Musters kein Retrace-Fehler.

Die Phasenmessende Deflektometrie (PMD) [95, 93] misst primär vollflächige Oberflächennei-
gung mittels eines Bildschirms zum Anzeigen von periodischen Sinusmuster und zwei Kameras.
Die Höheninformation werden durch die numerisch interative Rekonstruktion des Integrals der
Neigungen berechnet [181, 182, 183].
8.1 Kombination von Mikrodeflektometrie und SIM 121

CCD chip CCD chip

SLM SLM

Mikroobjektiv Mikroobjektiv

Mikroobjektiv Mikroobjektiv

Luftbild von SLM Luftbild von SLM

Objekt Objekt 

(a) (b)

Abbildung 8.1: (a)Strahlengänge aus einem Kamerapixel bei einem nicht gekippten ebenen Spiegel in
einem Mikrodeflektometrie-Aufbau . (b)Strahlengänge aus einem Kamerapixel bei einem
um α gekippten ebenen Spiegel in einem Mikrodeflektometrie-Aufbau.

PMD eignet sich sehr gut für die Messung makroskopischer Objekte, wobei das Objekt weit von
Bildschirm und Kamera entfernt ist. Für die deflektometrische Messung von mikroskopischen
Objekten wird eine mikroskopische laterale Auflösung benötigt. Dazu muss ein Mikroobjektiv
mit großer NA eingesetzt werden. Allerdings ist es aufgrund des sehr kurzen Arbeitsabstands
des Mikroobjektives nicht möglich, dabei einen Bildschirm seitlich zum Objekt zu positio-
nieren. Aus diesem Grund wurde in [15, 14] eine modifizierte Variante von PMD vorgestellt,
damit die deflektometrische Messung in einem Mikroskop stattfinden kann.

Wie in der Abbildung 8.1 (a) illustriert, wird anstatt den Bildschirm seitlich zu positionieren,
das Sinusmuster durch den Beleuchtungsarm eines Hellfeldmikroskops mit einem Abstand
d über die Fokusebene des Beobachtungsarms projiziert. Befindet sich ein ebener Spiegel
senkrecht zur optischen Achse innerhalb der Fokusebene des Beobachtungsarms, werden die
Photonen, die aus dem Bereich innerhalb des Unschärfenscheibchens auf dem Display stam-
men, auf dem Spiegel reflektiert und von einem Kamerapixel detektiert. Kippt dieser Spiegel
im Fokuspunkt um einen Winkel α (siehe Abbildung 8.1 (b)), wird ein Teil der Photonen aus
dem Unschärfescheibchen nach der Reflektion durch die Apertur blockiert. Dadurch wird ein
anderer Intensitätswert als bei einem ungekippten Spiegel registriert. Diese Intensitätsdiffe-
renz spiegelt eine Phasenverschiebung zwischen den Schwerpunkten der jeweiligen effektiven
Unschärfescheibchen, die zu den registrierten Intensitätswerten beigetragen haben, wider.
Aus dieser Betrachtungsweise folgt auch eine Korrelation zwischen der Phasenschiebung △ϕ
und dem lokalen Kippwinkel α. Ist diese Korrelation bekannt, kann man aus der gemessenen
Phasendifferenz auf die entsprechende lokale Oberflächenneigung entlang der Streifenrichtung
zurückschließen. Die Oberflächenneigung entlang der orthogonalen Richtung lässt sich aus dem
um 90° gedrehten Sinusmuster erhalten.
122 8 Modellfreie Kalibrierung der Retrace-Fehler

Unschärfenscheibchen

2a Dj
u
d
a

Abbildung 8.2: Geometrische Beziehung zwischen dem Luftbild des Displays und den effektiven Strah-
lengängen bei Reflexion auf einem um α gekippten ebenen Spiegel.

Diese Korrelation kann man durch geometrische Überlegungen quantitativ festlegen. Dafür wird
auf der Objektseite die Geometrie zwischen dem Luftbild des Displays und dem aus einem Ka-
merapixel stammenden Lichtkegel in der Abbildung 8.2 betrachtet. Damit wird schematisch
veranschaulicht, aus welchem Bereich auf dem Bildschirm die Photonen nach der Reflektion
zum Intensitätswert von einem Kamerapixel effektiv beitragen können. Wird ein nichtgekippter
ebener Spiegel in den Fokus eingelegt, können alle Photonen aus dem kreisförmigen Unschär-
fenscheibchen nach der Reflexion in den Detektor gelangen. Bei homogener Pupillenfunktion
entspricht die beobachtete Phasenlage der Phasenlage des Schwerpunktes des Unschärfescheib-
chens, das auf der optischen Achse liegt. Liegt eine Spiegelkippung um α vor, wird der reflek-
tierte Lichtkegel um 2α geneigt und die Beobachtung von der Objektivapertur angeschnitten.
Die resultierende effektive Objektivapertur hat eine zweikreiseckförmige Schnittfläche. Deren
Schwerpunkt ist um einen Abstand △S verschoben, der mit folgender Gleichung [14] mit dem
Kippwinkel α verknüpft werden kann,
 
d
△S = sgnα (tanu + tan(u − 2|α|)) − dtan(u − 2|α|) ). (8.2)
2

Mit der Beziehung △S = △ϕP/(2π) lässt sich der verschobene Abstand △s der Schwerpunkte
der Unschärfescheibchen vor und nach der Verkippung in den Phasenversatz △ϕ umrechnen
[14],

2π d
△ϕ(α) = sgnα(tanu − tan(u − 2|α|)). (8.3)
P 2
Löst man die Gleichung 8.3 nach α auf, kann man aus dem gemessenen Phasenversatz △ϕ den
lokalen Neigungswinkel α mit der Gleichung 8.4 berechnen[14],
 
1 p△ϕ
α= u − atan(tanu − ) . (8.4)
2 dπ
8.1 Kombination von Mikrodeflektometrie und SIM 123

8.1.2 Vorteilhafte Kombination im selben Aufbau

Kamera chip Kamera chip

Mustergenerator Mustergenerator

SIM Eigenschaft µPMD


im Fokus Musterlage distanziert
klein Musterperiode groß
Kontrast Auswertung Phase

Abbildung 8.3: Vergleich zwischen den Aufbauten von SIM und Mikrodeflektometrie.

Da ein Aufbau für Mikrodeflektometrie aus denselben Komponenten wie SIM besteht, lässt
sich die Implementierung der Kombination unkompliziert realisieren. In der Abbildung 8.3
werden die Aufbauten von SIM und Mikrodeflektometrie miteinander verglichen. Grundsätzlich
unterscheiden sie sich nur wenig :
– Bei der Mikrodeflektometrie wird das Sinusmuster mit einem Abstand über die Foku-
sebene des Beobachtungsarms anstatt direkt in die Fokusebene projiziert.
– Die Musterperiode der Mikrodeflektometrie ist deutlich höher, um das Sinusmuster trotz
starker Defokussierung mit ausreichendem Kontrast beobachten zu können.
– Für die Neigungsmessung bei der Mikrodeflektometrie werden anstatt des Kontrasts die
Phasen des beobachteten Sinusmusters ausgewertet.
Außerdem ist es bei der deflektometrischen Messung von Objekten mit starker Höhendyna-
mik besonders wichtig, eine Schärfentiefenerweiterung durchzuführen. Ist die Schärfentiefe
des Mikroobjektivs kleiner als die Höhe des Objekts, muss die Messung an mehreren axia-
len Positionen durchgeführt werden. Um für jeden Pixel die optimale axiale Position, für
die Phasenauswertung zu identifizieren, muss eine SIM-Messung zusätzlich stattfinden. Die
Messergebnisse aus der SIM-Messung liefern die Information, aus welcher Tiefenposition der
entsprechende Phasenwert selektiert werden soll.

Es ist auch sinnvoll, eine SIM-Messung gemeinsam mit einer deflektometrischen Messung durch-
zuführen, um die Präzision von SIM zu erhöhen. Eine Datenfusion soll gewährleisten, dass die
Präzision von SIM unabhängig von den verwendeten Objektiven im Bereich weniger Nanome-
tern liegt. Die Kombination ist auch vorteilhaft, weil die schlechtere Richtigkeit der Mikro-
deflektometrie optimiert werden kann. Außerdem wird auch die laterale Auflösung von SIM
erheblich erhöht.
124 8 Modellfreie Kalibrierung der Retrace-Fehler

µDefl.:
- =
3D-Daten aus µDefl. globale Form lokale Details
(schlechte Richtigkeit) (gute Präzision)
erhalten aus Tiefpassfilter
SIM:

- =
3D-Daten aus SIM lokale Details globale Form
(schlechte Präzision) (gute Richtigkeit)
erhalten aus Hochpassfilter

kombiniert:
+ =
globale Form aus SIM lokale Details aus µDefl. kombinierte 3D-Daten
(gute Richtigkeit) (gute Präzision) (gute Richtigkeit &
gute Präzision)

Abbildung 8.4: Durch Fusion der Höhenkarten aus SIM und Mikrodeflektometrie lässt sich eine besseren
Messgenauigkeit auch bei großen Objekten erreichen.

Die Datenfusion ist in Abbildung 8.4 dargestellt. Die Grundidee basiert auf dem Zusam-
menfügen des niederfrequenten Teil des Fourierspektrums der SIM-Höhenkarte mit dem
hochfrequenten Teil des Fourierspektrums mit der Mikrodeflektometrie gewonnenen Höhen-
karte. Aufgrund des identischen optomechanischen Aufbaus erfolgt die Datenfusion ohne
aufwendige numerische Registrierung und Justierung. Die dadurch erzielten Messergebnisse
verfügen über eine hardwareunabhängige Nanometer-Präzision und ein höchstmöglich erreich-
bares Auflösungsvermögen wie bei der 2D-Bildgebung.

Um den Effekt der vorteilhaften Kombination zu belegen, wurde ein polierter zylindrischer Me-
tallblock mit zahlreichen nanometertiefen Kratzern jeweils mit SIM und Mikrodeflektometrie
gemessen. Wie in der Abbildung 8.5 dargestellt, sind die nanometertiefen Mikrokratzer mit
der Mikrodeflektometrie besser aufgelöst (Bild Mitte rechts), während bei den Messergebnissen
von SIM das Rauschen deutlich höher ist und die Kratzer nicht gut erkennbar sind (Bild Mitte
links). Für den niederfrequenten Anteil der Höhenkarte zeigt Mikrodeflektometrie niedrige Ge-
nauigkeit, da sich die Fehler auf den Neigungen bei Integration fortpflanzen und am Rand des
Messfeldes deutlich höhere systematische Fehler verursachen (Bild unten rechts). Im Gegensatz
dazu sind die Höhenauswertung bei SIM an jeder Position unabhängig von der Nachbarinfor-
mation durchgeführt. Damit ist bei einem guten Objektiv die globale Genauigkeit höher als
bei der Mikrodeflektometrie. Aufgrund den komplementären Eigenschaften beider Verfahren
ist eine Kombination vom hochfrequenten Teil (Bild Mitte rechts) aus der Mikrodeflektometrie
8.1 Kombination von Mikrodeflektometrie und SIM 125

mit dem niederfrequenten Teil (Bild unten links) aus SIM sinnvoll. Die Kombination beider
Datensätze liefert sowohl global genaue als auch lokal hochauflösende und präzise Ergebnisse.

Spigelnder Block mit Nanokratzern

A B A B

100 nm
5 nm 10 nm
20 nm
A B A B

Lokale Details (SIM) Lokale Details (Mikrodeflektometrie)

B B

A A

200 nm 200 nm

A B A B

Globale Form (SIM) Globale Form (Mikrodeflektometrie)

Abbildung 8.5: Messergebnisse von einem polierten Zylinderblock mit nanometertiefen Kratzern, die
von SIM und Mikrodeflektometrie mit einem Mikroobjektiv 50x/0.85 erhalten wurden.
Bei den jeweiligen Höhenkarten wurden die niederfrequenten und hochfrequenten An-
teile mittels B-Spline-Approximation getrennt.
126 8 Modellfreie Kalibrierung der Retrace-Fehler

8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler

z rMess(x0,y0,0,0)

ERetrace(x0,y0,0,0)

rSoll(x0,y0)
x
~ Retrace .
Abbildung 8.6: Der durch Retrace-Fehler bedingte systematische Fehler E

Im Abschnitt 4.2.2 und 6.2 wurde die Richtigkeit von SIM und deren dominierende Fehlerquel-
len diskutiert. Dabei wird der Retrace-Fehler als die dominierende Fehlerquelle identifiziert, die
abhängig von der Objektform variieren kann und die bestmöglich erreichbare Richtigkeit von
SIM maßgeblich einschränkt. Da die Fehlergröße abhängig von der Form des Objekts ist, lässt
sie sich schwer kompensieren. Bei SIM trägt der Retrace-Fehler generell nur auf spiegelnden
Oberflächen maßgeblich zur Reduzierung der Richtigkeit bei. Sind Aberrationen (sphärische
Aberration, Koma und Astigmatismus) im Objektiv vorhanden oder liegen die Fokusebenen
des Beleuchtungs- und des Beobachtungsarms nicht aufeinander, können sich bei unterschiedli-
chen Objektformen unterschiedliche Formen der Referenzebene ergeben. Wie in Abbildung 8.6
gezeigt wird, erzielt eine Messung auf einem ebenen Spiegel mit der Form ~rSoll Messergebnisse
von ~rM ess . Der Retrace-Fehler verursacht eine Verschiebung E ~ Retrace der Referenzebene, die
abhängig von der lokalen Oberflächennormale (θ, ϕ) der Objektform ~rSoll variiert. Wird nur
der Retrace-Fehler in den Messergebnissen berücksichtigt, lassen sich die orts- und neigungs-
abhängigen Messergebnisse → −
r M ess (x, y, θ, ϕ) aus der Objektform → −r Soll (x, y) und dem vom
~
Retrace-Fehler bedingten systematischen Fehler ERetrace (x, y, θ, ϕ) zusammensetzen,



r M ess (x, y, θ, ϕ) = →
− ~ Retrace (x, y, θ, ϕ).
r Soll (x, y) + E (8.5)
Da der Fokuspunkt neben der z-Richtung auch in x- und y-Richtung verschoben werden kann,
~ Retrace (x, y, θ, ϕ) im Vektorraum mit der Gleichung 8.6 darstellt,
wird der systematische Fehler E
wobei dessen drei Komponenten dx , dy und dz jeweils den verschobenen Abstand entlang der
x-, y- und z-Achse beschreiben. Alle drei Komponenten sind sowohl vom Ort (x, y) als auch
von der Oberflächennormale (θ, ϕ) abhängig.
 
dx (x, y, θ, ϕ)
E~ Retrace (x, y, θ, ϕ) =  dy (x, y, θ, ϕ)  . (8.6)
dz (x, y, θ, ϕ)
Bevor auf die Lösung zur Kompensation des Retrace-Fehlers von SIM eingegangen wird, wird
zuerst der Stand der Technik analysiert. Bei einem Nicht-Null-Interferometer limitiert der
Retrace-Fehler bei starken Aberrationen auch maßgeblich die maximal erreichbare Richtigkeit.
8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 127

Dabei fallen die einfallenden Wellenfronten nicht senkrecht auf die Objektoberflächen und
werden unter einem Winkel relativ zur Oberflächennormale reflektiert. Beim Rückweg zum
Detektor folgen die reflektierten Wellenfronten anderen Pfaden durch das abbildende System
als beim Hinweg. Die Differenz zwischen den optischen Weglängen beim Hin- und Rückweg in-
duziert Phasenfehler im Interferogramm, die zum systematischen Fehler auf der ausgewerteten
Höhenkarte führen. Zur Kompensierung dieses Retrace-Fehlers werden bei der Interferometrie
als Standardlösungen zwei Arten von Ansätzen eingesetzt.

Der erste Ansatz ist ein modellbasierter Ansatz [184], wobei das ganze Messsystem im Rechner
modelliert werden muss. Der Retrace-Fehler wird als freier Parameter im Modell gesetzt,
dessen Lösungen mit iterativen Algorithmen gesucht werden. Aus der ursprünglich gemessenen
Objektform wird ein Interferogramm mit Hilfe des bekannten Modells des ganzen Systems
berechnet und mit dem gemessenen Interferogramm verglichen. Ein Optimierungsprozess sorgt
für eine konvergierende Lösung, an der das berechnete Interferogramm mit dem gemessenen
übereinstimmt.

Der andere Ansatz löst das Problem durch Modifikation des Aufbaus [185]. Als Voraussetzung
muss die Grundform des Objekts im Voraus bekannt sein. Mit dem A-Priori-Wissen über
die Grundform kann man durch ein Computer-Generated-Hologram (CGH) die Form der
einfallenden Wellenfronten auf das Objekt so anpassen, dass die einfallenden Wellenfronten
immer senkrecht auf die ideale Objektoberfläche fallen. Damit legen die reflektierten Wellen-
fronten dieselben optischen Weglängen beim Rückweg zurück und verursachen somit keinen
Retrace-Fehler.

Kann man zur Kompensation des Retrace-Fehlers bei SIM die zwei obengenannten Ansätze
einfach übertragen? Aus folgenden Gründen ist dies bei SIM schwer realisierbar.

Obwohl die beiden Ansätze theoretisch bei SIM möglich sind, sind sie im Gegensatz zu der In-
terferometrie technologisch sehr aufwendig zu realisieren. Zum Modellieren des ganzen Systems
muss das optische Design der verwendeten Objektive genau bekannt sein. Dies ist allerdings
in der Praxis oft sehr schwer zugänglich. Als Alternative kann man das Abbildungssystem
als eine „Black Box“ modellieren, indem man die Pupillenfunktionen und die Positionen der
Ein- und Austrittspupillen experimentell ermittelt. Die hohe Komplexität des Messvorgangs
erschwert diese Option. Wenn man durch Anpassung der Richtungen der einfallenden Strahlen
zur Objektform den Retrace-Fehler vermeiden möchte, ist ein nichtrotationssymmetrisches
Objektiv zu designen.

Für eine hochschnelle und flexible Inspektion ist ein modellfreier und kostengünstiger Kalibrie-
rungsansatz von Vorteil, der universell bei beliebiger Objektform einsetzbar ist. Aus diesem
Grund wurde ein modellfreier Kalibrierungsansatz zur Kompensation des Retrace-Fehlers auf
spiegelnden Oberflächen entwickelt, der weder a-priori-Wissen über das System noch eine
Änderung des Aufbaus benötigt.

Dieser Ansatz basiert auf der Kombination von SIM und Mikrodeflektometrie, die bereits im
vorherigen Abschnitt vorgestellt wurde. Die Grundidee beruht auf folgender Beobachtung:
Die Größe des Retrace-Fehlers E~ Retrace an einem bestimmten Feldpunkt (x0 , y0 ) ist nur von
der Oberflächennormale (θ, ϕ) abhängig. Die Oberflächennormale (θ, ϕ) lässt sich mittels
128 8 Modellfreie Kalibrierung der Retrace-Fehler

Mikrodeflektometrie ermitteln, wobei die Messergebnisse (Oberflächenneigungen) der Mikro-


deflektometrie im Gegensatz zu SIM nicht unter dem Retrace-Fehler leiden und unabhängig
von der Objektform immer wiederholbar sind. Aufgrund dieser Eigenschaften kann man eine
eindeutige Abbildungsvorschrift zwischen den Oberflächennormalen und dem Retrace-Fehler
etablieren. Die Größe des systematischen Fehlers bei Messobjekten lässt sich mit Hilfe dieser
Abbildungsvorschrift ermitteln und korrigieren.

Der komplette Kalibriervorgang wird in der Abbildung 8.7 visualisiert. Als erster Schritt wird
der Retrace-Fehler E ~ Retrace im Messaufbau in Abhängigkeit von allen Oberflächennormalen
(θ, ϕ) innerhalb der Winkeldynamik und allen Feldkoordinaten (x, y) experimentell ermittelt.
Aus den gemessenen Datensätzen wird eine Kalibrierfunktion E ~ Retrace (x, y, θ, ϕ) numerisch
bestimmt. Beim Messvorgang werden nach der SIM-Messung zusätzlich noch die Oberflä-
chennormalen der Messobjekte mittels Mikrodeflektometrie erfasst. Zum Abschluss wird der
systematische Fehler (dx , dy , dz ) für jeden Pixel durch Parametrisierung der Kalibrierfunktion
mit den Oberflächennormalen berechnet und aus der gemessenen Höhenkarte korrigiert.

In diesem Abschnitt erfolgt die Erklärung dieses Kalibrierungskonzepts in drei Schritten. Zuerst
wird die Methode zur Erfassung des Retrace-Fehlers in Abhängigkeit der Oberflächennorma-
len präsentiert. Anschließend wird gezeigt, wie man aus den Messdaten eine Kalibrierfunktion
numerisch bestimmt. Dabei werden zwei numerische Methoden vorgestellt und deren Vor- und
Nachteile diskutiert. Als letzter Schritt wird die Korrektur der Höhenkarte anhand eines Mess-
beispiels gezeigt und die Genauigkeit dieser Kalibrierungsmethode verifiziert. Außerdem werden
die technologischen Grenzen des implementierten Experiments diskutiert und Optimierungs-
optionen vorgeschlagen.
.

Ermittlung der Retrace-Fehler


Dx(x,y,q,j), Dy(x,y,q,j), Dz(x,y,q,j) Hybrid-3D-Sensor

Neigung: sx,sy

Berechnen der Kalibrierfunktion µDefl.


dx,dy,dz
3D-Daten: x,y,z

Korrektur
SIM

korrigierte 3D-Daten

Abbildung 8.7: Flussdiagram des modellfreien Kalibrierungskonzeptes zur Kompensation des Retrace-
Fehlers bei SIM.
8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 129

8.2.1 Erfassung der Retrace-Fehler

Die Grundidee der modellfreien Kalibrierung beruht auf der Suche nach einer Abbildungsvor-
schrift vom Ort (x, y) des Objektpunkts und dessen Oberflächennormale (θ, ϕ) zum Vektor der
Fokusverschiebung (dx , dy , dz ),

~ Retrace : (x, y, θ, ϕ) ∈ R4 → (dx , dy , dz ) ∈ R3 .


E (8.7)

Die Aufstellung dieser Abbildungsvorschrift E ~ Retrace (x, y, θ, ϕ) setzt eine genaue Ermittlung der
Fokusverschiebung (dx , dy , dz ) im ganzen Messfeld und für alle möglichen Oberflächennormalen
voraus. Theoretisch ist sie äquivalent zur Differenz zwischen der gemessenen Objektform → −r M ess


und der wahren Objektform r Soll ,

~ Retrace (x, y, θ, ϕ) = →
E −
r M ess (x, y, θ, ϕ) − →

r Soll (x, y, θ, ϕ). (8.8)

Um die Fokusverschiebung (dx , dy , dz ) quantitativ in der Praxis zu bestimmen, muss man die
Messung auf einem Kalibrierkörper mit einer bekannten Geometrie → −r Soll durchführen. Damit


man r Soll einfach und nachvollziehbar bestimmen kann, wird eine ebene Fläche als bevorzugte
Geometrie verwendet. Eine ebene Fläche hat eine räumlich einheitliche Normale und die Ände-
rung der Oberflächennormale kann durch Kippung und Rotation des Kalibrierkörpers realisiert
werden. Die mechanisch durchgeführte Kippung und Rotation der Referenznormale (0, 0) zu
einer bestimmten Oberflächennormale (θ, ϕ) wird in der Praxis durch eine Rotation mit der
Rotationsmatrix R0→θ,0→ϕ und eine Translation mit dem Translationsvektor T0→θ,0→ϕ para-
metrisiert. Bei der Referenznormale (0, 0), dessen ebene Fläche senkrecht zur optischen Achse
steht, wird die Form →
−r M eas (x, y, θ = 0, ϕ = 0) der ebenen Fläche gemessen. Nach der Rotati-
on wird die wahre Form → −r Soll (x, y, θ, ϕ) der rotierten ebenen Flächen nach der Gleichung 8.9
berechnet,



r Soll (x, y, θ, ϕ) = R0→θ,0→ϕ (θ, ϕ) × →

r M eas (x, y, θ = 0, ϕ = 0) + T0→θ,0→ϕ (θ, ϕ). (8.9)
130 8 Modellfreie Kalibrierung der Retrace-Fehler

Kamerac hip

55µm

160µm
Pinhole 480µm

q
selbstbeleuchtende
Markenplatte
j
Chrombeschichtung

Glasscheiben

Abbildung 8.8: Photogrammetrischer Aufbau zur Bestimmung der Rotations- und Translationsmatrix.
Auf der Kalibrierplatte befinden sich kreisförmige spiegelnde Marken zur SIM-Messung
und Kreuzmarken zur photogrammetrischen Messung. Die Markenplatte wird mit einer
diffusen vollflächigen Weißlichtquelle beleuchtet, die direkt hinter der Kalibrierplatte
positioniert ist. Das Pinhole vor der Kalibrierplatte sorgt für einen größeren Feldwinkel
zur Erhöhung der Messsensitivität bei der Verfolgung der Rotations- und Translations-
bewegung.

LED-Bildschirm
Pinhole 

Kamera Pellicle-Strahlteiler

Markenplatte

Abbildung 8.9: Laboraufbau zur Kalibrierung des Retrace-Fehlers.


8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 131

Die Implementierung dieser ebenen Fläche erfolgt in der Praxis durch Einsetzen einer Kali-
brierplatte (siehe Abbildung 8.8), auf der sich eine Vielzahl von kreisförmigen Marken und
Kreuzen aus Chrom befinden. Die kreisförmigen Marken mit Durchmesser von 55 µm sind
spiegelnd und sorgen dafür, dass neben der axialen Verschiebung auch die laterale Fokus-
verschiebung erfasst werden kann. Zur Bestimmung der Rotationsmatrix R0→θ,0→ϕ und des
Translationsvektors T0→θ,0→ϕ wird die Photogrammetrie als externes Messsystem für Ver-
folgung der Bewegung des Glasscheibens verwendet. Da mit Photogrammetrie die externe
Beziehung zwischen Markenplatte und Kamera in kurzem Abstand mittels Resektion sehr
genau ermittelt werden kann [10], kann damit eine genaue Bestimmung der Rotations- und
Translationsmatrix erzielt werden, ohne eine hochpräzise mechanische Rotationseinheit zu
benötigen. Dadurch wird der technische Aufwand bei Konstruktion des Aufbaus erheblich
minimiert. Für die photogrammetrische Messung wird die Markenplatte von hinten mit einer
diffusen vollflächigen Weißlichtquelle beleuchtet. Für die Berechnung der Rotations- und Trans-
lationsmatrix werden bei der Resektion die Koordinaten der Kreuzmarken verwendet, weil
dadurch die durch Perspektiven verursachten systematischen Fehler in den Markenkoordinaten
aufgrund der kleinen Größe reduziert werden können. Da eine genaue photogrammetrische
Messung ein Pinhole Model mit einem großen Feldwinkel erfordert, wird bei Kalibrierung
und photogrammetrischen Messungen vor dem Objektiv eine zusätzliche Pinhole-Blende so
nah wie möglich zur Kalibrierplatte positioniert. Dadurch wird die Messempfindlichkeit der
Photogrammetrie gegenüber kleinen Rotations- und Translationsänderungen erhöht.

Zur Implementierung dieser Kalibriermethode wurde ein makroskopischer SIM-Aufbau im-


plementiert, an dem man sowohl SIM-Messungen als auch photogrammetrische Messungen
durchführen kann. Wie in der Abbildung 8.9 gezeigt wird, wird ein lichtstarkes Photoobjektiv
(mit Brennweite F = 50 mm und Blendezahl f # = 0, 95) mit einem Plan-Apochromat-
Objektiv von Olympus (mit Brennweite F = 100 mm und einer numerischen Apertur
N A = 0, 25) direkt gekoppelt. Beide Objektive sind auf unendlich eingestellt. Jeder Punkt auf
der in der Fokusebene stehenden Kalibrierplatte wird zuerst kollimiert und anschließend mit
2x-Vergrößerung auf dem Kamerachip abgebildet. Anders als beim mikroskopischen Aufbau
wird ein Pellicle-Strahlteiler mit einer Dicke von 2 µm nach dem Plan-Apochromat-Objektiv
im endlichen Strahlengang positioniert und vermeidet aufgrund seiner sehr geringen Dicke
Astigmatismus und sphärische Aberration. Dadurch wird ein Sinusmuster, das auf einem
OLED-Bildschirm angezeigt wird, in den Beleuchtungsarm eingekoppelt. Die Kalibrierplatte
wird an einem 3-Achsen-Motorensystem befestigt. Sie kann sowohl in z-Richtung translatiert
als auch in polare (θ) und arzimutale (ϕ) Richtung rotiert werden. Eine Pinhole-Blende mit
einem Durchmesser von 100 µm wird am Flansch des ersten Photoobjektivs festgeschraubt.
Damit wird ein Feldwinkel von ca. 40° realisiert und gleichzeitig auch ausreichende große
Schärfentiefe bereitgestellt. In diesem Aufbau wird die Kalibrierung umgesetzt und die Test-
messungen durchgeführt.

Das Flussdiagramm in der Abbildung 8.10 zeigt den gesamten Vorgang der modellfreien Ka-
librierung. Zu Beginn wird das kartesische Weltkoordinatensystem mittels Angabe der Mar-
kenkoordinaten festgelegt. Der Ursprung des Weltkoordinatensystems liegt auf der zentralen
Kreuzmarke. Die x- und y-Achsen des Weltkoordinatensystems liegen innerhalb der Ebene
der Kalibrierplatte und sind parallel zu beiden Hauptachsen des Markengitters ausgerichtet.
Die z-Achse steht senkrecht zur Kalibrierplatte und zeigt aus ihr heraus. Neben dem xyz-
Weltkoordinatensystem im 3D-Raum wird auch ein zweidimensionales Polarkoordinatensystem
mit Radialkoordinaten θ und Winkelkoordinaten ϕ zur Beschreibung der Oberflächennorma-
le benötigt. Der Pol des Polarkoordinatensystems wird auf einer zur optischen Achse parallel
132 8 Modellfreie Kalibrierung der Retrace-Fehler

laufenden Richtung definiert, indem man die Kalibrierplatte senkrecht zur optischen Achse
ausrichtet und deren Oberflächennormale als (θ = 0, ϕ = 0) definiert.

Messen von rMess(x, y, q=0, j=0)


auf der Markenplatte mit SIM

q um Dq erhöhen
(Markenplatte um Dq kippen)

j um Dj erhöhen
(Markenplatte um Dj rotieren)

Messen von rMess(x, y, q, j)


auf der Markenplatte mit SIM

Messen von der relativen Rotation R0q, 0j


und der relativen Translation T0q, 0j
mit Photogrammmetrie

Berechnung von rSoll(x, y, q, j)


aus rMess(x, y, q=0, j=0), R0q, 0j und T0q, 0j
mit der Formel 6.9

Interpolieren von r Mess(x, y, q, j) und rSoll(x, y, q, j)


in x- und y-Richtung.

Berechnung von Retrace-Error E Retrace(x, y, q, j)


aus rMess(x, y, q, j), rSoll(x, y, q, j)
mit der Formel 6.8

Nein
j ≥ 360°

Ja

Nein
q ≥u

Ja

Ende

Abbildung 8.10: Flussdiagramm des Messvorgangs zur Erfassung des Retrace-Fehlers.


8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 133

Am Pol des Polarkoordinatensystems wird die Grundform → −


r M eas (x, y, θ = 0, ϕ = 0) mit SIM
gemessen und gespeichert. Zur Erfassung der vollständigen Verteilung des Retrace-Fehlers
E~ Retrace (x, y, θ, ϕ) wird diese Kalibrierplatte zu gleichmäßig verteilten Positionen innerhalb des
ganzen Bereichs der möglichen Oberflächennormalen θ ∈ [0, u], ϕ ∈ [0, 360] im Polarkoordina-
tensystem verfahren. Deren Dichte und Anordnung können durch Wählen der Verfahrschritte
von △θ und △ϕ angepasst werden. Nachdem die Kalibrieplatte jedes Mal um △θ und △ϕ
zur nächsten Oberflächennormale gefahren wurde, erfolgt je eine Höhenmessung mit SIM und
eine photogrammetrische Messung. Daraus wird die Form des Objekts → −r M ess (x, y, θ, ϕ), die
relative Rotation R0→θ,0→ϕ und die relative Translation T0→θ,0→ϕ ermittelt. Mit der Informa-
tion der relativen Rotation und Translation kann man die wahren Höhenkarte → −r Soll (x, y, θ, ϕ)


an allen angefahrenen Positionen mit der Gleichung 8.9 abschätzen. Da r M ess (x, y, θ, ϕ) und

−r Soll (x, y, θ, ϕ) diskret sind, ist eine Interpolation zur Generierung der pixeldichten Höhenkar-


te notwendig. Nach der Interpolation kann der pixeldichte Retrace-Error E (x, y, θ, ϕ) anhand
der Gleichung 8.8 berechnet werden. Dieser Messvorgang wird solange wiederholt, bis der
ganze Bereich der Oberflächennormale im Polarkoordinatensystem durchgescannt wurde. Nach
allen Messungen sind für jeden Pixel die Datensätze über den Retrace-Fehler E ~ Retrace (θ, ϕ)
vorhanden, die zur Generierung der Kalibrierfunktion benötigt werden. Dadurch kann man für
jeden Pixel eine zweidimensionale Kalibrierfunktion erstellen.

~ Retrace (θ, ϕ)
Einfachheitshalber werden bei der numerischen Berechnung der Kalibrierfunktion E
an jedem Pixel die Polarkoordinaten θ und ϕ der Oberflächennormale in die kartesischen
Koordinaten - die Oberflächenneigungen sx und sy entlang der x- und y-Achse im xyz-
Weltkoordinatensystem - transformiert. Die Transformation erfolgt nach den Gleichungen 8.10
und 8.11,

sx = tanθ · cosϕ, (8.10)

sy = tanθ · sinϕ. (8.11)

Ein kompletter Messvorgang des Retrace-Fehlers E(x,~ y, θ, ϕ) wurde mit dem in der Ab-
bildung 8.9 gezeigten makroskopischen Aufbau und der in der Abbildung 8.8 dargestellten
Markenplatte an 60 Stützstellen erfolgreich abgeschlossen. Dabei wurde eine SIM-Messung
bei jeder Position der Markenplatte jeweils mit horizontaler und vertikaler Streifenrichtung
durchgeführt. In jedem Pixel werden die Kontrastwerte von beiden Messungen gemittelt. Auf
den resultierenden mittleren Kontrastkurven wird die Höhenauswertung durchgeführt. Diese
Option ist ein notwendiger Schritt bei der eingesetzten Markenplatte (siehe Abbildung 8.8),
weil damit starke Überhöhungen am Rand der kreisförmigen Marken deutlich minimiert werden
können. Diese Messartefakte sind auf die Streuung am Markenrand zurückzuführen, insbeson-
dere wenn die laterale Auflösung entlang der Streifenrichtung des Sinusmusters schlecht ist
(siehe Abbildung 8.19). Diese Messartefakte können durch kombinierte Messungen mit beiden
orthogonal stehenden Streifenrichtungen reduziert werden.
134 8 Modellfreie Kalibrierung der Retrace-Fehler

Zur Visualisierung der Messergebnisse werden drei Komponenten des gemessenen Retrace-
~ 0 , y0 , θ, ϕ) in einem Pixel mit Ortskoordinaten (x0 , y0 ) im Objektraum in der
Fehlers E(x
Abbildung 8.11 dargestellt. Die einzelnen x-, y- und z-Komponenten werden getrennt in
der Abbildung 8.11 (a), (b) und (c) visualisiert. Während die Fehlervariation der x- und
y-Komponenten innerhalb von 10 µm liegt, ist eine deutlich höhere Fehlervariation im Bereich
von ca. 50 µm bei der z-Komponente zu erkennen. Der Fehlerverlauf der z-Komponente zeigt
eine Vorzugsrichtung in der Richtung der sx - Achsen, entlang welcher der Fehler mit zunehmen-
den Neigung sx abnimmt. Dies weist darauf hin, dass die z-Komponente des Retrace-Fehlers
dominierenden Einfluss auf die Richtigkeit der Messdaten hat. Damit können auch die im Ab-
schnitt 6.2 durch Simulation ermittelte Abhängigkeit des axialen Fehlers vom Neigungswinkel
bestätigt werden.

Fokusverschiebung entlang der x-Achse dx [mm] Fokusverschiebung entlang der y-Achse dy [mm]
0.4 0.05 0.4 0.05

0.04 0.04
0.3 0.3
0.03 0.03
0.2
Neigung Sy in y-Richtung

Neigung Sy in y-Richtung

0.2
0.02 0.02
0.1 0.1
0.01 0.01

0 0 0 0

-0.01 -0.01
-0.1 -0.1
-0.02 -0.02
-0.2 -0.2
-0.03 -0.03
-0.3 -0.3
-0.04 -0.04

-0.4 -0.05 -0.4 -0.05


-0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4
Neigung Sx in x-Richtung Neigung Sx in x-Richtung

(a) (b)

Fokusverschiebung entlang der z-Achse dz [mm]


0.4 0.05

0.04
0.3
0.03
0.2
Neigung Sy in y-Richtung

0.02

0.1
0.01

0 0

-0.01
-0.1
-0.02
-0.2
-0.03

-0.3
-0.04

-0.4 -0.05
-0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4
Neigung Sx in x-Richtung

(c)

Abbildung 8.11: Gemessene Retrace-Fehler entlang x-, y- und z-Achsen. (a) Fokusverschiebung entlang
der x-Achse, (b) Fokusverschiebung entlang der y-Achse, (c) Fokusverschiebung entlang
der z-Achse.
8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 135

8.2.2 Erstellung der Kalibrierfunktion

Start

Messen von Retrace-Error ERetrace(x, y, Sx, Sy)

Zur nächsten (Sx, Sy) anfahren


Mit SIM und Photogrammetrie

Messen von Oberflächenneigungen (Sx, Sy)


mit Mikrodeflektometrie

Nein

Letzter (Sx, Sy) ?

Ja

Erstellen der vollständigen Kalibrierfunktion


ERetrace(Sx, Sy) für jedes Pixel

Ende

Abbildung 8.12: Flussdiagramm des Messvorgangs zur Erstellung der Kalibrierfunktion des Retrace-
Fehlers.



Wenn man den Retrace-Fehler E (sx , sy ) in Abhängigkeit von Oberflächenneigungen (sx , sy )
an jedem Ortspunkt (x, y) messen kann, steht als nächste Aufgabe an, aus dem diskreten
Datensatz eine kontinuierliche und funktionale Kalibrierfunktion erstellen. Bei Inbetriebnahme
des Sensors soll die Höhenmessung von SIM mit der Neigungsmessung der Mikrodeflektome-
trie kombiniert werden. Die Neigungsdaten dienen als notwendige Eingangsparameter in der


Kalibrierfunktion zur Ermittlung der systematischen Fehler E (sx , sy ) für alle Kamerapixel.
Dabei ist es insbesondere wichtig, darauf zu achten, dass die gemessenen Neigungen während
der Inbetriebnahme des Sensors und der Kalibrierung des Retrace-Fehlers wiederholbar sein
müssen. Solange die Wiederholbarkeit der Neigungsmessung gewährleistet ist, ist eine genaue
Berechnung der Korrekturvektoren (dx , dy , dz ) aus der Kalibrierfunktion auch bei schlechter
136 8 Modellfreie Kalibrierung der Retrace-Fehler

Richtigkeit der Neigungsmessungen ohne weiteres möglich, denn die Neigungen dienen nur
als Index für die Kalibrierfunktion. Deshalb ist eine hoch genaue Kalibrierung der Mikro-
deflektometrie nicht nötig. Damit ist die Implementierung der Kombination von SIM und
Mikrodeflektometrie technologisch einfach zu realisieren.

Nach dem im Abschnitt 8.1 vorgestellten Ansatz wird die Mikrodeflektometrie mit SIM im
selben Aufbau implementiert. Um die Wiederholbarkeit der Neigungsmessung herzustellen,
folgt, wie in der Abbildung 8.12 dargestellt, während der Kalibrierung nach jeder Messung des


Retrace-Fehlers E (sx , sy ) mit SIM und Photogrammetrie zeitnah eine Neigungsmessung mit
der Mikrodeflektometrie. Die damit gewonnen Datensätze (sx , sy ) werden den dazugehörigen


Datensätzen des Retrace-Fehlers E Retrace zugeordnet. Nach dem kompletten Messvorgang
werden aus den Messergebnissen (sx , sy , dx ), (sx , sy , dy ) und (sx , sy , dz ) in jedem Pixel drei
Kalibrierfunktionen fdx (sx , sy ), fdy (sx , sy ) und fdz (sx , sy ) numerisch bestimmt.

Beim Erstellen der Kalibrierfunktion liegt die Aufgabenstellung darin aus diskreten Messdaten
eine analytische Funktion zu ermitteln. Diese Aufgabe wird standardmäßig mit einer numeri-
schen Methode - der linearen Ausgleichsrechnung - gelöst. Dieses Verfahren geht davon aus,
dass man beim numerischen Abschätzen einer Funktion von f (x1 , x2 ...xn ) den Zusammenhang
zwischen dem Funktionswert f (x1 , x2 ...xn ) und den Parametern (x1 , x2 ...xn ) durch ein lineares
Modell beschreiben kann [186]. Zur Erstellung der Kalibrierfunktion in jedem Kamerapixel sind
drei Funktionen fdx (sx , sy ), fdy (sx , sy ) und fdz (sx , sy ) zu suchen, die nur von zwei Parametern
sx und sy abhängig sind. Um aus verrauschten Messdaten eine möglichst hohe numerische
Genauigkeit beim Bestimmen der Kalibrierfunktionen erzielen zu können, müssen zum einen
die numerischen Methoden beliebige Freiformoberflächen beschreiben können. Zum anderen
sollen sie unempfindlich gegenüber Messrauschen funktionieren können. In diesem Abschnitt
werden die Polynom-Funktion und die Radial-Basis-Funktion als numerische Methoden zur
Erstellung der Kalibrierfunktionen vorgestellt.

Polynom-Funktion

Als erste Methode wird eine Funktion f (sx , sy ) mit einer linearen Polynom-Funktion nach
der Gleichung 8.12 modelliert,

N N
X X −i
f (sx , sy ) = αij six sjy . (8.12)
i=0 j=0

Diese Polynom-Funktion mit N-ter Ordnung besteht aus m = (N + 2)(N + 1)/2 linear kom-
binierten Termen αij six sjy , wobei i + j ≤ N und αij der zu suchenden Funktionskoeffizient des
jeweiligen Terms ist.

Mit der Gleichung 8.12 lassen sich die Kalibrierfunktionen fdx (sx , sy ), fdy (sx , sy ) und fdz (sx , sy )
mit den Polynomkoeffizienten αij linear modellieren. Zur Bestimmung einer eindeutigen Funk-
tion nach der Gleichung 8.12 müssen alle Termkoeffizienten αij festgelegt werden. Dazu wird
aus den n Messwerten (d1 , d2 , d3 · · · dn ) von jede Komponente des Retrace-Fehlers und den n
Neigungsdatensätzen (sx1 , sy1 ), (sx2 , sy2 ), (sx3 , sy3 ), · · · (sxn , syn ) ein n-Gleichungssystem wie in
Gleichung 8.13 gebildet, wobei n ≥ m gelten soll.
8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 137

s0x_1 s0y_1 s0x_1 s1y_1 s0x1 s2y_1 six_1 sjy_1


 
··· α00
 
d1


 s0x_2 s0y_2 s0x_2 s1y_2 s0x_2 s2y_2 ··· six_2 sjy_2 
 α01  
  d2 

s0x_3 s0y_3 s0x_3 s1y_3 s0x_3 s2y_3 six_3 sjy_3 α02 d3
 
 ···  =
  
(8.13)
.. ..

.. .. .. .. ..
    
. . . . . . .
    
 
s0x_n s0y_n s0x_n s1y_n s0x_n s2y_n ··· six_n sjy_n αij dn

Die Gleichung 8.13 lässt sich auf Gleichung 8.14 eine kompakte Form reduzieren, die aus einer
n × m-Matrix An×m , einem Kooeffizientensvektor α ~ und einem Messwertvektor d~ besteht,

An×m →
− ~
α = d. (8.14)
~ aus denen
Die Messwerte (sx , sy , dx ), (sx , sy , dy ) und (sx , sy , dz ) liefern bekannte An×m und d,
αij bestimmt werden soll. In der linearen Ausgleichsrechnung wird die Lösung α ~ ∗ so lange
gesucht, bis die euklidische Norm ||An×m α ~ 2 minimal wird,
~ ∗ − d||

||An×m α ~ 2 → min.
~ ∗ − d|| (8.15)
~ ∗ durch die
Wäre die Matrix An×m quadratisch, wäre An×m invertierbar. Damit kann man α
−1
invertierte Matrix An×m mit der Gleichung 8.16 berechnen,



α = A−1 ~ (8.16)
n×m d.

Ist n > m, erhält man ein überbestimmtes Gleichungssystem und An×m ist somit nicht mehr
~ ∗ mittels der
invertierbar. Dieses Problem lässt sich mit der Pseudomatrix lösen. Diese wird α
Normalgleichungen [186] bestimmen. Dieser Ansatz liefert nur dann mindestens eine Lösung,
wenn An×m vollen Rang hat,

Rang(An×m ) = m. (8.17)
Wird diese Voraussetzung erfüllt, wird die Lösung durch die quadratische pseudo-invertierte
Matrix (ATn×m An×m )−1 ATn×m gefunden [186],


− ~
α = (ATn×m An×m )−1 ATn×m d. (8.18)
Die Ausgleichsrechnung mit einer Polynom-Funktion ist in vielen anderen Anwendungen die
Standardmethode. Sie ist numerisch einfach zu implementieren und liefert bei gutmütigem
Funktionsverlauf zufriedenstellende numerische Genauigkeit. Allerdingst ist diese Methode
nicht lokal und daher nicht robust gegen lokale Messausreißer. Insbesondere beim Polynom-
fit mit großem N , wird ein lokaler Messausreißer leicht zum starken globalen Fehler führen .
Dadurch ist die Genauigkeit stark beeinträchtigt und das Ergebnis nicht mehr brauchbar.

Radial-Basis-Funktion (RBF)

Die zweite Methode - die Radial-Basis-Funktion, welche bereits in Anwendungen von ma-
schinellem Lernen und meshfreien Methoden etabliert ist [187], ist im Gegensatz zur Polynom-
Funktion eine lokale Methode zur Approximation und Interpolation von gestreuten Daten. Auf-
grund ihrer Lokalität liefert sie bei lokalen Messausreißern trotzdem gute globale numerische
Genauigkeit. Die zu interpolierenden Werte f (~s) mit ~s ∈ R2 lassen sich als lineare Kombination
einer Reihe von innerhalb [0, 1] univariaten Wendland-Funktionen ψ(||~s||) rekonstruieren [188],
die sich als Kernel an n unterschiedlichen Stützstellen ~si befinden,
138 8 Modellfreie Kalibrierung der Retrace-Fehler

n
X
ψ(||~s||) = ωi ψ(||~s − ~si ||), (8.19)
i=1
T
wobei ~s = (sx , sy )T and ~si = six , siy . Jeder Kernel ψ(||~s||) an der Stelle ~si hat einen eigenen
Gewichtsfaktor ωi , der als Koeffizient der Kalibrierfunktion bezeichnet wird. Alle Koeffizienten
ωi lassen sich bei gegebenen Messdaten (~s1 , d1 ), (~s2 , d2 ) · · · (~sn , dn ) berechnen, indem man mit
folgender Gleichung ein lineares Gleichungssystem aufstellt,

dj = f (~sj ). (8.20)
Um ein lineares Gleichungssystem zu generieren, wird eine konkrete Basis-Funktion ψ(||~s||)
festgelegt. In [188] wird die generalisierte Definition der Wendland-Funktion ψl,k angegeben,
wobei l für die Funktionsordnung und k für die Glätte steht. Bei der Fitaufgabe zur Generie-
rung der Kalibrierfunktion zur Kompensation des Retrace-Fehlers in SIM handelt sich um eine
Abbildung des R2 -Raums auf den R-Raum,

f : R2 → R. (8.21)
Für die Ausgleichsrechnung im 2D-Raum steht die Wendlandfunktion mit l = 3 und k =
0, 1, 2, · · · , ∞ zur Verfügung [189, 187]. Mit k lässt sich die Glätte der interpolierten Ergebnisse
beliebig einstellen. Je größer k ist, desto weniger glatt wird die Interpolation. Zur Präsentation
der Ausgleichsrechnung mit der RBF-Funktion wird die Wendlandfunktion ψ3,1 mit l = 3 und
k = 1, gewählt,
(
(1 − Rr )4 (4 Rr + 1), 0 ≤ Rr ≤ 1
ψ3,1 (r) = , (8.22)
0, sonst
wobei r = ||~s − ~si || ∈ R und R die volle Breite des Kernels im ~s-Raum darstellt, auf die der
radiale Abstand r vom Zentrum jedes Kernels normiert wird.

Sind außerdem die Lagen aller Stützstellen ~sj = s~1 , s~2 , · · · , s~n für alle Positionen des Kernels
ψ(||~s||) und die Koeffizienten ω ~ = ω1 , ω2 , · · · , ωn bekannt, kann man die zu interpolierenden
Werte f (~s) an beliebigen Stellen ~s berechnen,

f (~s) = B1×n (ψ3,1 (||~s − ~sj ||))~


ω, (8.23)
wobei B1×n (ψ3,1 (||~s − ~sj ||)) = (ψ3,1 (||~s − ~s1 ||), ψ3,1 (||~s − ~s2 ||), · · · , ψ3,1 (||~s − ~sn ||)).

Im Vergleich zur Approximation der Funktionswerte mit einer Polynom-Funktion, kann die
RBF-Funktion entweder durch Interpolation oder durch Approximation die gesuchte Funktion
f (~s) aus Messdaten (~s1 , d1 ), (~s2 , d2 ) · · · (~sn , dn ) konstruieren. Damit bietet sie die Möglich-
keit, je nach Genauigkeit der Messdaten die numerische Genauigkeit der Ausgleichsrechnung
anzupassen: Während Approximation bei stark verrauschten Daten eine bessere numerische
Genauigkeit liefert, ist Interpolation bei wenig verrauschten Messdaten die optimale Option.
Vorausgehend wurde bereits erläutert, wie man mithilfe der Wendland-Funktion ψ(||~s||) die
Funktionswerte f (~s) innerhalb des gegebenen Intervalls kontinuierlich beschreibt. Im Folgenden
wird auf die konkreten numerischen Methoden eingegangen, wie man die Koeffizienten → −ω der
Funktion f (~s) jeweils mit Interpolation und Approximation bestimmt.
8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 139

Interpolation

Seien die Messdaten (~s1 , d1 ), (~s2 , d2 ) · · · (~sn , dn ) gegeben, kann man mit n Gleichungen nach
der Gleichung 8.23 ein lineares Gleichungssystem wie folgt bilden,

    
ψ3,1 (||~s1 − ~s1 ||) ψ3,1 (||~s1 − ~s2 ||) · · · ψ3,1 (|~s1 − ~sn ||) ω1 d1

 ψ3,1 (||~s2 − ~s1 ||) ψ3,1 (||~s2 − ~s2 ||) · · · ψ3,1 (||~s2 − ~sn ||) 
 ω2  
  d2 

 ψ3,1 (||~s3 − ~s1 ||) ψ3,1 (||~s3 − ~s2 ||) · · · ψ3,1 (||~s3 − ~sn ||)  ω3 =
  d3 
(8.24)
.. .. .. .. .. ..
  
.
    
 . . .  .   . 
ψ3,1 (||~sn − ~s1 ||) ψ3,1 (||~sn − ~s2 ||) · · · ψ3,1 (||~sn − (~sn ||) ωn dn

In kompakter Form lässt sich dieses in die Gleichung 8.25 umschreiben,

Bn×n →

ω 1×n = d~1×n . (8.25)

Da die quadratische Matrix Bn×n invertierbar ist, wird →



ω durch Matrixinvertierung gelöst,


− −1 ~
ω 1×n = Bn×n d1×n . (8.26)

Wenn das Gleichungssystem 8.24 nicht schlecht konditioniert ist, gibt es genau eine Lösung
ω~0 , womit die Gleichung 8.24 genau erfüllt ist. Dadurch findet eine Interpolation statt, wobei
die konstruierte Funktion f (~s) genau jeden Messpunkt (~sj , dj ) durchläuft.

Approximation

Wenn man mit der in [190, 191] berichteten Methode die Dichte der Stützstellen des Kernels
gleichmäßig ausdünnt, findet stattdessen Approximation statt. Damit ist es möglich, beim Fit-
ten durch stärker verrauschte Daten die Empfindlichkeit gegen Rauschen zu reduzieren. Beim
Ausdünnen der Stützstellen wird statt allen Messpunkten nur ein Teil davon als Stützstelle
ausgewählt, an denen die Basis-Funktionen ψ(||~s||) gelegt werden. Dadurch werden n Spal-
ten von Bn×n in der Gleichung 8.24 auf m Spalten (n > m) reduziert und erhält man ein
überbestimmtes Gleichungssystem wie folgt,

    
ψ0 (||~s1 − ~s1 ||) ψ0 (||~s1 − ~s1+△i1 ||) ··· ψ0 (|~s1 − ~sn ||) ω1 d1

 ψ0 (||~s2 − ~s1 ||) ψ0 (||~s2 − ~s1+△i1 ||) ··· ψ0 (||~s2 − ~sn ||) 
 ω2   d1+△i
  2


 ψ0 (||~s3 − ~s1 ||) ψ0 (||~s3 − ~s1+△i1 ||) ··· ψ0 (||~s3 − ~sn ||)  ω3   d1+△i
= 3

.. .. .. .. .. ..
  
.
    
 . . .  .   . 
ψ0 (||~sn − ~s1 ||) ψ0 (||~sn − ~s1+△i1 ||) · · · ψ0 (||~sn − (~sn ||) ωm dn
(8.27)
Die Interpolationsmatrix Bn×m wird nun nicht mehr quadratisch,

Bn×m →

ω 1×m = d~1×m . (8.28)

Der Koeffizientensvektor ω
~ wird mit der Normalgleichung nach der Gleichung 8.18 gelöst.
140 8 Modellfreie Kalibrierung der Retrace-Fehler

Fokusverschiebung entlang der z-Achse dz [mm] 0.06

0.05 0.05

0.04

0
0.03

-0.05 0.02
0.5
0.01

0.5
0 0

0
-0.01
-0.5
-0.5
Neigung in y−Richtung
Neigung in x−Richtung

(a)
Fokusverschiebung entlang der z-Achse dz [mm]

0.04

0.05 0.03

0.02
0

0.01
-0.05
0.5
0

0.5
0
-0.01
0

-0.5
-0.5
Neigung in y−Richtung
Neigung in x−Richtung

(b)

Abbildung 8.13: (a) Approximierte Funktionswerte fdz (sx , sy ) durch Polynom-Funktion mit Ordnung
N=5. (b) Interpolierte Funktionswerte fdz (sx , sy ) mit RBF-Interpolation.
8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 141

Vergleich
Im Anhang IV werden die Ergebnisse der Evaluierung und des Vergleichs der numeri-
schen Genauigkeit zwischen der Polynom-Funktion und der RBF angegeben. Damit wird
gezeigt, dass die RBF-Methode bei verrauschten Daten eine bessere numerische Genauigkeit
als die Polynom-Funktion erzielt und dass der numerische Restfehler von RBF in derselben
Größenordnung wie das Messrauschen liegt. Bei einem Funktionsverlauf mit hochfrequenter
Veränderung, bei dem die Polynom-Funktion einen großen numerischen Fehler verursachen
kann, wird die RBF aufgrund deren höheren numerischen Genauigkeit und Stabilität bevor-
zugt. Für stark verrauschte Datensätze und einen gutmütig variierenden Funktionsverlauf
liefert die Polynom-Funktion vergleichbare Genauigkeit wie die RBF und bietet eine geringere
Rechenkomplexität und kompaktere Form der Kalibrierfunktion an.

Zur Demonstration der Kalibrierfunktion wird die in Abbildung 8.6 (c) gezeigte z-Komponente
dz des Retrace-Fehlers mit beiden obengenannten Methoden gefittet. Die berechneten Funkti-
onswerte fdz (sx , sy ) sind jeweils in der Abbildung 8.13 (a) für die Polynom-Funktion und in
der Abbildung 8.13 (b) für die RBF-Interpolation gemeinsam mit Messdaten dargestellt. Dabei
kann man erkennen, dass die RBF eine bessere numerische Genauigkeit und weniger Fehler am
Rand des Datenfeldes als die Polynom-Funktion erreicht.

8.2.3 Verifizierung der Kalibrierung


Nachdem die Kalibrierfunktionen fdx (sx , sy ), fdy (sx , sy ) und fdz (sx , sy ), welche den komplet-
ten neigungsabhängigen Verlauf des Retrace-Fehlers beschreiben, bekannt sind, kann man bei
Messobjekten die Retrace-Fehler (dx , dy , dz ) der Messdaten (x, y, z) kompensieren. Wie in der
Abbildung 8.7 gezeigt, sind dafür die Oberflächenneigungen sx und sy noch zusätzlich mit
Mikrodeflektometrie zu messen. Die Neigungsdaten dienen als Eingangsdaten in den Kalibrier-
funktionen zur Berechnung des Korrekturvektors E ~ Retrace = (dx , dy , dz )T .

Abbildung 8.14: Eine Kugellagerkugel mit Qualitätsstufe von Grad 5 (Sphärizität: 0,13 µm, Durch-
messertoleranz: ± 1,3 µm) und einem Durchmesser von 10 mm als Testobjekt zur
Verifizierung der Kalibriergenauigkeit.

Als ein Testobjekt zur Evaluierung der Kalibrierung wird eine hochpräzise Kugellagerkugel
(Qualitätsstufe: Grade 5 ) mit einem Durchmesser von 10 mm verwendet. Damit wird ge-
währleistet, dass die Höhenabweichung der eingesetzten Kugellagerkugel einer perfekten Kugel
nicht größer als 130 nm ist. Diese Genauigkeit setzt eine hohe Zuverlässigkeit der Verifizierung
142 8 Modellfreie Kalibrierung der Retrace-Fehler

voraus. Diese Kugellagerkugel wird mit dem in Abbildung 8.9 gezeigten Aufbau sowohl via
SIM als auch via Mikrodeflektometrie gemessen. Die zwei Messungen haben nach dem im
Abschnitt 8.1.2 dargestellten Mechanismus in einem Aufbau stattgefunden. Ein kugelförmiges
Objekt stellt eine optimale Form des Testobjekts dar. Zum einen kann die Korrektur des
Retrace-Fehlers über den ganzen Bereich der Winkeldynamik aufgrund der rotationsymme-
trisch ortsvariierenden Oberflächennormale mit einer Messung verifiziert werden. Zum anderen,
lässt sich der Restfehler der Kalibrierung durch Abziehen einer Bestfitkugel mit bekannten
Radius einfach und eindeutig bestimmen.

Die mit der Mikrodeflektometrie gemessenen Neigungen sx (x, y) und sy (x, y) werden in der
Abbildung 8.15 (a) und (b) dargestellt. Die Messung der Neigungen erfolgt modellfrei: Wäh-
rend der Messung des Retrace-Fehlers werden die durch Photogrammetrie bestimmten sx und
sy an jeder Position der Kalibrierplatte den beobachteten Phasen Px und Py der deflektome-
trischen Messung zugeordnet. Aus allen Daten werden durch Ausgleichsrechnung zwei Kali-
brierfunktionen sx (ϕx , ϕy ) und sy (ϕx , ϕy ) in jedem Pixel erstellt. Damit wird gesichert, dass
die wiederholbaren Neigungsdaten1 zur Parametrisierung der Kalibrierfunktionen verwendet
werden.

0.30

A B
0
sx

A
B
-0.30
x [mm]

(a)
0.30
B
sy

A A B
-0.30
y [mm]

(b)

Abbildung 8.15: (a) Modellfrei mit Mikrodeflektometrie gemessene Neigung sx (x, y) in x-Richtung. (b)
Modellfrei mit Mikrodeflektometrie gemessene Neigung sy (x, y) in y-Richtung.

Auf der Kugellagerkugel wurde bei der SIM-Messung (kombiniert ausgewertet aus vertikalen
und horizontalen Streifenrichtungen) lediglich eine isotrope Winkeldynamik von 16,6 ° erreicht.
Dabei haben die kleinen Messewerte der x- und y-Komponenten des Retrace-Fehlers (siehe
Abbildungen 8.11 (a) und (b)) im Vergleich zur z-Komponente einen deutlich geringeren Ein-
fluss auf die Formfehler. Deshalb wird mit den in der Abbildung 8.15 gezeigten Neigungsdaten
1
Die Wiederholbarkeit der Neigungsdaten bei Messobjekt und Kalibriervorgang ist die notwendige Bedingung
für die genaue Parametrisierung der Kalibrierfunktionen fdx (sx , sy ), fdy (sx , sy ) und fdz (sx , sy ).
8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 143

[µm]
40

-20

dz [mm]
A B

A B

-20 x [mm]

(a)
[µm]
40

-20
dz [mm]
A B

A B

-20 x [mm]

(b)

Abbildung 8.16: (a) Abweichung einer nichtkorrigierten Höhenkarte der Kugellagerkugel von einer Best-
fitkugel mit Durchmesser von 10 mm. (b) Abweichung einer korrigierten Höhenkarte
der Kugellagerkugel von einer Bestfitkugel mit Durchmesser von 10 mm, wobei die
Korrekturwerte dz (x, y) mithilfe der in der Abbildung 8.15 dargestellten modellfrei be-
stimmten Neigungsdaten aus der Kalibrierfunktion fdz (sx , sy ) ermittelt wurden. Die
Kalibrierfunktion fdz (sx , sy ) wird mit RBF-Interpolation erstellt, um die höchstmög-
liche numerische Genauigkeit zu gewährleisten.

nur die z-Komponente dz des Korrekturvektors ermittelt und von der originalen Höhenkarte
aus SIM abgezogen. Von den nichtkorrigierten und korrigierten Höhenkarten wird jeweils eine
Bestfitkugel mit einem Durchmesser von 10 mm abgezogen. Die resultierenden Höhenkarten in
den Abbildungen 8.16 (a) und (b) stellen die Abweichung der kalibrierten Höhenkarte von der
Sollform der Kugellagerkugel entlang der z-Achse dar. Die erzielten Ergebnisse zeigen, dass der
Peak-to-Valley(PV)-Abstand der z-Komponente des restlichen Retrace-Fehlers bei einer Win-
keldynamik von ±17° auf 10 µm reduziert wird, während der PV-Abstand vor der Korrektur
noch 40 µm beträgt.

Restliche Fehlerquellen
Das oben beschriebene Testexperiment kann einen aussagekräftigen Beweis liefern, dass der
vorgestellte modellfreie Kalibrieransatz effektiv den Retrace-Fehler kompensieren kann. Die
restlichen Fehler in der Abbildung 8.16 (b) sind auf die technische Unvollkommenheiten zu-
rückzuführen. Zur weiteren Optimierung sollen die größten Fehlerquellen identifiziert werden.
Die durchgeführten Untersuchungen weisen auf zwei maßgebliche Fehlerquellen hin.

Die erste maßgebliche Fehlerquelle sind die nichtwiederholbaren Neigungsdaten bei Kalibrie-
rung und Messung. Die Kalibrierfunktion fdz (sx .sy ) beschreibt die Zuordnungsvorschrift von
den durch Photogrammetrie gemessenen Oberflächenneigungen (sx .sy ) auf ihren zugehörigen
Retrace-Fehler dz entlang der z-Richtung. Falls bei den Messobjekten andere Neigungsdaten
144 8 Modellfreie Kalibrierung der Retrace-Fehler

als bei der Kalibrierung am gleichen Oberflächennormal ermittelt werden, sind die damit
berechneten Korrekturwerten auch fehlerbehaftet. Um diese Fehlerquelle zu bestätigen, wurde
ein numerischer Test durchgeführt.

Die Ermittlung der genauen Neigungsdaten kann aufgrund der bekannten Geometrie der
Kugellagerkugel numerisch erfolgen. Wenn das Zentrum der Kugel durch einen Bestkugelfit
bestimmt wird, können die Neigungsdaten sx und sy mit dem bekannten Radius numerisch
berechnet werden. Mit den in der Abbildung 8.17 (a) und (b) dargestellten numerisch be-
rechneten Neigungsdaten können die Korrekturwerte dz (x, y) erneut berechnet und von der
originalen Höhenkarte abgezogen werden. Die Abweichung der neu korrigierten Höhenkarte
von der Bestfitkugel wird in der Abbildung 8.18 (b) mit den alten Kalibrierergebnissen in
der Abbildung 8.18 (a) verglichen. Damit wird gezeigt, dass die genauen Neigungsdaten den
Restfehler von 10 µm weiter auf kleiner als 5 µm reduzieren können, wobei es durch das
Rauschen limitiert ist. Dadurch wird bestätigt, dass die fehlerbehafteten Neigungsdaten in der
ersten Implementierung einen deutlichen Einfluss auf die erzielte Genauigkeit haben.

Da die Messung der Neigungsdaten bei der Deflektometrie über die Phasen des Sinusmusters
erfolgt, ist diese Fehlerquelle auf fehlerbehaftete Phasen während der Kalibrierung zurückzu-
führen. Die Phasenfehler sind insbesondere bei großen Neigungen als erheblich zu identifizieren,
weil die Streuung am Rand der Kalibriermarke und Hintergrundlicht von transparenten Berei-
chen zur Verschiebung der Lage des Beobachtungsbereichs auf dem Muster führen kann.

0.30

A B
sx

A B
-0.30
x [mm]

(a)
0.30
B
sy

A
A B

-0.30
y [mm]

(b)

Abbildung 8.17: (a) Numerisch bestimmte Soll-Neigung sx (x, y) in x-Richtung. (b) Numerisch bestimm-
te Soll-Neigung sy (x, y) in y-Richtung.

Die zweite Fehlerquelle hängt auch mit der Streuung am Rand der Kalibriermarke zusammen.
Wie in der Abbildung 8.19 gezeigt, hat die lithographisch herstellte Marke einen scharfen
Reflektivitätsübergang, an dem das Licht gestreut wird. Als Konsequenz entstehen auf der
8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 145

[µm]
40

-20

dz [mm]
A B

A B

-20 x [mm]

(a)
[µm]
40

-20
dz [mm]
A B

A B

-20 x [mm]

(b)

Abbildung 8.18: Vergleich der restlichen Fehler nach der Korrektur mit gemessenen (a) und simulier-
ten (b) Neigungsdaten. Die beiden Daten zeigen die Abweichungen der korrigierten
Höhenkarten von einer Bestfitkugel mit Durchmesser von 10 mm.

Höhenkarte abrupte Erhöhungen und Erniedrigungen der Höhenwerte am Rand der Ka-
libriermarke, die im Abschnitt 4.2.2 als „Bat-Wing“-Fehler bezeichnet werden. Wird die
Kalibriermarke um die y-Achse gedreht, wird der „Bat-Wing“-Fehler mit dem zunehmenden
Kippwinkel größer. Wie schnell der Fehler zunimmt, hängt allerdings stark davon ab, mit
welcher Streifenrichtung man misst. Mit der horizontalen Streifenrichtung, deren Richtung
der Phasenvariation senkrecht zur Kippachse steht, wächst der Fehler wesentlich schneller
als mit vertikaler Streifenrichtung. Der höchste Fehler kann in der Abbildung 8.19 bei einem
Kippwinkel von 17° und der horizontalen Streifenrichtung 50 µm betragen. Diese Fehlerquelle
ist der Grund, warum die Kalibrierung mit der in der Abbildung 8.8 gezeigten Kalibrierplatte
nicht bei einer einzelnen Streifenrichtung funktionieren kann. Mit der Mittelung der Kontrast-
kurven von beiden senkrecht stehenden Streifenrichtungen tragen effektiv die Signale von der
günstigen Streifenrichtung zur Höhenkarte bei. Dadurch ist eine genaue Kalibrierung bei der
eingesetzten Kalibrierplatte immer auf die Projektion beider Streifenrichtungen angewiesen.
Obwohl der „Bat-Wing“-Fehler damit signifikant reduziert wird, kann trotzdem der dadurch
bedingte Restfehler insbesondere bei höheren Neigungen die maximal erreichbare Genauigkeit
auf einige Mikrometer (wie in Abbildung 8.18 (b) gezeigt) einschränken.

Da die beiden diskutierten Fehlerquellen mit der eingesetzten Kalibriermarkenplatte direkt zu-
sammenhängen, soll zur Optimierung der Kalibriergenauigkeit eine andere Kalibrierplatte neu
entworfen werden. Ein Beispiel einer optimalen Kalibriermarkenplatte ist in der Abbildung
8.20 dargestellt. An den Positionen, an denen die Transmission 100% beträgt, befinden sich die
Kreuzmarken. Mit der Beleuchtung in Transmission erfolgen die photogrammetrischen Mes-
sungen. Für die Messungen mit SIM und Deflektometrie sind die sonstigen Bereiche mit 0%
Transmission als aktive Messbereiche zu benutzen. Aufgrund der Kontinuität der Reflektivität
146 8 Modellfreie Kalibrierung der Retrace-Fehler

200 200

150 150

100 100
Höhe [µm]

Höhe [µm]
50 50

0 0
0 10 20 30 40 50 60 70 0 10 20 30 40 50 60 70
Pixel in x-Richtung Pixel in x-Richtung

200 200

150 150

100 100
Höhe [µm]

Höhe [µm]

50 50

0 0
0 20 40 60 0 10 20 30 40 50 60 70
Pixel in x-Richtung Pixel in x-Richtung

200 200

150 150

100 100
Höhe [µm]

Höhe [µm]

50 50

0 0
0 10 20 30 40 50 60 70 0 10 20 30 40 50 60 70
Pixel in x-Richtung Pixel in x-Richtung

200 200

150 150

100
Höhe [µm]

100
Höhe [µm]

50 50

0 0
0 10 20 30 40 50 60 70 0 10 20 30 40 50 60 70
Pixel in x-Richtung Objekt Pixel in x-Richtung
Messdaten

Abbildung 8.19: Durch scharfen Reflektivitätsübergang am Rand der Kalibriermarke bedingter „Bat-
Wing“-Fehler, der abhängig von der Streifenrichtung unterschiedlich stark mit dem
Kippwinkel wächst.
8.2 Modellfreie Kalibrierung zur Kompensation der Retrace-Fehler 147

und der Undurchsichtigkeit findet keine Streuung und keine Überlagerung mit Hintergrundlicht
statt. Dadurch können die systematischen Fehler in Höhen- und Phasenmessungen unterdrückt
werden.

Abbildung 8.20: Optimale Kalibriermarkenplatte zur weiteren Optimierung der Kalibriergenauigkeit,


Weißer Bereich: 0% Transmission. Schwarzer Bereich: 100% Transmission.
148 8 Modellfreie Kalibrierung der Retrace-Fehler
149

9 Anwendungen und Messbeispiele

9.1 In-Line-Inspektion von Lötbumps

25mm Gesichtsfeld
5mm der Kamera
3.5mm

25mm

Abbildung 9.1: Messobjekt: Ein BGA-Flip-Chip mit Größe von 25 x 25 mm2 und Bumpdurchmesser
von 500 µm.

Die in dieser Dissertation vorgestellte Anwendung - In-Line-Inspektion von Lötbumps - stellt


extrem hohe Anforderungen an die 3D-Messtechnik. Die geforderte Genauigkeit, laterale Auf-
lösung und Messgeschwindigkeit können mit dem heutigen Stand der Technik für Messungen
auf rauen und spiegelnden Objekten noch nicht gleichzeitig erreicht werden. Der Hauptgrund
ist, dass die dafür geeigneten 3D-Messmethoden ein axiales Scannen erfordern. Die dadurch
bedingte niedrige Informationseffizienz führt dazu, dass man wesentlich mehr Intensitätswerte
als bei einer 2D-Aufnahme akquirieren muss, um einen 3D-Punkt zu berechnen, und die Mess-
geschwindigkeit wird dadurch niedriger. Es ist daher unvermeidbar, Systeme zu parallelisieren.
Dafür wird ein Konzept gesucht, um einen makroskopischen 3D-Sensor mit hoher Genauigkeit,
hoher lateralen Auflösung und hoher Messgeschwindigkeit gleichzeitig auch kostengünstig
herzustellen.
150 9 Anwendungen und Messbeispiele

Motiviert durch diese Anwendung, wurde SIM im Rahmen dieser Dissertation intensiv un-
tersucht und weiter entwickelt. Ein Vergleich (siehe Kapitel 4) von SIM mit zwei anderen
Kandidaten - WLI und KM - zeigt, dass SIM eine informationseffizientere und technologisch
einfacher zu implementierende 3D-Methode ist, während sie gleichzeitig auch robuste und ge-
naue Ergebnisse liefern kann. Diese Eigenschaft macht SIM zu einem interessanten Kandidaten
für die obengenannte Aufgabenstellung.

Mit den aus Kapitel 6 bekannten Erkenntnissen über die Charakteristiken und die Gren-
zen von SIM lassen sich die notwendigen Parameter zum Erfüllen der Anforderungen der
Lötbumpsinspektion ermitteln. Nimmt man an, dass das SNR der Kontrastkurve bei einer
Messung auf Lötbumps 0.05 ist, sollte die FWHM der Kontrastkurve nach der Gleichung 6.5
bei einer Messunsicherheit δz = 1µm mindestens 20 µm betragen. Bei der geforderten lateralen
Auflösung δx = 5µm soll nach der Erkenntnis aus Abschnitt 6.3 ein Sinusmuster mit einer
Gitterfrequenz von 100 lp/mm projiziert werden. Bei bekannter FWHM und Gitterfrequenz
des Sinusmusters kann man mithilfe der Gleichungen 5.17 und 5.18 die nötige NA = 0,2
berechnen. Wenn man den axialen Scan mit der im Abschnitt 7.2.1 vorgestellten Methode
mit einer maximalen Schrittweite △s = F W HM/4 durchführt, müssen für einen Messbereich
△z = 500 µm insgesamt mindestens 100 Tiefenpositionen angefahren werden.

Um ein OBAP = 108 3D-Punkte/s bei einer Informationseffizienz ηI = 1/100 zu erreichen,


werden bei der aktuell größtmöglichen verfügbaren Kamerabandbreite von 5 × 108 Pixel/s
insgesamt 20 parallele Systeme benötigt. Damit die parallelen Systeme beim Erfüllen von
allen Anforderungen auch kostengünstig implementiert werden können, soll die Messung mit
dem im Abschnitt 7.3 vorgestellten zeilenscannenden Ansatz durchgeführt werden. Dieser
Ansatz dient als ein optimaler makroskopischer Mechanismus für die In-Line-Inspektion der
Lötbumps, weil damit die Messgeschwindigkeit nur informationstheoretisch begrenzt ist und
jedes einzelnes System mit kostengünstigen Komponenten konstruiert werden kann, wobei eine
hohe laterale Auflösung und Messgenauigkeit beibehalten wird. Dies erleichtert die technische
Implementierung der Parallelisierung von 20 Systemen immens.

Zur Demonstration des zeilenscannenden Messmechanismus mit mehreren parallelen SIM-


Systemen, wird ein BGA-Flip-Chip mit einer Größe von 25 x 25 mm2 mit dem in der Ab-
bildung 8.9 illustrierten Aufbau gemessen. Das verwendete hochgeöffnete Photoobjektiv hat
ein Messfeld von 4,8 x 3,6 mm2 , eine objektseitige NA von 0,5 und eine laterale Auflösung von
20 µm. Zur Erweiterung des Messfelds wird jeweils entlang der x-Achse das Objekt lateral um
31 mm mit einer Abtastauflösung von 50 µm gescannt und jeder laterale Scan an sieben äquidi-
stanten lateralen Positionen entlang der y-Achse mit einem Abstand von 3,6 mm durchgeführt.
Die sieben dadurch erzielten Höhenkarten und die zusammengefügte vollflächige Höhenkarte
des Flip-Chips werden jeweils in den Abbildungen 9.2 (a) und (b) dargestellt. Die hier mit
einem System zeitlich nacheinander durchgeführten lateralen Scans erfolgen in der Praxis bei
mehreren nebeneinander stehenden Messsysteme nur durch einen einzigen lateralen Scan.
9.1 In-Line-Inspektion von Lötbumps 151

µm
0 2500 5000 7500 10000 12500 15000 17500 20000 22500 25000 µm
0 800
1000 600

1. Scan: 2000 400

3000 200

0
µm

0 2500 5000 7500 10000 12500 15000 17500 20000 22500 25000 µm µm
0
1000 800
2. Scan: 2000
400
3000

µm

µm
0 2500 5000 7500 10000 12500 15000 17500 20000 22500 25000 µm
0 1000
1000 800

3. Scan: 2000 600


400
3000
200
µm

0 2500 5000 7500 10000 12500 15000 17500 20000 22500 25000 µm µm
0 1000
1000 800

4. Scan: 2000 600


400
3000
200
µm

0 2500 5000 7500 10000 12500 15000 17500 20000 22500 25000 µm µm
0 1000
1000 800

5. Scan: 2000 600


400
3000
200
µm

0 2500 5000 7500 10000 12500 15000 17500 20000 22500 25000 µm µm
0
1000 800

6. Scan: 2000
400
3000

µm

µm
0 2500 5000 7500 10000 12500 15000 17500 20000 22500 25000 µm
0 1000

7. Scan: 1000
2000
800
600
400
3000
200
µm

(a)

0 2500 5000 7500 10000 12500 15000 17500 20000 22500 25000 μm μm
0 800
1000 760
2000 720
3000 680

4000 640

5000 600

6000 560

7000 520

8000 480

9000 440

10000 400

11000 360

12000 320

13000 280

14000 240

15000 200

16000 160

17000 120

18000 80

19000 40

20000 0

21000 -40

22000 -80

23000 -120
-160
24000
-200
μm

(b)

Abbildung 9.2: Höhenkarte des BGA-Flip-Chips aus sieben zeilenscannende SIMA-Messungen. (a) Sie-
ben Höhenkarten mit einer Größe von 26 x 3,6 mm2 . (b) Die aus den sieben Höhenkarten
zusammengesetzte Höhenkarte mit einer Größe von 26 x 25 mm2 .
152 9 Anwendungen und Messbeispiele

9.2 Weitere Messbeispiele

Neben der Inspektion von Flip-Chip Lötbumps kann SIM für weitere Anwendungen eingesetzt
werden. In diesem Abschnitt werden vier Messbeispiele dargestellt, um das Einsatzpotential
von SIM für andere Anwendungen zu demonstrieren.

Das erste Messbeispiel ist eine lithographisch herstellte integrierte Schaltung auf einem Wa-
fer, die in der Abbildung 9.3 dargestellt wird. Diese Messung wird mit einem 50x/0,85-
Mikroobjektiv bei einem Messfeld von 128 x 96 µm2 und einer Gitterfrequenz von 1000 lp/mm
durchgeführt. Die damit erreichte laterale Auflösung von 0,5 µm und Höhenmessunsicherheit
von 10 nm sorgen dafür, dass die 1 µm-breiten Strukturen aufgelöst werden können und de-
ren Geometrie mit hoher Genauigkeit im Nanometer-Bereich erfasst werden kann. Damit wird
gezeigt, dass die Inspektion von Wafern mittels SIM möglich ist.

2 µm

40 µm

Abbildung 9.3: Integrierte Schaltung auf einem Wafer, der mit einem 50x/0.85-Mikroobjektiv (Mess-
feld: 128 x 96 µm2 , einer Gitterfrequenz des projizierten Sinusmusters: 1000 lp/mm)
gemessen wurde. Auf die Textur der dargestellten Höhenkarte werden die maximalen
Kontrastwerte der Kontrastkurve gemappt.

Das zweite Messbeispiel ist das Facettenauge einer Libelle, das mit einem 50x/0,85-
Mikroobjektiv bei einem Messfeld von 128 x 96 µm2 und einer Gitterfrequenz von 1000 lp/mm
gemessen wurde. Jede einzelne Chitinlinse des Facettenauges weist eine spiegelnde Oberflächen
auf. Die in der Abbildung 9.4 dargestellte Höhenkarte zeigt, dass jede Chitinlinse bis zu einer
Neigung 20° mit einer hohen Präzision im Nanometer-Bereich messbar ist. Damit wird gezeigt,
dass SIM hohes Potenzial hat, mikroskopische optische Komponenten wie Mikrolinsenarrays
vermessen zu können.
9.2 Weitere Messbeispiele 153

5 µm
20°

50 µm

Abbildung 9.4: Facettenauge einer Libelle, mit einem 50x/0,85-Mikroobjektiv (Messfeld: 128 x 96 µm2 ,
Gitterfrequenz des projizierten Sinusmuster: 1000 lp/mm) gemessen. Die Grundform
des Facettenauges wurde zur besseren Visualisierung der Geometrie jeder Chitinlinse
abgezogen. Auf die Textur der dargestellten Höhenkarte werden die maximalen Kon-
trastwerte der Kontrastkurve gemappt.

200µm

500µm

Abbildung 9.5: Gewinde einer Schraube, die mit einem hochgeöffnete Photoobjektiv (Messfeld: 4,8 x 3,6
mm2 , Gitterfrequenz des projizierten Sinusmuster: 20 lp/mm, NA: 0,5) gemessen wurde.
Auf die Textur der dargestellten Höhenkarte werden die maximalen Kontrastwerte der
Kontrastkurve gemappt.
154 9 Anwendungen und Messbeispiele

Das dritte Messbeispiel und das vierte Messbeispiel in den Abbildungen 9.5 und 9.6 wurden
mit dem in Abbildung 8.9 gezeigten makroskopischen Aufbau mit einem Messfeld von 4,8
x 3,6 mm2 gemessen. Das eingesetzte Photoobjektiv hat eine objektseitige NA von 0,5 und
eine laterale Auflösung von 20 µm. Die beiden Messungen wurden mit einer Gitterfrequenz
von 20 lp/mm durchgeführt. Die beiden Höhenkarten zeigen eine Präzision von 1 µm und
hohe Winkeldynamik auf rauen Oberflächen. Das Einsatzpotential von SIM auf metallischen
Oberflächen und technischen Oberflächen kann damit bestätigt werden.

50 µm

1000 µm

Abbildung 9.6: Oberflächen einer 50-Cent-Münze, die mit einem hochgeöffnete Photoobjektiv (Mess-
feld: 4,8 x 3,6 mm2 , Gitterfrequenz des projizierten Sinusmusters: 20 lp/mm, NA: 0,5)
gemessen wurde. Auf die Textur der dargestellten Höhenkarte werden die maximalen
Kontrastwerte der Kontrastkurve gemappt.
155

10 Zusammenfassung

Optische 3D-Messtechnik ist eine Schlüsseltechnologie zur Steuerung des Herstellungsprozesses


in der Halbleiterindustrie. Insbesondere zur In-Line-Inspektion von Lötbumps beim Packaging
von integrierten Schaltungen wird ein hochgenauer und sehr schneller optischer 3D-Sensor
gesucht. Die dabei erforderlichen Spezifikationen sind sehr anspruchsvoll und können mit
dem heutigen Stand der Technik der optischen 3D-Messtechnik noch nicht erfüllt werden:
Optisch raue und spiegelnde Objekte sollen gleichzeitig mit 1 µm-Messgenauigkeit bei lateraler
Auflösung von 10 µm und Messtiefe von 500 µm messbar sein. Der optische Sensor soll
außerdem über eine Messgeschwindigkeit (OBAP) von 108 3D-Punkten/Sekunde verfügen.
Neben der angestrebten OBAP können die anderen Spezifikationen bei drei Messverfahren
- Weißlichtinterferometrie (WLI), Konfokale Mikroskopie (KM) und Mikroskopie mit struk-
turierter Beleuchtung (SIM) - bereits erfüllt werden. Der entscheidende Grund für die bis
jetzt nicht erreichte OBAP ist, dass alle drei Verfahren auf axialem Scannen beruhen und
durch hohe Anzahl der notwendigen Aufnahmen informationstechnisch ineffizient sind. Im
Vergleich zu WLI und KM zeigt SIM großes Optimierungspotenzial bei der OBAP. Gegenüber
WLI hat SIM kein hochfrequent moduliertes Tiefensignal und kann mit wesentlich weniger
Aufnahmen ein effizientes axiales Scannen durchgeführt werden. Außerdem ist SIM intrinsisch
ein flächig messendes Verfahren und benötigt gegenüber KM keinen mechanischen lateralen
Scan. Bezüglich der Messgenauigkeit zeigt SIM eine vergleichbare Charakteristik wie WLI
und KM. In Voruntersuchungen [133, 192] wurde gezeigt, dass SIM mit einem hochgeöffneten
Mikroobjektiv blanke Objekte mit einer Messunsicherheit von bis zu 10 nm und ebenfalls
die Rauigkeit bestimmen kann. Diese Eigenschaften machen SIM zu einem interessanten
Kandidaten für die hochgenaue und sehr schnelle In-Line-Inspektion. Zur Erforschung des
Potenzials zur Implementierung eines hochgenauen und hochschnellen optischen 3D-Sensors
mit SIM für die In-Line-Inspektion der Lötbumps, wurde SIM im Rahmen dieser Dissertation
physikalisch und technisch analysiert und weiterentwickelt.

Im Kapitel 4 wurde SIM mit WLI und KM jeweils aus der physikalischen und messtech-
nischen Perspektive verglichen. Beim Vergleich aus der physikalischen Perspektive wurden
die Unterschiede bei der Signalentstehung, den Einflussfaktoren für das Messsignal und die
Rauschquellen diskutiert. Die Faktoren sind grundlegende Bausteine, um zu verstehen, wie
sich die Sensorparameter auf die messtechnischen Eigenschaften auswirken. Von dem Vergleich
aus der messtechnischen Perspektive geht als wichtige Erkenntnis hervor, dass SIM gegenüber
WLI und KM eine höhere OBAP erzielen kann. Die Präzision von SIM variiert wie bei KM
proportional mit der NA des Objektivs. Gegenüber KM liefert SIM bei makroskopischer
Vermessung von rauen Objekten eine bessere Präzision, weil SIM durch das räumlich und
zeitlich partiell kohärente Lichtquelle weniger anfällig für Specklerauschen ist. Als Nachteil
verfügt SIM über eine schlechtere laterale Auflösung. SIM ist skalierbar, allerdings mit der
Limitierung, dass man bei vergrößertem Messfeld eine Verschlechterung der Präzision in der
Praxis in Kauf nehmen muss, weil es schwierig ist, ein Objektiv mit größerem Gesichtsfeld
ohne Kompromiss von lateraler Auflösung und NA herstellen zu können. Im Gegensatz dazu
wird die Präzision bei WLI durch Skalierung des Messfeldes nicht beeinflusst.

Als ein wichtiger Bestandteil dieser Dissertation wurden die Eigenschaften von SIM im Kapitel
156 10 Zusammenfassung

5 untersucht. Zuerst wurde SIM theoretisch modelliert, um die Signalentstehung beschreiben zu


können. Dabei wird zwischen aberrationsfreien und aberrationsbehafteten optischen Systemen
unterschieden. Für den ersten Fall wurde ein analytisches Modell basierend auf den Arbeiten
von Stokseth und Hopkins [134, 135] über die defokussierte MTF entwickelt. Dadurch lässt
sich die Geometrie der Kontrastkurve in geschlossener Form beschreiben. Beim aberrationsbe-
hafteten optischen System wurde ein numerisches Modell konstruiert, welches die Modellierung
der Aberrationen beinhaltet. Damit lässt sich die Kontrastkurve eines aberrationsbehafteten
System numerisch simulieren. Diese Methode kann zur Analyse der systematischen Fehler
verwendet werden. Die beiden Modelle wurden als theoretische Grundlage und praktisches
Werkzeug zur Untersuchung von SIM eingesetzt.

Aufgrund der Modelle für Signalentstehung wurden sechs Eigenschaften (Präzision, Richtig-
keit, laterale Auflösung, Winkeldynamik, Messgeschwindigkeit und Skalierbarkeit) von SIM im
Kapitel 6 bzw in Abschnitt 7.1 untersucht. Der Fokus wird auf zwei Aspekte gelegt. Zum einen
wurde untersucht, wie sich die jeweilige Eigenschaft in Abhängigkeit von den Sensorparametern
ändert. Zum anderen wurde aufgezeigt, wo jeweils die theoretischen und praktischen Grenzen
liegen. Die Ergebnisse werden wie folgt zusammengefasst.

– Präzision: Bei der Charakterisierung der Präzision wurde zwischen spiegelnden und rauen
Objekten unterschieden, wobei jeweils Schrotrauschen und Specklerauschen als dominie-
rende Rauschquelle die maximal erreichbare Präzision limitieren. Für beide Fälle wurde
der Zusammenhang zwischen der Präzision und den Sensorparametern basierend auf der
Arbeit von Laboureux [138] herleitet. Damit kann man einen SIM-Sensor für die beste
Präzision effektiv konfigurieren. Bessere Präzision auf spiegelnden Oberflächen erreicht
man zusätzlich zur Verbesserung des SNR, indem man weiter die Anzahl der Phasen-
schiebungen, die axiale Abtastdichte, die laterale Auflösung sowie die NA des Objektivs
erhöht. Für raue Objekte, wo das Specklerauschen dominiert, kann durch Verminderung
des Specklekontrastes und Erhöhung der NA die Präzision verbessert werden.

– Richtigkeit: Der Retrace-Fehler wurde als die dominierende, schwierig zu kompensierende


Fehlerquelle bei SIM auf spiegelnden Objekten identifiziert. Er ist nur auf spiegelnden
Oberflächen vorhanden und ist entweder auf die Nichtübereinstimmung der Fokusebenen
von Beleuchtung und Beobachtung oder auf Aberrationen zurückzuführen. Da er abhängig
von der Objektgeometrie ist, lässt er sich nur sehr schwer kalibrieren. Für eine hohe
Richtigkeit sollte ein beugungsbegrenztes Objektiv bzw. eine symmetrische Anordnung
der Beleuchtungs- und Beobachtungsoptik verwendet werden. Als eine Alternative kann
der Retrace-Fehler zu einem gewissen Grad mit einer modellfreien Kalibrierung (wie in
Kapitel 8 beschrieben) kompensiert werden.

– Laterale Auflösung: Die Höhenwerte von SIM werden aus defokussierten Kontrastkur-
ven berechnet. Deshalb beeinflusst das Unschärfescheibchen im defokussierten Fall auch
maßgeblich die laterale Auflösung des 3D-Sensors. Mit einem Auflösungsstandard wurde
experimentell der Zusammenhang zwischen der effektiven lateralen Auflösung der 3D-
Messung und der Gitterfrequenz festgestellt: Die Bandbreite der 3D-Messung im nied-
rigeren Frequenzbereich entspricht etwa der doppelten Gitterfrequenz des projizierten
Sinusmusters.

– Winkeldynamik : Theoretisch wird die Winkeldynamik von SIM für blanke Objekte nur
von der NA des Objektivs limitiert. Allerdings, in der Praxis hängt die Winkeldynamik
stark von der relativen Orientierung der Oberflächennormalen und der Streifenrichtung
157

ab. Bei der Projektion eines unidirektionalen Sinusmusters entsteht eine anisotrope Win-
keldynamik. Um eine isotrope Winkeldynamik zu erhalten, sollte mindestens mit zwei
senkrecht zueinander stehenden Streifenrichtungen gemessen werden.

– Messgeschwindigkeit: Die theoretisch erreichbare größte OBAP von SIM wird grundsätz-
lich durch die gringe Informationseffizienz des axialen Scans limitiert. Je weniger Abtast-
punkte man anfahren muss, desto schneller wird das axiale Scannen. Wird die Kontrast-
kurve durch klassische Phasenschiebung gemessen, wird die maximale Informationseffi-
zienz erreicht, wenn innerhalb der Halbwertsbreite der Kontrastkurve neun Aufnahmen
akquiriert werden. Allerdings limitiert in der Praxis das durch die Phasenschiebung be-
dingte mechanische „Stop-And-Go“ die Messgeschwindigkeit auf dominierte Weise.

– Skalierbarkeit: SIM ist skalierbar, leidet aber unter einer technischen Grenze. Wenn man
das Messfeld von SIM durch Hochskalierung des Objektives vergrößert, nimmt man in der
Praxis immer eine Verschlechterung der NA oder/und der laterale Auflösung in Kauf. Da
die Präzision mit Verschlechterung der NA und der lateralen Auflösung abnimmt, ist SIM
praktisch nur durch einen Kompromiss bei der Präzision hochskalierbar. Eine optimale
Hochskalierung kann aber durch einen zeilenscannenden Ansatz implementiert werden,
weil dadurch die Erweiterung des Messfeldes ohne Einfluss auf die Präzision erfolgen
kann, wie im Abschnitt 7.3 gezeigt wird.

Die Kenntnisse über die Möglichkeit und Grenzen von SIM geben Antworten auf zwei Arten
von Fragen: Erstens, sind die angeforderten Spezifikationen überhaupt mit SIM erreichbar?
Zweitens, wenn ja, mit welchen Sensorparametern können sie erreicht werden? Wenn man einen
Sensor in der Praxis konzipiert und konstruiert, sind die Antworten auf die oben genannten
Fragen noch nicht ausreichend, um die Zielspezifikationen zu realisieren. Die Randbedingungen
der verfügbaren Technologien limitieren oft stärker als die Physik und dienen als der praktische
Flaschenhals des kompletten Systems. Neben der theoretischen Analyse wurden im Rahmen
dieser Dissertation Methoden entwickelt, um die technologischen Grenzen zu umgehen und die
physikalischen Grenzen mit verfügbaren Komponenten erreichen zu können. In Kapitel 7 und
8 wurde dies beschrieben.

Aus den Untersuchungen zu den physikalischen und technologischen Grenzen können neue
Scanansätze „destilliert“ werden. Dadurch ist SIM erheblich schneller beim Tiefenscan und
kann mit einfach skalierbarer Messgeschwindigkeit beim großen Messfeld messen.

– Da die Hauptmesswerte - Kontrast und Phase - von SIM nicht direkt messbar sind und
immer aus mehreren (mindestens drei) Aufnahmen durch Phasenschiebung berechnet
werden, kann das axiale Scannen bei SIM und Mikrodeflektometrie nicht kontinuierlich
erfolgen. Das „Stop-And-Go“-Problem limitiert hauptsächlich die maximal erreichbare
OBAP. Als Lösung dieses Problems wurde ein „Fliegende Phasenschiebung“-Ansatz
entwickelt, der ein kontinuierliches axiales Scannen ermöglicht. Zugleich kann dieser
Ansatz die Informationseffizienz im Vergleich zu der klassischen Phasenschiebung und
anderen Lösungen um bis zu 60% steigern.

– Der andere Ansatz bezieht sich auf die Parallelisierung von mehreren kostengünstigen
zeilenscannenden SIM-Systemen, denn ein einzelnes SIM-System bei heutiger schnellster
Kamera für die In-Line-Inspektion von Lötbumps weit noch zu langsam und Erweiterung
des Messfeldes durch besseres Objektiv mit sehr hohen Kosten verbunden ist. Dafür
braucht man ein zeilenscannendes SIM-System. Der entscheidende Schritt zu diesem
158 10 Zusammenfassung

Ziel ist das komplette Weglassen des axialen Scannens während eines kontinuierlichen
lateralen Scannens. Dies wurde durch Verkippen der Fokusebene eines statischen Musters
relativ zum Objekt und exakte Synchronisierung zwischen der Kamera und der Bewe-
gungseinheit erreicht. Dieser Ansatz ermöglicht eine zeilenscannende Höhenmessung bei
SIM. Zusätzlich wurde auch gezeigt, dass damit ein kostengünstiger Sensor aufgebaut
werden kann, weil nur ein statisches Sinusmuster und ein Objektiv mit kleinem Messfeld
ausreichend ist. Damit lässt sich die Zielmessgeschwindigkeit der extrem hohen OBAP
von 108 3D-Punkten/Sekunde in der Praxis implementieren.

Der Retrace-Fehler auf blanken Objekten lässt sich durch Kombination von SIM und Deflek-
tometrie kompensieren. Außerdem ist die Präzision durch Datenfusion erheblich verbessert.

– Bei der vorteilhaften Kombination von SIM mit Deflekometrie soll der hochfrequente Teil
der Höhenkarte der Mikrodeflektometrie mit dem niederfrequenten Teil der Höhenkarte
von SIM linear kombiniert werden. Damit lassen sich zwei technische Probleme auf
spiegelnden Oberflächen beheben. Zum einen, die Präzision ist nicht mehr abhängig von
dem Objektiv und liegt bei einem Objektiv mit kleiner NA und niedrigem Auflösungs-
vermögen immer im Nanometerbereich. Damit kann man lokale Höhenänderungen in
der Größenordnung von einigen Nanometern auch mit einem kostengünstigen Objektiv
detektieren. Zum anderen wird die Bandbreite der 3D-Messung damit im Vergleich
zu der bei SIM vergrößert und ist unabhängig von der Gitterfrequenz des projizierten
Sinusmusters. Stattdessen wird sie wie bei einer 2D-Bildgebung nur durch das Auflö-
sungsvermögen des Objektivs eingeschränkt.

– Die limitierende systematische Fehler auf blanken Oberflächen - Retrace-Fehler - ist


durch die Aberrationen auf spiegelnden Oberflächen bedingt und mit einfacher Methode
nicht korrigierbar. Der Retrace-Fehler variiert sich abhängig von Oberflächenneigungen
und Ort. Die komplette Beziehung zwischen den Retrace-Fehlern und Oberflächennei-
gungen wurde durch eine photogrammetrische Methode im Orts- und Neigungsraum an
60 Stützstellen erfasst und eine LUT (Kalibrierfunktion) wurde daraus mit numerischen
Ausgleichsrechnung generiert. Bei SIM-Messungen soll eine deflektometrische Messung
die Neigungsdaten zur Berechnung der Korrekturvektoren liefern. Das erste Experiment
hat die Machbarkeit dieses Ansatzes verifiziert, indem Retrace-Fehler von ein 40 µm
auf 10 µm reduziert wurde. Die Analyse der restlichen Fehlerquellen zeigt, dass weitere
Verbesserungspotenzial besteht und der Retrace-Fehler weiter reduzieren lässt.

Die in dieser Dissertation erworbenen Erkenntnisse sind nicht nur für die angegebene Aufga-
benstellung - In-Line-Inspektion der Lötbumps - wichtig. Sie sind allgemeine Grundlage für
die Entwicklung für hochgenaue und schnelle optische 3D-Sensors zur Erfassung der dreidi-
mensionalen Geometrie technischer Objekte.
159

Literaturverzeichnis

[1] P. Gelsinger, “Moore-law - the genius lives on,” vol. 20, pp. 18–20, 2006.

[2] M. Schaulin, Optische 3D-Inspektion von Bauelementen der Systemintegration. PhD the-
sis, Technische Universität Dresden, 2006.

[3] P. Lambelet, “Parallel optical coherence tomography (poct) for industrial 3d inspection,”
Proceeding SPIE, Optical Measurement Systems for Industrial Inspection VII, vol. 8082,
80820X, 2011.

[4] P. de Groot and L. Deck, “Three-dimensional imaging by sub-nyquist sampling of white-


light interferograms,” Optics Letters, vol. 18, no. 17, pp. 1462–1464, 1993.

[5] T. Seiffert, “Schnelle signalvorverarbeitung in der weißichtinterferometrie durch nichtli-


neare signalaufnahme,” Proceeding DGaO, 2004.

[6] T. Seiffert, Verfahren zur schnellen Signalaufnahme in der Weißichtinterferometrieichtin-


terferometrie. PhD thesis, Friedrich-Alexander-Universität Erlangen-Nürnberg, 2005.

[7] O. Hybl, Information-Efficient White-Light Interferometry. PhD thesis, Friedrich-


Alexander-Universität Erlangen-Nürnberg, 2013.

[8] K. Engelhardt and G. Häusler, “Acquisition of 3-d data by focus sensing,” Applied Optics,
vol. 27, no. 2, pp. 4684–4689, 1988.

[9] M. A. A. Neil, R. Juskaitis, and T. Wilson, “Method of obtaining optical sectioning


by using structured light in a conventional microscope,” Optics Letters, vol. 22, no. 24,
p. 1905, 1997.

[10] J. Kaminski, Geometrische Rekonstruktion spiegelnder Oberflächen aus defeltometrischen


Messdaten. PhD thesis, Friedrich-Alexander-Universität Erlangen-Nürnberg, 2009.

[11] “Confosurf clv150.” Confovis GmbH.

[12] “Leica dcm8.” Leica Microsystems GmbH.

[13] “Zeta-20.” Zeta Instruments.

[14] C. Richter, Mikroskopische phasenmessende Deflecktometrie. PhD thesis, Friedrich-


Alexander-Universität Erlangen-Nürnberg, 2011.

[15] G. Häusler, C. Richter, L. K, and M. C. Knauer, “Microdeflectometry- a novel tool to


acquire three-dimensional microtopography with nanomnano height resolution,” Optics
Letters,, vol. 33, no. 4, pp. 156–158, 2008.

[16] JEDEC SOLID STATE TECHNOLOGY ASSOCIATION, Coplanarity Test for Surface-
Mount Semiconductor Devices, jedec standard jesd22-b108a ed.

[17] Z. Yang, A. Kessel, and G. Häusler, “Better 3d inspecion with structured illumina-
tin:umination: signal formation and precision,” Applied Optics, vol. 54, pp. 6652–6660,
2015.
160 Literaturverzeichnis

[18] Z. Yang, A. Bielke, and G. Häusler, “Better three-dimensional inspection with structured
illuminatin: speed,” Applied Optics, vol. 55, no. 7, pp. 1713–1719, 2016.

[19] J. H. Burge, L. B. Kot, H. M. Martin, R. Zehnder, and C. Zhao, “Design and analysis for
interferometric measurements of the gmt primary mirror segments,” Proc. SPIE 6273,
2006.

[20] “360° sims system.” Hexagon Manufacturing Intelligence.

[21] E. A. Swanson, J. A. Izatt, M. R. Hee, D. Huang, C. P. Lin, J. S. Schuman, C. A.


Puliafito, and G. Fujimoto, “In vivo retinal imaging by optical coherence tomography,”
Opt. Lett., vol. 18, no. 21, pp. 1864–1866, 1993.

[22] G. Häusler, “Range sensing of the first, the second, and the third kind,” Proc. of EOS
TOPICAL MEETING Optical Metrology and Nanotechnology, 27-30 March 1994.

[23] P. J. Besl, “Active, optical range imaging sensors,” Machine Vision and Applications,
vol. 1, no. Issue 2, pp. 127–152, 1988.

[24] R. A. Jarvis, “A perspective on range finding techniques for computer vision,” Pattern
Analysis and Machine Intelligence, IEEE Transaction, vol. PAMI-5, pp. 122–139, March
1983.

[25] F. Chen, G. Brown, and M. Song, “Overview of three-dimensional shape measurement


using optical methods,” Opt. Eng., vol. 39(1), pp. 10–22, Jan 2000.

[26] F. Blais, “Review of 20 years of range sensor development,” Journal of Electronic Imaging,
vol. 13(1), pp. 231–243, Jan. 2004.

[27] W. Osten and N. Kerwien, “Optische messtechnik an den grenzen zwischen makro und
nano,” WechselWirkungen Jahrbuch, 2005.

[28] H. Bay, T. Tuytelaars, and V. L. Gool, “Surf: Speeded up robust features,” Computer
Vision-ECCV, pp. 404–417, 2006. Springer Berlin Heidelberg.

[29] D. G. Lowe, “Object recognition from local scale-invariant features,” The Proceedings of
the Seventh IEEE International Conference on Computer Vision, vol. 2, 1999.

[30] H. H. Baker and T. O. Binford, “Depth from edge and intensity based stereo,” Proceeding
of the 7th international joint conference on Artificial intelligence, vol. 2, pp. 631–636,
1981.

[31] D. Scharstein and R. Szeliski, “A taxonomy and evaluation of dense two-frame stereo
correspondence algorithms,” International Journal of Computer Vision, vol. 47, pp. 7–
42, April 2002.

[32] M. Rioux, “Laser range finder based on synchronized scanners,” Applied Optics, vol. 23,
no. 21, 1984.

[33] J. Labuz, “Camera and projector motion for range mapping,” Proc. SPIE 0728, Optics,
Illumination, and Image Sensing for Machine Vision, no. 227, 1987.

[34] T. Kanade and H. Asada, “Noncontact visual three-dimensional ranging devices,” Pro-
ceeding SPIE 0283, Three-Dimensional Machine Perception, no. 48, 1981.
Literaturverzeichnis 161

[35] G. Häusler and W. Heckel, “Light sectioning with large depth and high resolution,” Ap-
plied Optics, vol. 27, no. 24, 1988.

[36] Y. Shirai, “Recognition of polyhedrons with a range finder,” Pattern Recognition, vol. 4,
no. Issue 3, 1972.

[37] J. Salvi, S. Fernandez, T. Pribanic, and X. Llado, “A state of the art in structured light
patterns for surface profilometry,” Pattern Recognition 43, pp. 2666–2680, 2010.

[38] P. M. Griffin, L. S. Narasimhan, and S. R. Yee, “Generation of uniquely encoded light


patterns for range data acquisition,” Pattern Recognition, vol. 25, no. 6, pp. 609–616,
1992.

[39] M. Takeda and K. Mutoh, “Fourier transform profilometry for the automatic measurement
of 3-d object shapes,” Applied Optics, vol. 22, no. 24, pp. 3977–3982, 1983.

[40] L. Zhang, B. Curless, and S. M. Seitz, “Rapid shape acquisition using color structured
light and multi-pass dynamic programming,” Proceeding of the 1st International Syposium
on 3D Data Processing, Visualization, and Transmission(3DPVT), pp. 24–36, 2002.

[41] J. P. Rosenfeld and C. J. Tsikos, “High-speed encoding projector for 3d imaging,” Pro-
ceeding SPIE 728 Optics, Illumination, and Image Sensing for Machine Vision, p. 146,
1986.

[42] V. Srinivasan, H. C. Liu, and M. Halioua, “Auimaging phase-measuring profilometry: a


phase mapping approach,” Applied Optics, vol. 24, no. 2, pp. 185–188, 1984.

[43] M. Schaffer, M. Grosse, and R. Kowarschik, “High-speed pattern projection for three-
dimensional shape measurement using laser speckles,” Applied Optics, vol. 49, no. 18,
pp. 3622–3629, 2010.

[44] C. Guan, L. G. Hassebrook, and D. L. Lau, “Composite structured light pattern for
three-dimensional video,” Optics Express, vol. 11, no. 5, pp. 406–417, 2003.

[45] B. Carrihill and R. Hummel, “Experiments with the intensity ratio depth sensor,” Com-
puter Vision Graphics, and Image Processing, vol. 32, pp. 337–358, 1985.

[46] J. Tajima and M. Iwakawa, “3d data acquisition by rainbow range finder,” Proceeding in
10th International Conference on Pattern Recognition, vol. 1, pp. 309–313, 1990.

[47] G. Häusler and D. Ritter, “Parallel three-dimensional sensing by color-coded triangulati-


on,” Applied Optics, vol. 32, no. 35, pp. 7164–7169, 1993.

[48] R. G. Dorsch, G. Häusler, and J. M. Herrmann, “Laser triangulation: fundamental un-


certainty in distance measurement,” Appl. Opt., vol. 33, no. 7, pp. 1306–1314, 1994.

[49] R. Lange, P. Seitz, A. Biber, and S. Lauxtermann, “Demodulation pixels in ccd and cmos
technologies for time-of-flight ranging,” Proceeding of SPIE, vol. Vol. 3965, pp. 117–188,
2000.

[50] R. A. Jarvis, “A laser time-of-flight range scanner for robotic vision,” IEEE Transaction
on Pattern Analysis and Machine Intelligence, vol. PAMI-5, no. Issue 5, pp. 505–512,
1983.

[51] Optech, “Long range lidar.”


162 Literaturverzeichnis

[52] G. L. Miller and E. R. Wagner, “Anovision rangefrange for autonomous robot cart navi-
gation,” Proceeding SPIE Mobile Robotic II, vol. 0852, pp. 132–144, 1987.

[53] D. Nitzan, A. E. Brain, and R. O. Duda, “The measurement and use of registered re-
flectance and range data in scene analysis,” Proceeding of the IEEE, vol. 65, no. Issue 2,
pp. 206–220, 1977.

[54] “Phase radar scanner.” Zoller + Froehlich GmbH.

[55] G. Beheim and K. Fritsch, “Range finding using frequency-modulated laser diode,” App-
lied Optics, vol. 25, no. Issue 9, pp. 1439–1442, 1986.

[56] M. Vision, “Frscanner modulated laser radar.”

[57] R. J. Woodham, “Photometric stereo: A reflectance map technique for determining sur-
face orientation from image intensity,” Proceeding SPIE Image Understanding Systems &
Industrial Applications, vol. 155, pp. 136–143, 1978.

[58] D. Stuible, “Neigungsmessung auf blanken und diffus reflektierenden oberflächen,” Mas-
ter’s thesis, Friedrich-Alexander-Universität Erlangen-Nürnberg, 2007.

[59] R. Basri, D. Jacobs, and R. Kemelmacher, “Photometric stereo with general, unknown
lighting,” International Journal of Computer Vision, 2006.

[60] S. Barsky and M. Petrou, “The 4-source photometric stereo technique for three-
dimensional ssurface in the presence of highlights and shadows,” IEEE Transactions on
Pattern Analysis and Machine Intelligence, vol. 25, no. 10, pp. 1239–1252, 2003.

[61] T. Zickler, P. N. Belhumeur, and D. J. Kriegman, “Helmholtz sterstereo: Exploiting reci-


procity for surface reconstruction,” Proceeding ECCV 2002, 2002.

[62] H. J. Tiziani and G. Pedrini, “From speckle pattern photography to digital holographic
interferometry,” Applied Optics, vol. 52, no. 1, pp. 30–44, 2013.

[63] P. Slangen, M. Karray, and P. Picart, “Some figures of merit so as to compare digital
fresnel holography and speckle interferometry,” Proceeding SPIE Optical Measurement
Systems for Industrial Inspection VII, vol. 8082, pp. 808205–1 – 808205–13, 2011.

[64] Y. Zou, H. Diao, X. Peng, and H. Tiziani, “Contouring by electronic speckle pattern
interferometry with quadruple-beam illumination,” vol. 31, no. 31, pp. 6599–6602, 1992.

[65] K. Creath, “Phase-shifting speckle interferometry,” Applied Optics, vol. 24, no. 18,
pp. 3053–3058, 1985.

[66] C. Joenathan, B. Franze, P. Haible, and H. J. Tiziani, “Shape measurement by use of


tempral fourier transformation in dual-beam illumination speckle interferometry,” Applied
Optics, vol. 37, no. 16, pp. 3385–3390, 1998.

[67] G. Pedrini and H. J. Tiziani, “Doublepinterferometry speckle interferometry for vibration


analysis,” Applied Optics, vol. 33, no. 34, pp. 7857–7863, 1994.

[68] H. O. Saldner, N. Molin, and K. A. Stetson, “Fourier-transform evaluation of phase data


in spatially phase-biased tv holograms,” Applied Optics, vol. 35, no. 2, pp. 332–336, 1996.
Literaturverzeichnis 163

[69] G. Wernicke, O. Kruschke, T. Huth, N. Demoli, and H. Gruber, “Evaluation of fringe


patterns in an optimized holographic interferometric microscope with conjugated recon-
struction,” Proceeding SPIE 2860, Laser Interferometry VIII: Techniques and Analysis
107, 1996.

[70] J. W. Goodman, Introductiion to Fourier Optics. McGraw-Hill Inc., 1968.

[71] G. Pedrini, H. J. Tiziani, and Y. L. Zou, “Digital double pulse-tv-holography,” Optics and
Lasers in Engineering, vol. 26, pp. 199–219, 1997.

[72] D. Carl, M. Fratz, M. Pfeifer, D. M. Giel, and H. Höler, “Multiwavelength digital holo-
graphy with autocalibration of phase shifts and artificial wavelengths,” Applied Optics,
vol. 48, no. 34, 2009.

[73] G. Pedrini, Y. L. Zou, and H. J. Tiziani, “Simultaneous quantitative evaluation of in-


plane and out-of-plane deformation by use of a multidirectional spatial carrier,” Applied
Optics, vol. 36, no. 4, 1997.

[74] T. Baumbach, W. Osten, and C. von Kopylow, “Remote metrology by comparative digital
holography,” Applied Optics, vol. 45, pp. 925 – 934, February 2006.

[75] Y. Cheng and J. C. Wyant, “Two-wavelength phase shifting interferometry,” Applied Op-
tics, vol. 23, no. 24, pp. 4539–4543, 1984.

[76] P. J. de Groot, “Extending the unambiguous range of two-color interferometers,” Applied


Optics, vol. 33, no. 25, pp. 5948–5953.

[77] Y. Cheng and J. C. Wyant, “Multiple-wavelength phase-shifting interferometry,” Applied


Optics, vol. 24, no. 6, pp. 804–807, 1985.

[78] N. Warnasooriya and M. K. Kim, “Quantitative phase imaging using three-wavelength


optical phase unwrapping,” Journal of Modern Optics, vol. 56, no. 1, pp. 67–74, 2010.

[79] J. Schwider, “Continuous lateral shearing interferometer,” Applied Optics, 1984.

[80] V. Nercissian, I. Harder, K. Mantel, A. Berger, G. Leuchs, N. Lindlein, and J. Schwider,


“Diffractive simultaneous bidirectional shearing interferometry using tailored spatially
coherent light,” Applied Optics, vol. 50, no. 4, pp. 571–578, 2011.

[81] M. Kino and M. Kurita, “Interferometric testing for off-axis aspherical mirrors with
computer-generated holograms,” Applied Optics, vol. 51, no. 19, pp. 4291–4297, 2012.

[82] J. Geary, Introduction to Optical Testing. SPIE Optical Engineering Press, 1993.

[83] T. Pfeifer, J. Evertz, and R. Tutsch, “Testing aspherics with rotational symmetry using a
fizeau interferometer with computer generated holograms,” Proceeding SPIE Specification
and Measurment of Optical Systems, vol. 1781, pp. 216–223, 1992.

[84] J. C. Wyant, “Computerized interferometric surface measurements,” Applied Optics,


vol. 52, no. 1, pp. 1–8, 2013.

[85] A. J. MacGovern and J. C. Wyant, “Computer generated holograms for testing optical
elements,” Applied Optics, vol. 10, no. 3, pp. 619–624, 1970.

[86] C. Pruss, R. S., H. J. Tiziani, and W. Osten, “Computer-generated holograms in interfe-


rometric testing,” Opt. Eng., vol. 43, no. 11, pp. 2534–2540, 2004.
164 Literaturverzeichnis

[87] B. C. Platt and R. Shack, “History and principles of shack-hartmann wavefront sensing,”
Journal of Refractive Surgery, vol. 17, pp. 573–577, 2001.
[88] J. W. Hardy, Adaptive Optics for Astronomical Telescopes. New York: Oxford Universiy
Press, 1998.
[89] J. Liang, D. R. Williams, and D. T. Miller, “Supernormal vision and high-resolution
retinal imaging through adaptive optics,” pp. 2884–2892, 1997.
[90] R. Dorn and J. Pfund, “Effiziente qualitätssicherung mittels multifunktionaler optikprü-
fung,” 2015.
[91] G. Ehret, M. Schulz, M. Baier, and A. Fitzenreiter, “A new optical flatness reference
measurement system,” Proceeding DGaO 2009, 2009.
[92] R. D. Geckeler and I. Weingärtner, “Sub-nm topography measurement by deflectometry:
Flatness standard and wafer nanotopography,” Proceeding SPIE Advanced Characteri-
zation Techniques for Optical, Semiconductor and Data Storage Components, vol. 4779,
pp. 1–12, 2002.
[93] M. C. Knauer, J. Kaminski, and G. Häusler, “Phase measuring deflectometry: a new
approach to measure specular free-form surfaces,” Proceeding SPIE Optical Metrology in
Production Engineering, vol. 5457, 2004.
[94] C. Faber, E. Olesch, R. Krobot, and G. Häusler, “Deflectometry challenges interferometry
- the competition gets tougher!,” Proceeding SPIE Interferometry XVI: Techniques and
Analysis, vol. 8493, 2012.
[95] M. C. Knauer, Absolute Phasenmessende Deflektometrie. PhD thesis, Friedrich-
Alexander-Universität Erlangen-Nürnberg, 2006.
[96] D. Huang, E. Swanson, C. Lin, J. Schuman, W. Stinson, W. Chang, M. Hee, T. Flotte,
K. Gregory, and C. Puliafito, “Optical coherence tomography,” Science, vol. Nov 22,
no. 254 (5035), pp. 1178 – 1181, 1991.
[97] B. E. Bouma and G. J. Tearney, Handbook of Optical Coherence Tomography, ch. Chapter
12: Spectral Radar - Optical Coherence Tomography in the Fourier Domain, pp. 335–357.
CRC Press, 2001.
[98] M. Bail, G. Häusler, J. M. Herrmann, M. W. Lindner, and R. Ringler, “Optical coherence
tomography with the ßpectral radar fast optical analysis in volume scatters by short
coherence interferometry,” Proceeding SPIE 2925, pp. 298–303, 1996.
[99] G. Häusler, J. M. Herrmann, V. Höfer, M. W. Lindner, P. Pavlicek, and R. Ringler, “A
fibre-optical implementation of range sensors, based on the spectral radar,” Proceeding of
the EOS Topical Meeting "Free Space Micro-Optical SystemsËngelberg, pp. 48–49, 1996.
[100] P. Pavlicek and G. Häusler, “White-light interferometer with dispersion: an accurate fiber-
optic sensor for the measurement of distance,” Applied Optics, vol. 44, no. 15, pp. 2978–
2983, 2005.
[101] T. Dresel, G. Häusler, and H. Venzke, “Three-dimensional sensing of rough surfaces by
coherence radar,” Applied Optics, vol. 31, no. 7, pp. 919–925, 1992.
[102] M. C. Knauer, C. Richter, and G. Häusler, “3d sensor zoo species and natural habitats,”
Laser Technik Journal, vol. 3, no. 1, 2007.
Literaturverzeichnis 165

[103] B. Wiesner, O. Hybl, and G. Häusler, “Improved white-light interferometry on rough


surfaces by statistically independent speckle patterns,” Applied Optics, vol. 51, no. 6,
pp. 751–757, 2011.

[104] H. Akira, O. Hidemitsu, and K. Katsuichi, “Fast surface profiler by white-light inter-
ferometry using a new algorithm, the sest algorithm,” Applied Optics, vol. 41, no. 23,
pp. 4876–4883, 2002.

[105] M. Minsky, “Microscopy apparatus,” Patent US 3013467 (1961).

[106] M. Minsky, “Memoir on inventing the confocal scanning microscope,” Scanning, vol. 10,
pp. 128–138, 1988.

[107] A. Erhardt, G. Zinser, D. Komitowski, and J. Bille, “Reconstructing 3-d light-microscopic


iimage by digital image processing,” Applied Optics, vol. 24, no. 2, pp. 194–200, 1985.

[108] I. J. Cox, C. J. R. Sheppard, and T. Wilson, “Super-resolution by confocal fluorescent


microscopy,” Optik, vol. 60, no. 4, pp. 391–396, 1982.

[109] T. R. Corle, Confocal Scanning Optical Microscopy and Related Imaging Systems. Aca-
demic Press, 1996.

[110] D. K. Hamilton and T. Wilson, “Three-dimensional surface measurement using the confo-
cal scanning microscopy,” Applied Physics B: Photophysics and Laser Chemistry, vol. 27,
pp. 211–213, 1981.

[111] K. Carlsson and Aslund, “Confocal imaging for 3-d digital microscopy,” Applied Optics,
vol. 26, no. 16, pp. 3232–3238, 1987.

[112] G. Q. Xiao and G. S. Kino, “A real-time confocal scanning optical microscope,” Proceeding
SPIE Scanning Imaging Technology, vol. 809, pp. 107–113, 1987.

[113] J. Conchello and J. W. Lichtman, “Theoretical analysis of a rotating-disk partially con-


focal scanning microscope,” Applied Optics, vol. 33, no. 4, pp. 585–596, 1994.

[114] H. Jordan, M. Wegner, and H. J. Tiziani, “Highly accurate non-contact characterization


of engineering surface using confocal microscopy,” Measurement Science and Technology,
vol. 9, no. 1142, 1998.

[115] H. J. Tiziani, M. Wegner, and D. Steudle, “Confocal principle for macro- and microscopic
surface and defect analysis,” Optical Engineering, vol. 39, no. 1, pp. 32–39, 2000.

[116] A. K. Ruprecht, K. Körner, T. F. Wiesendanger, H. J. Tiziani, and W. Osten, “Chromatic


confocal detection for high speed micro-topography measurements,” Proceeding SPIE
Three-Dimensional Image Capture and Applications VI, vol. 5302, pp. 53–60, 2004.

[117] W. Lyda, M. Gronle, D. Fleischle, F. Mauch, and W. Osten, “Advantages of chromatic-


confocal spectral interferometry in comparison to chromatic confocal microscopy,” Mea-
surement Science and Technology, vol. 23, 2011.

[118] P. Grossmann, “Depth from focus,” Pattern Recognition Letters, vol. 5, pp. 63–69, 1987.

[119] M. Rioux and F. Blais, “Compact three-dimensional camera for robotic applications,”
JOSA A, vol. 3, no. 9, pp. 1518–1521, 1986.
166 Literaturverzeichnis

[120] M. Noguchi and S. K. Nayar, “Microscopic shape from focus using a projected illumination
pattern,” Mathematical and Computer Modelling, vol. 24, no. 5-6, pp. 31–48, 1996.

[121] W. Lukosz and M. Marchand, “Optische abbildung unter Überschreitung der beugungs-
bedingten auflösungsgrenze,” Optica Acta: International Journal of Optics, vol. 10, no. 3,
pp. 241–255, 1963.

[122] M. G. L. Gustafsson, “Surpassing the lateral resolution limit by a factor of two using
structured illumination microscopy,” Journal of Microscopy, vol. 198, pp. 82–87, 2000.

[123] M. G. L. Gustafsson, L. Shao, P. M. Carlton, C. J. R. Wang, I. N. Golubovskaya, W. Z.


Cande, D. A. Agard, and J. W. Sedat, “Three-dimensional resolution doubling in wide-
field fluorescence microscopy by structured illumination,” Biophysical Journal, vol. 94,
pp. 4957–4970, 2008.

[124] R. Heintzmann and C. Cremer, “Laterally modulated excitation microscopy: Improvement


of resolution by using a diffraction grating,” Proceeding SPIE, vol. 3568, pp. 185–196,
1998.

[125] “S neox.” Sensofar.

[126] R. Artigas, A. Pinto, and F. Laguarta, “Three-dimensional micromeasurements on smooth


and rough surfaces with a new confocal optical profiler,” Proc. SPIE, vol. 3824, pp. 93–
104, 1999.

[127] Xu, “3-d optical microscope,” Patent US 7729049 B2 (2010).

[128] M. Schwertner, “Method and assembly for optical reproduction with depth discriminati-
on,” Patent US 20100108873 A1 (2010).

[129] Y. Kim, K. Hibino, N. Sugita, and M. Mitsuishi, “Design of phase shifting algorithms:
fringe contrast maximum,” Applied Optics, vol. 22, no. 15, 2014.

[130] Y. Surrel, “Design of algorithms for phase measurements by the use of phase stepping,”
Appl, vol. 35, pp. 51–60, 1996.

[131] M. Vogel, Z. Yang, A. Kessel, C. Kranitzky, C. Faber, and G. Häusler, “Structured-


illumination microscopy on technical surfaces: 3d metrology with nanometer sensitivity,”
Proceeding SPIE, vol. 8082, 2011.

[132] G. Häusler, M. Vogel, Z. Yang, A. Kessel, C. Faber, and C. Kranitzky, “Microdeflectome-


try and structured illumination microscopy - new tools for 3d-metrology at nanomnano
scale,” Proceeding Precision Interferometric Metrology, ASPE 2010 Summer Topical Mee-
ting, vol. 49, pp. 46–51, 2010.

[133] C. Kranitzky, C. Richter, C. Faber, M. C. Knauer, and G. Häusler, “3d-microscopy with


large depth of field,” DGaO-Proceeding 110, no. A12, 2009.

[134] P. A. Stokseth, “Properties of a defocused optical system,” J. Opt. Soc. Am., vol. 59,
pp. 1314–1321, 1969.

[135] H. H. Hopkins, “The frequency response of a defocused optical system,” Proc. Roy. Soc.
A231, pp. 91–103, 1955.

[136] A. der Dozenten f?r Regelungstechnik, ed., Messtechnik in der Versorgungstechnik. Sprin-
ger Berlin Heidelberg, 1997.
Literaturverzeichnis 167

[137] E. Hecht, Optik. München, de Gruyter, 2014.

[138] X. Laboureux and G. Häusler, “Localizlocal and registration of three-dimensional oobject


in space - where are the limits?,” Applied Optics, vol. 40, no. 29, pp. 5206–5216, 2001.

[139] J. W. Goodman, “Some fundamental properties of speckle,” J. Opt. Soc. Am., vol. 66,
no. 11, pp. 1145–1150, 1976.

[140] J. W. Goodman, Statistical Optics. Wiley-Interscience, 2000.

[141] M. Born and E. Wolf, Principle of optics. Cambridge University Press, 1999. S. 572 -576.

[142] C. Wagner, Informationstheoretische Grenzen optischer 3D-Sensoren. PhD thesis,


Friedrich-Alexander Universität Erlangen-Nürnberg, 2003.

[143] H. M. Pedersen, “On the contrast of polychromatic speckle patterns and its dependence
on surface roughness,” Optica Acta: International Journal of Optics, 1975.

[144] J. W. Goodman, Laser Speckle and Related Phenomena, ch. Statistical Properties of Laser
Speckle Patterns, pp. 68–74. Springer-Verlag, 1975.

[145] J. C. Dainty, “Some statistical properties of random speckle pattern in coherent and
partially coherent illumination,” Optica Acta, vol. 17, no. 10, pp. 761–772, 1970.

[146] A. Menditto, M. Patriarca, and B. Magnusson, “Understanding the meaning of accuracy,


trueness and precision,” Accred Qual Assur, vol. 12, pp. 45–47, 2007.

[147] H. Baher, Signal Analysis. John Wiley & Sons Ltd., 2002. S. 449-450.

[148] P. Pavlicek and J. Soubusta, “Theoretical measurement uncertainty of white-light inter-


ferometry on rough surfaces,” Applied Optics, vol. 42, no. 10, pp. 1809–1813, 2003.

[149] M. Fleischer, R. Windecker, and H. J. Tiziani, “Theoretical llimit of scanning white-light


interferometry signal evaluation algorithm,” Applied Optics, vol. 40, no. 17, pp. 2815–
2820, 2001.

[150] P. Pavlicek and O. Hybl, “White-light interferometry on rough surfaces - measurement


uncertainty caused by noise,” Applied Optics, vol. 51, no. 4, pp. 465–473, 2012.

[151] “Vdi/vde 2655 blatt 1.1: Optische messtechnik an mikrotopografien: Kalibrieren von kon-
fokalen mikroskopen und tiefeneinstellnormalen für die rauheitsmessung,” tech. rep., Ver-
ein Deutscher Ingenieure, 2008.

[152] “Vdi/vde 2655 blatt 1.2: Optische messtechnik an mikrotopografien: Kalibrieren von kon-
fokalen mikroskopen und tiefeneinstellnormalen für die rauheitsmessung,” tech. rep., Ver-
ein Deutscher Ingenieure, 2009.

[153] A. Harasaki and J. C. Wyant, “Fringe modulation skewing effect in white-light vertical
scanning interferometry,” Applied Optics, vol. 39, no. 13, pp. 2101–2106, 2000.

[154] J. M. Geary, K. M. Yoo, and G. Si, “Retrace error: a case study,” Proc. SPIE 1776,
Interferometry: Surface Characterization and Testing,, no. 98, 1992.

[155] J. W. Goodman, Introductiion to Fourier Optics. McGraw-Hill Inc., 1968. S. 134-137.

[156] O. Hybl, A. Berger, and G. Häusler, “Information efficient white-light interferometry,”


Proceeding DGaO, 2008.
168 Literaturverzeichnis

[157] J. W. Goodman, Introductiion to Fourier Optics. McGraw-Hill Inc., 1968. Seite 130-134.

[158] J. W. Goodman, Introductiion to Fourier Optics. McGraw-Hill Inc., 1968. Seite 109-112.

[159] J. W. Goodman, Introductiion to Fourier Optics. McGraw-Hill Inc., 1968. Seite 140-141.

[160] J. W. Goodman, Introductiion to Fourier Optics. McGraw-Hill Inc., 1968. Seite 146-149.

[161] V. N. Mahajan, Optical Imaging And Aberrations Part I. SPIE, 1998. Seite 152-163.

[162] X. Laboureux, Localization Accuracy of SSurface in 3-D Space. PhD thesis, Friedrich-
Alexander Universität Erlangen-Nürnberg, 2001. S. 29.

[163] G. Häusler, Encyclopedia of Modern Optics, ch. Speckle and Coherence, pp. 114–122.
Elsevier Ltd., 2004.

[164] JCGM, “Gum evaluation of measurement data - guide to the expression of uncertainty
in measurement.”

[165] D. M. Ljubicic and B. W. Anthony, “High speed 3d profilometer for measurement of


transparent parts,” Proceeding SPIE, vol. 8082, 2011.

[166] A. Olszak, “Lateral scanning white-light interferometer,” Appl. Opt., vol. 39, pp. 3906–
3913, 2000.

[167] G. Häusler, C. Faber, F. Willomitzer, and P. Dienstbier, “Why can’t we purchase a perfect
single shot 3d-sensor?,” Proc. DGaO 113, A8, 2012.

[168] K. Körner and R. Windecker, “Absolute macroscopic 3-d measurement with the innovative
depth-scanning fringe projection technique (dsfp),” Optik, vol. 112, no. 9, pp. 433–441,
2001.

[169] G. S. Kino and S. S. C. Chim, “Mirau correlation microscope,” Appl. Opt., vol. 29,
pp. 3775–3783, 1990.

[170] S. S. C. Chim and G. S. Kino, “Three-dimensional image realization in interference mi-


croscopy,” Appl. Opt., vol. 31, pp. 2550–2553, 1992.

[171] Q. Kemao, H. Wang, and W. Gao, “Windowed fourier transform for fringe pattern ana-
lysis: theoretical analyses,” Appl. Opt., vol. 47, pp. 5408–5419, 2008.

[172] Y. Liu, E. Olesch, Z. Yang, and G. Häusler, “Fast and accurate deflectometry with crossed
fringes,” Adv. Opt. Techn., vol. 3(4), pp. 441–445, 2014.

[173] M. Müller, “Schnelle und robuste 3d-mikroskopie und -makroskopie mit strukturierter
beleuchtung,” Master’s thesis, Friedrich-Alexander-Universität Erlangen-Nürnberg, 2014.

[174] M. Müller, Z. Yang, and G. Häusler, “Fast and information-efficient microdeflectometry


with travelling cross-fringes,” Proc. DGaO 116, A9, 2015.

[175] G. Zhang, Y. Fan, and X. Gao, “A confocal probe based on time difference measurement,”
CIRP Annals - Manufacturing Technology, vol. 53, pp. 417–420, 2004.

[176] S. Laubach, G. Ehret, H. Knell, H. Knell, and P. Lehmann, “Stitching streifenförmiger


subaperturen zur formmessung,” DGaO-Proceeding, 2014.
Literaturverzeichnis 169

[177] Y. Lan, J. Chen, W. Wang, and L. Chang, “Large-scale 3-d profilometer,” Proceeding
SPIE, 2008.

[178] P. Lambelet and R. Moosburger, “Fast and accurate line scanner based on white light
interferometry,” Proceeding SPIE, vol. 8788, 2013.

[179] K. Körner and W. Osten, “Messverfahren und sensor, insbesondere zur ooptische abtas-
tung bewegter objekte,” Patent DE 103 21 888 A1 (2004).

[180] G. Häusler, C. Faber, E. Olesch, and S. Ettl, “Deflectometry vs. interferometry,” SPIE,
Optical Measurement Systems for Industrial Inspection VII, vol. 8788, 2013.

[181] E. Olesch, C. Faber, M. C. Seraphim, and G. Häusler, “New holistic self-calibration


method for deflectometric sensors,” Proc. DGaO 111, P33, 2010.

[182] E. Olesch, C. Faber, and G. Häusler, “Object reconstruction by deflectometry,” Proc.


DGaO 113, P28, 2012.

[183] E. Olesch and G. Häusler, “Deflectometry with better accuracy,” Proc. DGaO 115, P26,
2014.

[184] D. Liu, Y. Yang, C. Tian, Y. Luo, and L. Wang, “Practical methods for retrace error
correction in nonull aspheric testing,” Optical Express, vol. 17, pp. 7025–7035, 2009.

[185] B. Dörband and H. Tiziani, “Testing aspheric surfaces with computer-generated holo-
grams,” Applied Optics, vol. 24, pp. 2604–2611, 1985.

[186] W. Dahmen and A. Reusken, Numerik für Ingenieure und Naturwissenschaftler, ch. Li-
neare Ausgleichsrechnung, pp. 117–135. Springer-Verlag, 2008.

[187] R. Schaback and H. Wendland, “Kernel techniques: From machine learning to meshless
methods,” Acta Numerica, pp. 1–97, 2006.

[188] H. Wendland, “Piecewise polynomial, positive definite and cocompact supported radial
functions of minimal degree,” Advances in Computational Mathematics, vol. 4, pp. 389–
396, 1995.

[189] S. Lowitzsch, Approximation and interpolation employing divergence-free radial basis


functions with applications. PhD thesis, Texas A&M University, 2002.

[190] M. S. Floater and A. Iske, “Thinning algorithms for scattered data interpolation,” BIT
38, 1998.

[191] M. S. Floater and A. Iske, “Multistep scattered data interpolation using compactly sup-
ported radial basis functions,” J. Comp. Appl. Math., vol. 73, pp. 65–78, 1996.

[192] C. Kranitzky, “3d-mikroskopie mit strukturierter beleuchtung,” Master’s thesis, Friedrich-


Alexander-Universität Erlangen-Nürnberg, 2009.
170 Literaturverzeichnis
171

Anhang I

Die Wellenaberration ∆W (x, y) kann durch eine Polynom-Funktion mathematisch beschrie-


ben werden, die von vier Variablen - x und y im Pupillenkoordinatensystem sowie η und ξ
im Bildkoordinatensystem (siehe Abbildung 5.1) - abhängig ist. Da das Objektiv und die Pu-
pille üblicherweise rotationssymmetrisch sind, wird bevorzugt das Koordinatensystem in ein
Polarkoordinatensystem transformiert,

~r = (x, y) = (rcosθω , rsinθω ) (10.1)

~h = (η, ξ) = (hcosθω , hsinθω ) (10.2)

wobei θω den Polarwinkel zur x- bzw. η- Achse bezeichnet, r sowie h jeweils den radialen
Abstand in der Pupillen- und Bildebene beschreibt.

Aus [161] ist bekannt, dass die Wellenaberration ∆W von den drei folgenden rotationsinvari-
anten Termen abhängigen ist:

r = |~r| (10.3)

h = |~h| (10.4)

hrcosθω = ~h · ~r (10.5)

Die von diesen drei Termen abhängige Polynom-Funktion der Wellenaberrationen kann in Form
von Potenzreihen wie folgt dargestellt werden

∞ X
X n
∞ X
∆W (h, r, θω ) = ω(2l+m)nm h2l+m rn cosm θω . (10.6)
l=0 n=l m=0

Die Ordnung i jedes Aberrationsterms ist gegeben durch

i = 2l + m + n (10.7)

Die Aberrationsterme wie Tilt und Defokus 1 , deren Ordnungen i kleiner als 4 sind, werden
nicht als störende Aberration berücksichtigt, weil sie jeweils nur die gesamte Fokusebene lateral
und axial verschieben. Die Aberrationen höherer Ordnung (i ≥ 4) haben allerdings in der Praxis
relevante Konsequenzen auf die Abbildungsqualität. Der Einfachheit halber werden hier nur die
primären (Seidel-)Aberrationen (i = 4) diskutiert. In der Tabelle 10.1 werden die Terme mit
deren Koeffizienten ω(2l+m)nm für fünf Aberrationstypen vierter Ordnung (i = 4) aufgelistet.

1
Diese Aberrationen können meist durch geeignete Justage kompensiert werden.
172 10 Anhang I

l n m 2l+m Aberrationsterm Aberrationsname

0 4 0 0 ω040 r4 Sphärische Aberration

0 3 1 1 ω131 hr3 cosθω Koma

0 2 2 2 ω222 h2 r2 cos2 θω Astigmatismus

1 2 0 2 ω220 h2 r2 Bildfeldwölbung

1 1 1 3 ω311 h3 rcosθω Verzeichnung

Tabelle 10.1: Primäre (Seidel-) Aberrationen i = 2l + m + n = 4 [161].

In der Abbildung 10.1 sind die Wellenfunktionen aller Aberrationen vierter Ordnung farbkodiert
dargestellt. Unter diesen ist die sphärische Aberration ein um die optische Achse zentriertes ro-
tationssymmetrisches Polynom vierter Ordnung. Sie gehört zur Klassen der Schärfenfehler und
führt dazu, dass die Lichtwellen von unterschiedlichen Radien in der Pupille an unterschiedli-
che z-Positionen fokussiert wird. Da die sphärische Aberration nicht von den Bildkoordinaten
abhängt, ist der Schärfenfehler im ganzen Bildfeld gleich. Die Koma ist wie die sphärische Ab-
erration ebenfalls ein Schärfenfehler, dessen Punktbild eine zum Feldrand gerichtete schweifför-
mige Struktur aufweist. Sie ist allerdings linear von der Bildlage abhängig und zeigt stärkere
Fehler an achsfernen Punkten. Zum feldabhängigen Schärfenfehler gehört auch der Astigma-
tismus, wodurch die Strahlen in meridionaler und sagittaler Ebene in unterschiedlichen Tiefen
fokussieren. Die anderen zwei Aberrationstypen - Bildfeldwölbung und Verzeichnung - sind im
Gegensatz dazu keine Schärfenfehler, sondern Lagenfehler. Sie führen jeweils zu einer gewölbter
Fokusebene und einem verzerrten Bild.
173

µm µm

(a) sphärischer Aberration mit ω040 = λ (b) Koma mit ω131 = 4λ und h = 1
µm µm

(c) Astigmatismus mit ω222 = 10λ und h = 1 (d) Bildfeldwölbung mit ω220 = 2λ und h = 1
µm

(e) Verzeichnung mit ω311 = 2λ und h = 1

Abbildung 10.1: Fünf simulierte Wellenaberrationen ∆W (x̄, ȳ) vierter Ordnung.


174 10 Anhang I
175

Anhang II

Fehlerfortpflanzungsrechnung für Kontrastrauschen auf spiegelnden Oberflächen


Das i-te gemessene M -phasenverschobene Kamerabild Ii beinhaltet drei Unbekannte: Die mit-
tlere Intensität Im , den Musterkontrast C und die Anfangsphase ϕ0 ,


Ii = Im {1 + Ccos[(i − 1) + ϕ0 ]}. (10.8)
M
Durch die Gleichungen 10.9 und 10.10 für M-Phasenverschiebung lassen sich jeweils der Kon-
trast C und die Anfangsphase ϕ0 aus den Intensitäten der Kameraaufnahmen Ii berechnen,
q
(i−1)2π 2 (i−1)2π 2
2 ( M ) +( M
P P
i=1 Ii cos M i=1 Ii sin M )
C(I1 , I2 ...IM ) = PM , (10.9)
i=1 I i
PM (i−1)2π
i=1 Ii sin M
tanϕ0 (I1 , I2 ...IM ) = PM (i−1)2π
. (10.10)
i=1 Ii cos M
Für die Fehlerfortpflanzungsrechnung in Gleichung 10.9, lässt sie sich als eine Funktion von
zwei Termen T3 und T4 umschreiben,
p
T4 2 T12 + T22
C(T1 , T2 , T3 ) = = , (10.11)
T3 T3
mit
M
X
T3 = Ii , (10.12)
i=1
q
T4 = 2 T12 + T22 , (10.13)

M
X (i − 1)2π
T1 = Ii cos , (10.14)
M
i=1

und
M
X (i − 1)2π
T2 = Ii sin . (10.15)
M
i=1

Da das Rauschen von T3 und T4 zueinander korreliert ist, kann die Varianz des Kon-
trastrauschen σC2 mit der Gleichung aus GUM [164] über die kombinierte Messunsicherheit

von korrelierten Eingangsgrößen ausgedrückt werden,

2 ∂C 2 2 ∂C 2 2 ∂C ∂C
σC = ( ) σT4 + ( ) σT3 + 2 σT σT r(△T4 , △T3 )
∂T4 ∂T3 ∂T4 ∂T3 4 3
1 T4 T4
= ( )2 σT24 + ( 2 )2 σT23 − 2 3 σT4 σT3 r(△T4 , △T3 ). (10.16)
T3 T3 T3
176 10 Anhang II

Aus einer numerischen Simulation wurden die folgenden Relationen festgestellt,

T4
r(△T4 , △T3 ) ≈ , σT4 σT3 ≈ σT23 . (10.17)
T3
Setzt man die Gleichung 10.17 in die Gleichung 10.16 ein, erhält man,

2 1 2 2 T4
σC =( ) σT4 − ( 2 )2 σT23 . (10.18)
T3 T3
Des Weiteren kann man auch mit demselben Mechanismus die Varianz des Rauschens im Term
T4 bestimmen. Aus der numerischen Simulation wurde r(△T1 , △T2 ) ≈ 0 festgestellt, deshalb
erhält kriegt man die Gleichung 10.19,

∂C 2 2 ∂C 2 2 2 2
σT24 = ( ) σT1 + ( ) σT2 = ( q )2 σT21 + ( q )2 σT22 . (10.19)
∂T1 ∂T2 T2 2
1+( ) T1 2
1+( )
T1 T2

Setzt man die Gleichung 10.19 in der Gleichung 10.18 ein, erhält man,
p
2 2 2 2 2 2 2 2 T12 + T22 2 2
σC = ( q ) σT1 + ( q ) σT2 − ( ) σT 3 . (10.20)
T 1 + ( T2 ) 2 T 1 + ( T1 ) 2 T32
3 T1 3 T2

berücksichtigt man die Gleichungen 10.10, 10.14 und 10.15

2 2 2 C
σC = ( p )2 σT21 + ( p π
)2 σT22 − ( )2 σT23
T3 1 + tanϕ0 2 T3 1 + tan( 2 − ϕ0 ) 2 T3
2cosϕ0 2 2 2sinϕ0 2 2 C
= ( ) σT1 + ( ) σT2 − ( )2 σT23 (10.21)
T3 T3 T3
Um die 10.21 weiter zu vereinfachen, werden σT1 , σT2 und σT3 ausgeschrieben.

Wird der Konvertierungsfaktor von Photonen in ein digitales Signal als α (Photonen/digit)
definiert, beschreibt man die Varianz des Intensitätsrauschens mit der Gleichung 10.22

Ii α
σI2i = (10.22)
α2
Mit demselben Mechanismus kann man σT1 , σT2 und σT3 in den Gleichungen 10.23 - 10.25
herleiten,

M
X 2π 2 2
σT21 = cos((i − 1) ) σI i
M
i=1
M
X 2π 2 Im (1 + Ccos((i − 1) 2π
M ))
= cos((i − 1) )
M α
i=1
M M
1 X 2π X 2π
= Im cos((i − 1) )2 + αIm C cos((i − 1) )3
α M M
i=1 i=1
1 M
= Im + αIm C × 0
α 2
1 M
= Im , (10.23)
α 2
177

M
X 2π 2 2
σT22 = sin((i − 1) ) σIi
M
i=1
M
X 2π 2 Im (1 + Ccos((i − 1) 2π
M ))
= sin((i − 1) )
M α
i=1
M M
1 X 2π X 2π 2π
= Im sin((i − 1) )2 + αIm C sin((i − 1) )2 cos((i − 1) )
α M M M
i=1 i=1
1 M
= Im + αIm C × 0
α 2
1 M
= Im , (10.24)
α 2
und

M
X
σT23 = σI2i
i=1
M
X Im (1 + Ccos((i − 1) 2π
M ))
=
α
i=1
1 1
= Im M + Im C × 0
α α
1
= Im M. (10.25)
α
Setzt man die Gleichungen 10.23 - 10.25 in der Gleichung 10.21 ein, erhält man einen kompakten
Ausdruck für σC2 in der Gleichung 10.26,

2 2cosϕ0 2 1 M 2sinϕ0 2 1 M C 1
σC = ( ) Im +( ) Im − ( ) 2 Im M (10.26)
T3 α 2 T3 α 2 T3 α
2Im M C 2
= (cosϕ20 + sinϕ20 − )
αT32 2
2Im M C2
= 2 (1 − )
αT3 2
2Im M C2
= (1 − )
α(M Im )2 2
2 C2
= (1 − )
αIm M 2
4 C2
= 2 (1 − ). (10.27)
SN Rshrot ×M 2

Die Standardabweichung des Kontrastrauschens σC auf spiegelnden Oberflächen lässt sich mit
der Gleichung 10.28 beschreiben,
r
2 C2
σC = √ 1− . (10.28)
SN Rshrot × M 2
178 10 Anhang II

0.01 Simulation
0.009
Theorie

Kontrastrauschen s C
0.008
M=4

0.007

0.006

M=9
0.005

0.004 M=16

0.003 M=25

0.002
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Gitterkontrast C [0-1]

Abbildung 10.2: Die numerisch simulierten σC des Kontrastrauschens auf spiegelnden Oberflächen wer-
den bei M = 4, 9, 16 und 25 für SN RSchrot =100 bestimmt. Die Berechnung der
theoretischen Kurven erfolgt nach der Gleichung 6.8. Die große Abweichung an der
Stelle C = 0 liegt an der Nichtdifferenzierbarkeit der Gleichung 10.9, worauf sich die
Fehlerfortpflanzungrechnung basiert.

Die Richtigkeit der Gleichung 6.8 kann mit einer numerischen Simulation belegt werden, de-
ren Ergebnisse in der Abbildung 10.2 illustriert sind. Die Standardabweichung σC des Kon-
trastrauschens wird jeweils bei M = 4, 9, 16 und 25 für SN RSchrot = 100 für unterschiedliche
Kontrastwerte C ∈ [0, 1] numerisch simuliert und mit den nach der Gleichung 10.28 berech-
neten Ergebnissen verglichen. Dabei kann eine gute Übereinstimmung zwischen Theorie und
Simulation gezeigt werden.
179

Anhang III

Fehlerfortpflanzungsrechnung für Kontrastrauschen auf rauen Oberflächen


Das i-te gemessene M -phasenverschobene Kamerabild Ii beinhaltet drei Unbekannte: Die mit-
tlere Intensität Im , den Musterkontrast C und die Anfangsphase ϕ0 ,

Ii = Im {1 + Ccos[(i − 1) + ϕ0 ]} (10.29)
M
Durch die Gleichung 10.30 für die M-Phasenverschiebung lässt sich der Kontrast C aus den
Intensitäten der Kameraaufnahmen Ii berechnen,
q
(i−1)2π 2 (i−1)2π 2
2 ( M ) +( M
P P
i=1 Ii cos M i=1 Ii sin M )
C(I1 , I2 ...IM ) = PM (10.30)
i=1 Ii
Um die mathematische Analyse anschaulich zu halten, wird die Gleichung 10.30 in die Gleichung
10.31 umgeschrieben, wobei der Kontrast eine Funktion der Terme T1 und T2 ist.

T1 − T2
C(I1 , I2 ...IM ) = (10.31)
T1 + T2
mit

v
M u M M
1 X uX (i − 1)2π 2 X (i − 1)2π 2
T1 = ( I i + 2t ( Ii cos ) +( Ii sin ) )
M M M
i=1 i=1 i=1
= Im + CIm , (10.32)

und

v
M u M M
1 X uX (i − 1)2π 2 X (i − 1)2π 2
T2 = ( Ii − 2 (
t Ii cos ) +( Ii sin ) )
M M M
i=1 i=1 i=1
= Im − CIm . (10.33)

Der durch Specklerauschen bedingte Intensitätsfehler des i-ten phasenverschobenen Kamer-


abildes △Ii wird durch die Gleichung 10.34 formuliert,

△Ii = Ii ρ (10.34)
Der entsprechende Specklekontrast lautet,
σρ
CS = (10.35)
1
Kombiniert man die Gleichungen 5.11, 5.12 und 5.14, kann man die Standardabweichung des
Rauschens in T1 und T2 mit den Gleichungen 5.15 und 5.16 angeben,

σT1 = CS (Im + CIm ) (10.36)


180 10 Anhang III

σT2 = CS (Im − CIm ) (10.37)


Da das Rauschen von T1 und T2 zueinander korreliert ist, kann die Varianz des Kon-
trastrauschens σC2 mit der Gleichung aus GUM [164] über die kombinierte Messunsicherheit

von korrelierten Eingangsgrößen ausgedruckt werden. Das Ergebnis von der Varianz des Kon-
trastrauschens wird in 10.39 gezeigt,

2 ∂C 2 2 ∂C 2 2 ∂C ∂C
σC = ( ) σT1 + ( ) σT 2 + 2 σT σT r(△T1 , △T2 )
∂T1 ∂T2 ∂T1 ∂T2 1 2
2T2 −2T1 T1 T2
= ( )2 σT21 + ( )2 σT22 − 8 σT σT r(△T1 , △T2 )
(T1 + T2 )2 (T1 + T2 )2 (T1 + T2 )4 1 2
1−C 2 2 1+C 2 2
= ( ) CS (Im + CIm )2 + ( ) CS (Im − CIm )2 − ...
2Im 2Im
1 − C2 2 2
...2( 2
)CS Im (1 − C 2 )r(△T1 , △T2 ) (10.38)
4Im
(1 − C 2 )2 CS2 (1 − C 2 )2 CS2 (1 − C 2 )2 CS2
= + − r(△T1 , △T2 )
4 4 2
(1 − C 2 )2 CS2
= (1 − r(△T1 , △T2 )). (10.39)
2
Die Standardabweichung des Kontrastrauschens σC auf rauen Oberflächen lässt sich mit der
Gleichung 10.40 beschreiben,
1
σC = √ CS (1 − C 2 ) 1 − r(△T1 , △T2 )
p
(10.40)
2
Eine numerische Simulation wurde durchgeführt, um die Gleichung 10.40 zu verifizieren. Dabei
wurde die Oberflächenrauigkeit mit uniform verteilten Zufallszahlen modelliert und dnach der
Reflexion als Wellenaberration zu dem Phasenterm einer ebenen Wellen addiert. Die Am-
plituden der ebenen Wellen sind räumlich mit Gitterfrequenz zwischen 0.1 und 1 moduliert,
um die projizierten Sinusmuster zu modellieren. Diese abberierte Wellenfront wird zuerst in
Amplituden mit kohärenter PSF gefaltet und anschließend durch Quadrierung zur Intensität
umgerechnet. Zur Simulation unterschiedlicher Speckle-Kontraste wird die resultierende In-
tensitätsverteilung mit kohärenter PSF mit unterschiedlichen Größen gefaltet. Dieser Vorgang
wird viermal wiederholt für vier phasenverschobene Aufnahmen und Kontrast wird aus den
vier Intensitätswerten in jedem Pixel nach der Gleichung 10.30 berechnet. Die resultierende
Kontrastrauschen für jeder Gitterfrequenz-Specklekontrast-Kombination sind in der Abbildung
10.3 (a) dargestellt, wobei die Korrelationskoeffizient r(△T1 , △T2 ) in der Abbildung 10.3 (d)
gezeigt. Wie in der Abbildung 10.3 (c) dargestellt, die nach der Gleichung 10.40 berechnete
Kontrastrauschen (Abbildung 10.3 (b)) zeigt eine Abweichung zwischen -35% und 20%, durch
das eine gute Übereinstimmung bestätigt wird.
181

Numerisch simuliertes Kontrastrauschen Analytisch berechnetes Kontrastrauschen

0.22
0.25 0.25
Kontrastrauschen 

0.14
0.2

Kontrastrauschen 
0.2 0.2
0.12 0.18
0.15 0.15
0.16
0.1 0.1 0.1
0.14
0.05 0.05
0.08 0.12
0 0
0.1
2 2
0.06
No

0.08
No

1.5
rm

1.5
r mi

0.06
ier

0.04
er

te

1
te

1 0.04
Gi
Gi

tte

0.02
tte

0.5 0.02
rfr

0.5 1
rfr

1 0.8
eq

0.8 0.6
eq

0.6 0.4
u

0.4 0
u

0.2
en

0 0.2
en

0 0
z
z

Speckle-Kontrast [0-1]
[0
[0

-2

Speckle-Kontrast [0-1]
-2

]
]

(a) (b)
Vergleich zwischen theoretisch and numerisch berechneten Kontrastrauschen
Numerisch simuliertes Korrelationskoeffizient r()
Korrelationskoeffizient r() [-1 1]

1.2
1
Theory) /(Numerik)

1.5 1
1.1 0.95

1 0.8
1 0.9
0.6
0.5
0.85
0.9
0.4
0
0.8
2 0.8 0.2
No

0.75
rm

1.5 0
0.7
ier

0
te

0.7
1
Gi

0.6
Sp
ec
tte

1 kle
r

0.5 0.65
fre

0.5 0.8 -K
qu

0.6
0.5 on 2
0.4 tra 1.5
en

0 0.2 1 0.6
st
z

0 1 0.5
[0 0
[0

-1 [0-2]
Normierte Gitterfrequenz
Speckle-Kontrast [0-1]
-2

]
]

(c) (d)

Figure 10.3: Numerische Verifizierung für das analytische Model des Kontrastrauschens bei einer 4-
Phasen-Schiebung (Gleichung 10.40). (a) Standardabweichung des numerisch simulierten
Kontrastrauschens. (b) Analytisch berechnete Standardabweichung des Kontrastrauschens
nach der Gleichung 10.40. (c) Vergleich der theoretisch und numerisch berechnetes Kon-
trastrauschen: die Abweichung liegt zwischen -35% - + 20%. (d) Numerisch berechnetes
Korrelationskoeffizient r(△T1 , △T2 ).
182 10 Anhang III
183

Anhang IV

Vergleich der numerischen Genauigkeit von Polynom und RBF


Retrace-Fehler dz in z-Richtung [mm]

Retrace-Fehler dz in z-Richtung [mm]


0.5 0.5

Nei Neig
gun ung
swin ]
gsw kel tung [°
inke ng [°
] in y x-Rich
l in -Rich
tu -Ric swin kel in
y-R
ic ke l in x htun
g [° Neigung
0.5 htu
ng
[°] Neig
un gswin
0.5 0.5 ] 0.5

(a) (b)
Restfehler der RBF-Interpolation [mm]
Restfehler des Polynomfits [mm]

PV = 0.57µm
0.5 0.5
PV = 1.7µm

Neig Neig
ung ung
swin
kel htun g [°] swin g [°]
in y x-Ric kel ichtun
-Ric el in in y el in x-R
htun ng swink -Ric swink
g [° Neigu
htun
Ne igung
0.5 ] 0.5 0.5 g [°
] 0.5

(c) (d)

Abbildung 10.4: (a) Numerisch simulierte z-Komponente dz des Retrace-Fehlers bei einem Objektiv mit
NA=0.5, der parametrisierten sphärische Aberration mit ω040 = 4λ und dem Zentrum
des Messfeldes h = 0. (b) 18 x 18 gleichmäßig am Gitter verteilte Messpunkte sind
ausgewählt und mit numerisch generiertem Rauschen mit σRauschen = 0.1µm linear
kombiniert. An den diskret verrauschten Messpunkten wird jeweils eine Approxima-
tion mit Polynomfunktion und eine Interpolation mit RBF-Funktion durchgeführt.
Dadurch können die Funktionswerte an allen Messpunkten interpoliert und mit den
originalen simulierten Werten verglichen werden. (c) Die Abweichung der mit Poly-
nomfit (Ordnung N = 5) interpolierten Werte von dem simulierten Datensatz in (a).
(d) Die Abweichung der mit RBF-Funktion interpolierten Werte von den simulierten
Datensatz in (a).

Die numerische Genauigkeit der in Abschnitt 8.2.2 beschriebenen Methoden der Ausgleichsrech-
nung (Polynom und RBF) wird bei einem verrauschten Datensatz untersucht. Der zu fittende
Funktionsverlauf (siehe Abbildung 10.5 (a)) wird mittels des im Abschnitt 5.3 beschriebenen
Modells mit großer Datendichte bei einem mit sphärischer Aberration behafteten Objektiv mit
NA=0.5 simuliert. Wie in der Abbildung 10.5 (b) gezeigt wird, sind 18 x 18 Messpunkte, die
gleichmäßig im Raster stehen, zum Testen der Genauigkeit von beiden Methoden ausgewählt.
Darauf wird Rauschen mit σRauschen = 0.1µm addiert. Die Genauigkeit der numerischen
184 10 Anhang IV

Approximations- bzw. Interpolationsmethoden bei verrauschten Daten kann damit getestet


werden, indem man aufgrund den verrauschten diskreten Messdaten mit beiden Methoden die
Werte an denselben Stellen des simulierten Datensatzes in der Abbildung 10.4 (a) approximiert
und interpoliert. Die Abweichung (siehe Abbildung 10.4 (c) und (d)) der interpolierten Werten
von den originalen Simulationsdaten liefert ein Maß für die numerische Genauigkeit.

Mit der Abbildung 10.4 wird unter Beweis gestellt, dass die RBF-Funktion bei verrauschten
Daten über den ganzen Datensatz hinweg über eine bessere numerische Genauigkeit verfügt.
Insbesondere können die Werte im Zentrum bei größerer Oberflächenkrümmung im Gegen-
satz zum Polynom besser mit der RBF-Funktion beschrieben werden. Um diesen Beweis aus-
sagekräftiger zu gestalten, werden diese Operationen bei 10 unterschiedlichen Rauschwerten mit
Standardabweichung σRauschen im Interval [0.08 µm, 0.15 µm] jeweils 100-mal durchgeführt. In
der Abbildung 10.5 werden die mittleren Standardabweichungen σF ehler des Restfehlers gegen
die Standabwerichung des Rauschens σRauschen dargestellt. Damit kann man zeigen, dass falls
der Funktionsverlauf eine starke Veränderung hat, RBF eine bessere numerische Genauigkeit
als die Polynom-Approximation erzielt. Zum anderen liegt der mit RBF erzielte Restfehler in
derselben Größenordnung wie das Messrauschen.

RBF
-4
x 10 Polynom
2.2

1.8

1.6
Fehler [mm]

1.4

1.2

0.8

0.6
0.9 1 1.1 1.2 1.3 1.4 1.5 1.6
Rauschen [mm] x 10
-4

Abbildung 10.5: Standardabweichung der Abweichung der interpolierten Werte von den Sollwerten bei
der Approximation mit Polynom-Funktion und Interpolation mit RBF-Funktion
185

Anhang V

Herleitung der Gleichung 7.14 für die “Single-Side-Band”-Demodulation


Fouriertransformation von einer Cosinus-Funktion:

1
ˆ
F {cos(αz + β)} = (ei(az+β) + e−i(az+β) )e−2iπzν
2
1 iβ 1 −iβ
ˆ ˆ
α α
)
= e e −2iπz(ν− 2π
dz + e e−2iπz(ν+ 2π ) dz
2 2
1 iβ α 1 α
= e δ(ν + ) + e−iβ δ(ν − ) (10.41)
2 2π 2 2π

Originales Intensitätssignal I(z):

2π(z − z0 )
I(z) = I0 + I0 C(z)cos( + ϕ0 ) (10.42)
△sM
Man kann die Gleichung 10.42 in die Gleichung 10.43 umschreiben:

I(z) = I0 + I0 C(z)cos(αz + β) (10.43)


2π 2πz0
wobei α = △sM und β = ϕ0 − △sM .

Fouriertransformation von I(z):

 
1 α 1 α
F {I(z)} = F {I0 } + F {I0 C(z)} ⊗ eiβ δ(ν + ) + e−iβ δ(ν − ) (10.44)
2 2π 2 2π

Ausschneiden des rechten Terms:


 
1 −iβ α
F {I(z)}SSB = F {I0 C(z)} ⊗ e δ(ν − ) (10.45)
2 2π

Intensitätssignal ISSB (z) nach der Rücktransformation vom gefilterten Spektrum F {I(z)}SSB :

  
−1 1 −iβ α
ISSB (z) = F F {I0 C(z)} ⊗ e δ(ν − )
2 2π
1 −iβ −1 n α o
= e · F {F {I0 C(z)}} · F−1 δ(ν − )
2 2π
1 −iβ
= e · I0 C(z) · e−iαz
2
1
= I0 C(z)e−i(αz+β)
2
1 2π(z−z )
−i( △sM 0 +ϕ0 )
= I0 C(z)e (10.46)
2
186 10 Anhang V
187

Danksagung

Zuerst bedanke ich mich bei Herrn Prof. Leuchs für die Aufnahme an den Lehrstuhl für Optik
und die Breitstellung der Finanzierungsmöglichkeit durch Max-Planck-Stipendium.

Ein besonderer Dank gilt meinem Doktorvater und Mentor Herrn Prof. Häusler. Durch die
Aufnahme in seiner Gruppe OSMIN und Finanzierung während meiner Masterarbeit und
Promotion darf ich das Neuland von optischer Messtechnik bzw. Physik entdecken. Dabei
habe ich nicht nur das Wissen erworben sondern auch eine strukturierte Denkweise zum
Problemlösen und Präsentieren erlernt. Diese wertvolle Fähigkeit hat beim Erfüllen von Zielen
in meiner Karriere die entscheidende Rolle gespielt und wird in Zukunft auch mich bei meiner
Weiterentwicklung unterstützen.

Außerdem möchte ich insbesondere bei meinen Kollegen in OSMIN Gruppe bedanken. Für
Abschluss des ersten Projektes in meiner anfänglichen Zeit haben Dr. Svenja Ettl, Dr. Ondrej
Hybl, Dr. Oliver Arold, Dr. Weiguo Xie und Dr. Peter Vogt mich unterstützt bzw. betreut.
Mit Prof. Dr. Christian Faber konnte ich immer fruchtvolle Diskussion haben und von ihm
wegweisende Anmerkungen bekommen. Frau Evelyn Olesch hat mir bei Algorithmen von
Kalibrierung und Auswertung von PMD beraten und steht jeder Zeit gerne für Diskussionen
zur Verfügung. Dr. Yuankun Liu aus Sichuan Universität bracht mich zur Idee der Implemen-
tierung des Kreuzgitters beim SIM und µPMD. Frau Dr. Irina Harder von ODEM Gruppe hat
stets die Kalibrierplatte mit hervorragender Präzision zeitnah zur Verfügung gestellt. Durch
Diskussion und Zusammenarbeit haben auch unter anderen die folgenden Kollegen zu dieser
Arbeit beigetragen: Dr. Claus Richter, Dr. Jürgen Karminski, Dr. Markus Seraphim, Nawras
Alhamwi, Dr. Hongwei Guo, Sandy Peterhänsel, Jiapeng Huang, Dennis Sprenger, Dr. Franz
Huber, Tamas Gal, Dr. Florian Willomizer, Christian Röttinger, Roman Krobot, Hanning
Liang und Florian Schiffers.

An dieser Stelle möchte ich noch herzlich bei unserer SIM-Mannschaft bedanken. Christoph
Kranitzky hat das Grundstein für SIM mit seinen Messergebnissen gelegt. Mit Markus Vogel
konnte ich am Anfang durch zahllose Diskussionen mit ihm die Forschungsthemen an SIM
gemeinsam ausarbeiten. Das initiale Model für Messunsicherheit wurde von Alexander Kessel
erstellt. Philip Dienstbier hat die Hochskalierung von SIM erprobt. Alexander Bielke hat die
„fliegende“ Phasenschiebung beim kontinuierlichen axialen Verfahren untersucht und imple-
mentiert. Die Optimierung der Kalibriermethode zur Kompensation der Retrace-Fehler wurde
von Salah Awel durchgeführt. Max Müller hat die Kreuzgittermethode beim SIM und µPMD
umgesetzt und verifiziert. Dank deren erfolgreichen Arbeiten konnte ich ihre Ergebnissen in
meiner Dissertation miteinbeziehen.

Viele in dieser Arbeit präsentierte Ergebnisse sind während des Förderprojekts durch DFG
erarbeitet. Ich möchte mich an dieser Stelle noch beim Deutsche Forschungsgemeinschaft
(DFG) für die finanzielle Förderung des Projekts HA 1319/13-1 bedanken.

Weiterhin danke ich noch herzlich der Frau Elizabeth Erhard und Frau Margit Dollinger für
ihre wertvolle administrative Unterstützung.
188 10 Danksagung

Für schriftliches Verfassen dieser Arbeit standen noch Florian Schiffers, Max Müller und Prof.
Dr. Christan Faber bei mir zur Seite für Sicherstellung der sprachlichen und inhaltlichen Rich-
tigkeiten. Ohne eures Korrekturlesen wären meine Arbeitsergebnisse nicht so leicht zu erkennen.

Nicht zuletzt möchte ich meinen größten „Dank Schön“ an meine Familie richten. Meine Eltern
haben mir alles nötiges verschafft, um eine gute Ausbildung zu ermöglichen. Insbesondere,
meine Mutter hat alles getan, damit ich in Deutschland weiter studieren und meine Ziele
verfolgen kann. Meine Frau Lijuan Wang hat in zahllosen Tagen und Nächten stets hinter mir
gestanden, damit ich sorglos diese Arbeit zum Ende bringen kann.

Das könnte Ihnen auch gefallen