DIPLOMARBEIT
vorgelegt von
Thorsten Bothe
und
Jan Burke
Inhaltsverzeichnis
1 Einleitung ......................................................................................................................7
2 ESPI und Phasenschieben............................................................................................9
2.1 Elektronische Specklemuster-Interferometrie..........................................................9
2.2 Das Phasenshiftverfahren.......................................................................................11
2.2.1 Zeitliches Phasenschieben............................................................................12
2.2.2 Räumliches Phasenschieben.........................................................................14
3 Theoretische Grundlagen zum räumlichen Phasenschieben ..................................24
3.1 Zwei-Wellen-Interferogramme ..............................................................................24
3.2 Erzeugung eines linearen Phasenfaktors................................................................25
3.2.1 Linearer Phasenfaktor bei quasi-ebener Objektwelle...................................25
3.2.2 Linearer Phasenfaktor bei sphärischer Objektwelle .....................................26
3.3 Grundlagen zur Phasenbestimmung mit Hilfe des linearen Phasenfaktors ...........28
3.3.1 Grundsätzliche Bedingungen für die Auswertbarkeit räumlich
phasengeschobener Interferogramme...........................................................29
3.3.2 Aufnahme der Interferogramme per CCD-Sensor .......................................30
3.3.3 Phasenbestimmung über benachbarte Pixel .................................................32
3.4 Algorithmen zur Phasenbestimmung.....................................................................34
3.4.1 Allgemeine Methode zur Lösung des 3-Schritt-GLS...................................34
3.4.2 3-Schritt-Methode für beliebige Phasenschiebewinkel α ............................35
3.4.3 3-Schritt-Methode für 90° und 120° Phasenvorschub .................................35
3.5 Demodulation des berechneten Phasenwinkelintervalls von π nach 2!π..............36
3.6 Gleitende Phasenberechnung beim SPS ................................................................38
3.7 Untersuchung von Verformungen: Differenzphasen..............................................39
4 Fehler bei der Phasenrekonstruktion .......................................................................40
4.1 Übersicht auftretender Fehler ................................................................................40
4.2 Streifige Erscheinungsform von Phasenfehlern durch die gleitende
Phasenberechnung.................................................................................................41
4.2.1 Erscheinungsbild der Fehler für Übersteuerung bei ∆α = 90° .....................41
4.2.2 Grund für das Auftreten von Streifen hoher Ortsfrequenz...........................42
4.3 Vergleich verschiedener Phasenvorschübe (3-Schritt)...........................................43
4.3.1 Statistische Fehler ........................................................................................43
4.3.2 Digitalisierungsfehler ...................................................................................46
4.3.3 Übersteuerungsfehler (Simulation) ..............................................................46
4.3.4 Wahl des Phasenschiebe-Winkels ................................................................48
4.4 Falscher Phasenvorschub und Phasenabweichung 1.Ordnung ..............................48
4.4.1 Fehler durch falschen Phasenvorschub ........................................................48
4.4.2 Umdeutung für Phasenabweichungen 1. Ordnung.......................................51
4.5 Fehler durch nicht-konstanten Phasengradienten bei Fokusversatz ......................51
4.6 Fehler durch Helligkeitsschwankungen der Objektwelle (Speckles).....................52
4 Inhaltsverzeichnis
5 CCD-Bildwandler.......................................................................................................56
5.1 Einführung.............................................................................................................56
5.2 CCD-Technologie..................................................................................................58
5.2.1 Ladungserzeugung und -speicherung...........................................................58
5.2.2 Ladungstransport..........................................................................................60
5.2.3 Bauweisen ....................................................................................................64
5.3 Bildübertragung und -verarbeitung........................................................................70
5.3.1 Übertragungsfunktion ..................................................................................70
5.3.2 Pixelsynchronisation ....................................................................................73
5.3.3 Shutter und andere Elektronik .....................................................................75
5.3.4 Entfernen der Schutzscheibe........................................................................78
5.3.5 Die verwendete Kamera...............................................................................79
6 Realisierung des räumlichen Phasenschiebens........................................................80
6.1 Michelson-Interferometer ......................................................................................80
6.1.1 Justierung .....................................................................................................82
6.1.2 Einfluß der optischen Komponenten ...........................................................83
6.1.3 Einfluß der Pixelsynchronisation .................................................................85
6.1.4 Shutter und Halbbilder.................................................................................87
6.2 Speckle-Interferometer ..........................................................................................88
6.2.1 Justierung .....................................................................................................91
6.2.2 Anwendungen ............................................................................................105
6.2.3 Vergleich von Berechnungsmethoden für Sägezahnbilder......................... 114
7 Zusammenfassung und Ausblick ............................................................................120
8 Literatur ....................................................................................................................122
Anhänge 5
Anhänge
Abkürzungsverzeichnis
1 Einleitung
Die seit der industriellen Revolution beständig ansteigende Umweltbelastung hat in den letzten
Jahrzehnten das Stadium der Umweltzerstörung erreicht; das Waldsterben ist nur ein Beispiel für
die tiefgreifenden Folgen dieser Entwicklung. Die Wirkung des sauren Regens macht jedoch
auch vor totem Material nicht halt. Seit etwa der Mitte dieses Jahrhunderts ist an alten Gebäuden
ein Verfall erkennbar, der mit zum Teil dramatischer und immer noch wachsender
Geschwindigkeit voranschreitet. Dem Versuch, Gegenmaßnahmen zu ergreifen, muß eine
Untersuchung der Zerstörungsmechanismen und der verschiedenen Umwelteinflüsse
vorausgehen. Solche Untersuchungen werden in der Arbeitsgruppe Angewandte Optik an der
Carl von Ossietzky Universität Oldenburg zum Teil vom BMBF gefördert.
Grundsätzlich beginnt der Verfall auf einer mikroskopischen Skala und wird erst im Laufe
einiger Jahre auch mit bloßem Auge erkennbar. Um genauere Daten und Einsicht in den Ablauf
der Schädigungen zu bekommen, bedarf es daher einer Meßmethode, die mit hoher
Empfindlichkeit arbeitet und das Objekt der Beobachtung nicht verändert, d.h. berührt. Diese
Bedingungen können durch kohärent optische Messungen erfüllt werden. Die zu untersuchenden
Oberflächen werden mit kohärentem Licht bestrahlt; die Veränderung der rückgestreuten
Wellenfront wird interferometrisch bestimmt und ergibt ein Maß für Art und Größe der
Oberflächenänderung. Die Empfindlichkeit liegt bei etwa 0.1 µm und der Meßaufbau arbeitet
orts- und zeitauflösend.
Die Arbeitsgruppe Angewandte Optik an der Carl von Ossietzky Universität Oldenburg befaßt
sich mit der Entwicklung und Optimierung von Verfahren und Geräten für die interferometrische
Vermessung optisch rauher Oberflächen, wie sie in der Regel an den Meßobjekten zu finden
sind. Ein vielseitiges und bewährtes Grundprinzip dieser Aufbauten ist die Elektronische
Specklemuster-Interferometrie (electronic speckle pattern interferometry, ESPI). Diese bietet
durch den Einsatz elektronischer Bildverarbeitung die Vorteile der Echtzeitfähigkeit und der
Mobilität, die das Verwenden photographischer oder holographischer Medien nicht leisten kann.
Mit diesem Verfahren können Mikrostrukturveränderungen, Verformungen und Vibrationen von
Objekten gemessen werden.
Die Korrelationsstreifenmuster, die man mit dieser Methode typischerweise erhält, sind jedoch
kein sehr genaues Maß für Objektveränderungen, da ihr Betrag nur ungefähr und bei statischen
Deformationen die Verformungsrichtung gar nicht bestimmt werden kann. Um die dazu
notwendigen Informationen zu gewinnen, müssen mehrere Korrelationsstreifenbilder
aufgenommen werden, in denen die Streifen jeweils um einen bestimmten Betrag versetzt sind;
dieser Ansatz ist unter dem Begriff Phasenschiebeverfahren (phase shifting) bekanntgeworden.
8 Einleitung
Diese Meßmethode setzt jedoch voraus, daß die Phasenlage von Objekt- und Referenzstrahl sich
zwischen den Aufnahmen der phasengeschobenen Bilder nur um den vorgegebenen Betrag
ändert; Fluktuationen, wie sie sich aus einer schnell ablaufenden Objektveränderung, der
Anwesenheit turbulenter Luftströmungen oder Erschütterungen des Meßaufbaus ergeben, führen
bei der Rekonstruktion der Objektphase zu falschen oder schwer deutbaren Ergebnissen.
Dieses Problem ergibt sich aus dem zeitlichen Abstand der Aufnahmen. Die Zeitspanne
zwischen den Aufnahmen von Anfangs- und Endzustand des Objekts kann wohl minimiert,
natürlich aber nicht beseitigt werden; der zeitliche Abstand der Phasenshiftbilder dagegen ist
bislang technisch bedingt und unerwünscht. Es muß also ein Weg gefunden werden, die nötigen
Phasenshiftbilder gleichzeitig aufzunehmen. Im Rahmen der vorliegenden Diplomarbeit ist diese
Aufgabenstellung mit dem Einsatz des räumlichen Phasenschiebens bearbeitet worden.
Wir wollen im folgenden das Konzept des räumlichen Phasenschiebens und seine bisherige
Realisierung beschreiben. Aus den besonderen Anforderungen an räumlich phasengeschobene
Interferogramme ergeben sich theoretisch und praktisch einige Konsequenzen. Insbesondere
treten andere Arten von Meßfehlern auf, und auf die Auslegung des Bildaufnehmers muß
erhebliche Sorgfalt verwendet werden. Grundlegende Vorarbeiten wurden mit einem Michelson-
Interferometer durchgeführt. Die Umsetzung des Verfahrens in der Specklemuster-
Interferometrie wird für einen quasi-out of plane-Meßaufbau gezeigt.
ESPI und Phasenschieben 9
Dieses Kapitel beschäftigt sich zunächst kurz mit dem Prinzip der elektronischen Specklemuster-
Interferometrie; anschließend wird das Konzept des Phasenschiebens erläutert und der zeitliche
Ansatz mit dem räumlichen verglichen. Zu letzterem werden einige grundlegende Arbeiten
vorgestellt. Die hier beschriebenen Voraussetzungen für das räumliche Phasenschieben werden
in Kapitel 3 detailliert behandelt; auf praktische Aspekte geht Kapitel 6 ausführlicher ein.
Die Tatsache, daß auch diffus streuende Objekte eine interferometrische Vermessung ihrer
Oberfläche erlauben, wird in [But71] erstmals betont. Anhand einiger Beispiele wird
demonstriert, daß Information über Objektphasen aus Specklemustern des Objekts gewonnen
werden kann, und eine Röhrenkamera zur Aufzeichnung derselben benutzt.
Von diesem Ansatz ausgehend, hat sich in der Folge die elektronische Specklemuster-
Interferometrie (ESPI) entwickelt. Beim ESPI-Verfahren wird das herkömmliche
Aufzeichnungsmedium für Interferogramme – holographischer oder thermoplastischer Film –
durch eine Kombination aus elektronischem Bildwandler und digitalem Speicher ersetzt. Der
Nachteil hierbei ist die wesentlich geringere räumliche Auflösung des Bildaufnehmers; durch
geeignete Wahl der Abbildungsgeometrie kann aber die Objektauflösung dem Meßproblem
angepaßt werden. Außerdem wird bereits in [But71] darauf hingewiesen, daß die hohe Auflösung
holographischer Emulsionen in der Interferometrie meist überflüssig ist. Die Vorteile eines
elektronischen Systems sind Echtzeitfähigkeit und sehr flexible Einsetzbarkeit.
Referenzstrahl
Objektbeleuchtung
Sensor
Objektiv Strahlteiler
und Blende
Kamera
Beleuchtetes Objekt
Abb. 2.1: Out of plane-ESPI-Aufbau. Die verspeckelte Objektwelle interferiert mit dem per Strahlteiler
eingekoppelten Referenzstrahl.
Beim Einsatz einer Abbildungsoptik muß der Referenzstrahl auf die Blendenebene fokussiert
werden, damit seine Wellenfront am Ort des Bildaufnehmers gleiche Krümmung hat wie die
Objektwellenfront; andernfalls entstehen zusätzliche Interferenzen, die den Kontrast der
Sekundärinterferogramme verschlechtern, falls die Kamera sie nicht mehr auflösen kann. Die
Blende wird so eingestellt, daß die Specklegröße etwa der effektiven Pixelgröße des Detektors
entspricht. Bei zu kleinen Speckles (große Blendenöffnung) sinkt durch räumliche Mittelung die
Modulationstiefe; bei zu großen Speckles (kleine Blendenöffnung) nimmt die räumliche
Auflösung der Messung ab und durch die zu kleine Blende wird Intensität verschenkt. Durch die
Wahl der Beleuchtungsgeometrie kann der Meßaufbau für out of plane-, d.h. zur abgebildeten
Fläche senkrechte Bewegungen, in plane-, d.h. flächenparallele Bewegungen, oder Mischungen
davon wie in Abb. 2.1 empfindlich gemacht werden [Jon83].
Wegen des Specklerauschens ist es schwierig, die Streifenmitten und damit die Linien gleicher
Verformung zu bestimmen. Außerdem muß zwischen den Streifenmitten interpoliert werden, so
daß die Genauigkeit dieser Methode nur etwa λ/10 beträgt.
ESPI und Phasenschieben 11
Die Möglichkeiten von ESPI werden durch den Einsatz des Phasenshiftverfahrens entscheidend
erweitert und verbessert; unter anderem wächst die Meßgenauigkeit gegenüber dem einfachen
ESPI-Verfahren um eine bis zwei Größenordnungen. Die Grundidee dabei ist, die
cosinusförmige Intensitätsmodulation auf geeignete Weise umzurechnen, so daß die wirklichen
Phasenwerte eindeutig bestimmt werden können [Nak85, Cre85]. Die Ausgangsgleichung hierzu
lautet
(2-1) Ii = I 0 (1 + γ ⋅ cos (φ + α i ))
mit
I0: Grundintensität
γ : Modulationsgrad
Diese Gleichung enthält drei Unbekannte; um φ zu bestimmen, müssen also mindestens drei
linear unabhängige Messungen vorliegen. Dazu werden drei oder mehr Bilder aufgenommen, in
denen der optische Weg des Referenzstrahls und damit seine Phasenlage zum Objektstrahl
jeweils um einen bestimmten Betrag verändert wird; man erhält damit einen Satz sogenannter
Phasenbilder.
Im Prinzip ist es möglich, aus den Phasenbildern direkt die Phasenverteilung eines
Specklemusters zu berechnen und dann die Specklephasen vor und nach der Verformung des
Objekts voneinander zu subtrahieren [Cre85, Rob86]. Üblicherweise wird aber mit
Korrelationsstreifen gerechnet. Hierbei gibt es zwei Möglichkeiten: zum einen kann zu Beginn
der Messung der Ausgangszustand des Objekts in Phasenbildern gespeichert werden, so daß vom
verformten Zustand nur noch ein einziges Bild genommen werden muß. Meistens wird jedoch
vom Anfangszustand ein einzelnes Bild aufgenommen und anschließend mehrere Phasenbilder
nur vom verformten Zustand aufgezeichnet. Die Subtraktion des Anfangsbildes von jedem dieser
Bilder führt zu Korrelationsstreifenbildern mit jeweils unterschiedlicher Streifenstellung. Aus
diesen kann nun die Phasenänderung des Objektlichtes und dann aus den geometrischen
Gegebenheiten die Verformung gewonnen werden.
12 ESPI und Phasenschieben
N
∑ I i ( x , y ) ⋅ sin α i
tan φ = =
i 1 i
(2-2) N
mit α i = 2π ⋅
N
∑ I i ( x , y ) ⋅ cos α i
i =1
[Bru74, Kin88], der von den sogenannten heterodyning-Verfahren seit langem bekannt ist, wird
die mit N Phasenschritten abgetastete, cosinusförmige Intensitätsmodulation eines jeden
Bildpunkts auf einen Tangens abgebildet. Die Herleitung dieser Formel ist einfach und wird in
A2 nachvollzogen. Die Umkehrfunktion ist dann der Hauptzweig des Arcustangens und liefert
die Objektphasenwerte zunächst modulo π. Durch Betrachten der Vorzeichen von Zähler (# sin
φ) und Nenner (# cos φ) wird jedoch eine Zuordnung zu den Quadranten des Winkels möglich,
so daß am Ende dieser Berechnung das modulo 2π- Bild steht, in dem die Phaseninformation bis
auf ganzzahlige Vielfache von 2π vorliegt (vgl. 3.5). Diese wird meist in Grauwerten codiert und
das Intervall [0°, 360°) den Grauwerten 0 bis 255 zugeordnet. Wegen des Zurückspringens vom
Phasenwert 2π nach 0 hat sich hierfür auch der Begriff Sägezahnbild eingebürgert.
Die übliche Realisierung eines Phasenschiebeaufbaus ist ein ESPI-System, dessen Referenzstrahl
z.B. über einen beweglichen Spiegel umgelenkt wird. Durch leichtes Verschieben dieses Spiegels
mittels eines Piezotranslators kann die relative Phasenlage des Referenzstrahls eingestellt
werden. Es gibt noch etliche andere Möglichkeiten, den optischen Weg des Referenzstrahls zu
verändern [Cre93]; diese sollen uns jedoch nicht weiter beschäftigen. Je nach Ansteuerung des
Phasenmodulators wird das stepping-Verfahren oder das integrating bucket-Verfahren
implementiert. Ersteres arbeitet mit festen Phasenschritten, die während des Aufnehmens der
einzelnen Phasenbilder jeweils konstant sind; bei letzterem wird die Phase des Referenzstrahls
während des Aufnehmens weitergeschoben, so daß die Aufnahmen jeweils ein Integral über ein
Phasenintervall fester Größe bilden [Wya75]. Die Verfahren unterscheiden sich lediglich in der
maximalen Intensitätsmodulation der Aufnahmen; gilt für das step-Verfahren (2-1) , so wird
diese nach Auswerten des Integrals über das entsprechende Winkelintervall zu
∆α
(2-3) Ii = I 0 (1 + γ sinc ( ) cos (φ + α i )) ,
2
ESPI und Phasenschieben 13
wobei ∆α den Winkelbetrag der Phasenschritte bezeichnet. Es wird also in jeder Gleichung dem
Modulationsterm ein Faktor <1 hinzugefügt; beispielhafte Werte werden in 3.3.2 angegeben. An
(2-2) ist sofort zu sehen, daß dieser Faktor sich insgesamt heraushebt und somit – vom
verringerten Signal-Rauschabstand abgesehen – die Phasenberechnung nicht beeinflußt. Abb. 2.2
verdeutlicht den Ablauf der Phasenbildgewinnung, hier für drei Phasenbilder.
αi I3 αi
I3
I2 I2
I1 I1
t t
∆t ∆t
Abb. 2.2: Die Interferogrammaufnahme im zeitlichen Phasenschieben, links: step-Verfahren, rechts: bucket-
Verfahren. Der zeitliche Verlauf der Intensitäten bezieht sich jeweils auf ein und denselben Meßpunkt..
Beim step-Verfahren muß vor jeder Aufnahme das Ausschwingen des Piezokristalls nach dem
Verschiebeschritt abgewartet werden, um den exakten Phasenshift und ein stehendes Bild zu
erhalten; in [Har83] wird für das Ausschwingen eine Zeitspanne von etwa 3 ms angegeben. Beim
bucket-Verfahren dagegen lassen sich die Phasenbilder unmittelbar nacheinander aufnehmen, so
daß ∆t verringert werden kann.
In das Gleichungssystem zur Phasenrekonstruktion geht die Annahme ein, daß die Objektphase
in allen Phasenbildern gleich, d.h. zeitlich konstant ist. Deshalb muß die gesamte Zeitspanne der
Datenaufnahme klein sein gegen die Zeit, in der das Objekt sich verändert oder andere
Phasenfluktuationen auftreten. Als Voraussetzungen für den Betrieb eines solchen Systems sind
also Vibrationsarmut der Umgebung und Turbulenzarmut des Mediums in den Strahlengängen
zu nennen. Außerdem ist dieses Verfahren zur Phasenbestimmung schnell beweglicher Objekte
nur bedingt geeignet.
In [Wiz90] wird eine Meßmethode angegeben, die alle drei Unbekannten bestimmt, aber nur
zwei phasengeschobene Bilder, d.h. einen Verschiebeschritt benötigt und deshalb für Störungen
weniger empfindlich ist; das dritte notwendige Bild kann zu jedem beliebigen Zeitpunkt
aufgenommen werden. Für ein mobiles Interferometer wird in [Kon95] der arbitrary bucket–
Algorithmus vorgestellt, der für beliebig viele Phasenschritte beliebige, sogar paarweise
unterschiedliche Phasenvorschübe automatisch erkennt und in einem Iterationsverfahren
rechnerisch kompensiert.
14 ESPI und Phasenschieben
Unter Laborbedingungen erweist sich das zeitliche Phasenschieben als sehr genaue Meßmethode;
die Wiederholbarkeit guter Messungen liegt bei λ/1000 [Har87]. Da die Anzahl und die Größe
der Phasenschritte im Prinzip frei wählbar sind, kann ein überbestimmtes LGS gewonnen
werden, wodurch das Einbeziehen einer weiteren Variable möglich wird. Mit vier Messungen
z.B. kann zusätzlich der Phasenvorschub ∆α bestimmt werden; dieser wird dann beliebig und ein
Meßfehler durch falschen Phasenvorschub tritt nicht mehr auf [Car66]. Ein anderer Ansatz für
die Behandlung des überbestimmten Systems ist die Rekonstruktion der Objektphase nach dem
Prinzip der kleinsten Fehlerquadrate [Sel84]. Hier ist im allgemeinen eine Matrizengleichung zu
lösen; werden jedoch wie üblich konstante Phasenschritte von 2π/N eingesetzt und N Meßwerte
aufgenommen, reduziert sich die Lösungsformel auf Gl. 2.2 [Mor82, Gre84, Yat84].
Eine Erhöhung von N führt zu einer Abnahme des Rauschens mit 1/ N -Abhängigkeit. Dies ist
für jedes einzelne Phasenbild auch durch Aufnehmen und Mitteln mehrerer frames möglich.
Weiterhin können die Lösungsformeln auf Unterdrückung spezifischer Meßfehler abgestimmt
werden; insbesondere ein falscher Phasenvorschub führt zu Fehlern derselben Größenordnung in
der berechneten Objektphase. In [Car66, Har87, Sch93, Sur93] werden Möglichkeiten
aufgezeigt, diesen Effekt zu vermindern. Dabei gibt [Har87] ein Beispiel für eine neue Klasse
sogenannter symmetrischer N+1-Algorithmen, die in [Lar92a, Lar92b] mit Fouriermethoden
analytisch behandelt und auf die Entstehung von Harmonischen bezüglich der gesuchten Phase
untersucht werden; so kann z.B. ein Weg gefunden werden, ein eventuelles nichtlineares
Verhalten des Bildwandlers weitgehend zu kompensieren. Eine Betrachtung der Intensitätsfehler
bei der Digitalisierung führt in [Bro90] zum Vorschlag eines 13-bucket-Algorithmus.
Es ist klar, daß das Problem zeitlich bedingter Phasenfluktuationen bei gleichzeitiger Aufnahme
der Phasenbilder insoweit behoben ist, als keine Zeitspanne mehr zwischen diesen liegt;
innerhalb der Integrationszeit der Bilder kann es aber immer noch zu Fehlern kommen. Mit der
gleichzeitigen Interferogrammaufnahme ergibt sich die Möglichkeit, diese Fehler durch gepulste
Beleuchtung oder sonst eine Maßnahme zur Verkürzung der Integrationszeit zu minimieren. Dies
ist beim zeitlichen Phasenschieben zwar für die Einzelbilder ebenfalls möglich, ohne daß jedoch
die Phasenänderung zwischen den Bildern beseitigt werden kann.
Analog zum zeitlichen Phasenschieben können auch hier wieder step- (multi-channel) und
bucket-Verfahren unterschieden werden; Abb. 2.3 stellt dies für ein Drei-Schritt-Verfahren dar.
Hier werden die Phasenbilder nicht nacheinander, sondern gleichzeitig erzeugt und auf
verschiedene Flächenbereiche abgebildet. Die gegebenen Phasenlagen der Referenzwelle relativ
zur Objektwelle sind also zeitlich konstant und variieren statt dessen räumlich. Dies wird durch
entsprechende Wahl der Abbildungen erreicht.
ESPI und Phasenschieben 15
αi αi
I1´(x4 ,y)
2π I3 2π
I3 (x3 ,y)
I2
I2 (x2 ,y)
I1
I1 (x1 ,y)
x x
X ∆x
Abb. 2.3: Möglichkeiten des räumlichen Phasenschiebens. Links die multichannel-Technik; die Ii bezeichnen ganze
Interferogramme, die sich nebeneinander über die Breite X erstrecken. Rechts das bucket-Verfahren; der
Phasenvorschub steigt in x-Richtung linear an.
In der Multichannel-Technik wird die Objekt- und/oder Referenzwelle auf drei oder mehr
verschiedene Wege aufgeteilt, in welche der jeweils erforderliche Phasenshift durch optische
Komponenten eingebracht wird. Die Phasenbilder liegen dann nebeneinander auf einem Sensor
und teilen sich dessen Breite (solche Interferogramme ähneln der rechten Seite von Abb. 6.3)
oder werden auf getrennte Sensoren jeweils formatfüllend abgebildet. Im ersten Fall reduziert
sich die horizontale Auflösung um den Faktor drei.
Das bucket-Verfahren dagegen bedient sich nur einer Referenzwelle, die aber so geführt wird,
daß ihre relative Phasenlage zur Objektwelle sich in x-Richtung auf dem Sensorarray linear
ändert. Die praktische Realisierung dieser Vorgabe wird in Kapitel 6 gezeigt. Für den in Abb. 2.3
rechts dargestellten Fall ist nach drei Sensorspalten ein Phasenvorschub von 2π erreicht. Die
folgenden Spalten I1′(x4, y), I2′(x5, y), I3′(x6, y) usw. haben periodisch (modulo 2π) dieselben
Phasenshifts wie die ersten drei Spalten; es gehört also jede dritte Spalte des Interferogramms
zum selben Phasenbild.
2.2.2.1 Multi-Channel-Verfahren
Der einzige Weg, das räumliche Phasenschieben ohne Auflösungsverlust zu realisieren, ist das
Verwenden mehrerer Sensoren. Dies bedarf aufwendiger Kombinationen von λ/2- und λ/4-
Platten, polarisierenden Strahlteilern und/oder Beugungsgittern, um die gewünschte Anzahl
phasenverschobener Strahlen zu erhalten [Kwo84, Smy84, Kuj93]. Die Intensitätssignale in den
Phasenbildern stammen zwar von denselben Objektpunkten, werden aber von verschiedenen
Sensoren geliefert. Deshalb müssen Offset und Verstärkung aller Kameras aufeinander
abgeglichen werden, um vergleichbare Daten zu erhalten. Die pixelweise Berechnung der
Objektphase setzt außerdem voraus, daß die Objektwellen deckungsgleich auf die Sensoren
abgebildet werden; die Abweichung muß weniger als ein Pixel betragen.
16 ESPI und Phasenschieben
Oft wird der Verlust an räumlicher Auflösung in Kauf genommen und dafür der Meßaufbau
vereinfacht. In einigen Fällen wird sogar mit nur zwei Phasenbildern gemessen. Hierzu wird die
Annahme gemacht, daß die Untergrundintensität konstant ist und sich bei der Subtraktion von
Start- und Verformungsbildern heraushebt [Ker90].
Abb. 2.4 zeigt als Beispiel für einen einfachen Aufbau ein 3-Channel-Speckleinterferometer. Die
Objektwelle wird durch ein Beugungsgitter geführt und die drei Beugungsordnungen (1, 0 und -
1) als getrennte Specklebilder auf den CCD-Sensor abgebildet. Das Gitter ist insofern von
besonderer Art, als die Intensitäten in allen drei Beugungsordnungen gleich sind [Kuj88]. Ein
Anfangsbild wird aufgenommen, dann wird das Objekt verformt und das Gitter mittels
Piezotranslator um ein Drittel der Gitterkonstante verschoben. Das erzeugt einen Phasenshift von
$120° in der 1. bzw. der -1. Ordnung. Die Differenz des jetzt aufgenommenen Bildes zum
Anfangsbild ergibt die benötigten Korrelationsstreifenbilder. Hier kann es durch falsche
Verschiebung des Beugungsgitters zu Meßfehlern infolge falschen Phasenvorschubs kommen.
Muß der Phasenshift sehr schnell durchgeführt werden, bietet sich das Verwenden eines
akustooptisch erzeugten Gitters an.
ESPI und Phasenschieben 17
Objektbeleuchtung
Referenzstrahl
Kamera
Gitter
Beugungs- -1
0
ordnung
1
Beleuchtetes Objekt
Piezotranslator
Aufbauten dieser Art sind allerdings gegen Dejustage und Erschütterungen empfindlich und
werden deshalb bevorzugt in Laborumgebungen eingesetzt. Die erzielbare Genauigkeit bei der
Objektphasenmessung reicht nicht an die des zeitlichen Phasenschiebens heran, da insbesondere
bei der Wahl des Auswertealgorithmus große Einschränkungen bestehen; so läßt z.B. die Anzahl
der Phasenbilder sich nur unter unverhältnismäßigem Aufwand erhöhen Eine Feinabstimmung
der Auswertung wie in Kapitel 2.2.1 beschrieben ist folglich für das räumliche Phasenschieben
nicht machbar. Sofern bewegte Objekte gemessen werden, ist auch das Mitteln mehrerer frames
nicht möglich, so daß das Signal/Rauschverhältnis durch das des Sensors begrenzt wird.
2.2.2.2 Bucket-Verfahren
Das integrierende räumliche Verfahren ist seit langem bekannt und wird mit einer breiten Palette
verwandter Formalismen behandelt; das Prinzip ist zum erstenmal in [Ich72] vorgestellt worden.
Die Implementation ist sehr einfach und kommt im Gegensatz zum Multichannel-Verfahren
vollständig ohne bewegte oder elektrisch angesteuerte Teile aus. Der Objektwellenfront wird die
Referenzwelle verkippt oder versetzt überlagert, so daß sich die relative Phasenlage der
Wellenfronten in horizontaler Richtung linear ändert (siehe Kapitel 3.2). Die detektierte
Intensität ändert sich periodisch, so daß der Objektwellenfront ein Interferenzstreifenmuster
aufmoduliert wird. Abb. 2.5 illustriert dies für den Fall eines Specklebilds.
18 ESPI und Phasenschieben
Abb. 2.5: Veränderung eines Specklebilds durch linearen Phasenvorschub bei Überlagerung einer Referenzwelle.
Links: ohne, rechts: mit Referenzwelle.
Die Ortsfrequenz des Streifenmusters richtet sich nach den geometrischen und elektronischen
Eigenschaften des verwendeten Detektorarrays. Eine Periode des Streifenmusters muß in der
Abbildungsebene mindestens zwei Pixel bedecken, damit aliasing vermieden wird. Andererseits
muß die Intensitätsmodulation von Pixel zu Pixel den Rauschpegel deutlich übersteigen; deshalb
ist es vorteilhaft, eine möglichst hohe Ortsfrequenz zu wählen (vgl. Kapitel 3.3.1). Für die dabei
auftretende Verringerung der gesamten Modulationstiefe durch örtliche Integration über ein
Winkelintervall gilt (2-3) entsprechend. Brauchbar sind Ortsfrequenzen von 1/(4 PA) oder 1/(3
PA), das entspricht einem Vorschub der Phasenlage von 90° bzw. 120° pro Pixelbreite. Das
Interferogramm enthält somit die Phasenbilder ineinandergeschachtelt als Streifenmuster.
Zur Berechnung der Objektphase können verschiedene Wege beschritten werden. Eine
umfassende Übersicht der Methoden ist in [Kuj93] enthalten. Hier wird im folgenden lediglich je
ein Beispiel für die Berechnung in der Fourier- und in der Ortsebene angegeben.
Die Fouriermethode wurde zuerst in [Tak81] zur Interferogrammauswertung verwendet. Falls ein
Interferogramm ein enges Streifenmuster der Ortsfrequenz f0 – die sogenannte Trägerfrequenz –
enthält, entstehen im Frequenzspektrum zwei Seitenpeaks bei $ f0. Die Trägerfrequenz ist im
Prinzip beliebig, muß aber bekannt sein. Sobald die Phase der Objektwellenfront räumlich
variiert, wird das Streifenmuster deformiert. Diese Information überträgt sich dergestalt in die
Seitenpeaks, daß sie sich zu Seitenbändern verbreitern. Vorausgesetzt, daß die Ortsfrequenz des
Streifenmusters alle anderen Ortsfrequenzen des Interferogramms übersteigt, ist nun die
Information über die Objektphase in der Fourierebene von örtlich niederfrequenten Störungen
wie z.B. ungleichmäßiger Beleuchtung getrennt. Abb. 2.6 stellt die Verhältnisse im
Frequenzspektrum schematisch dar. Der Einfachheit halber werden dort nur die Frequenzen in x-
Richtung betrachtet; die y-Richtung steht senkrecht zum Diagramm.
ESPI und Phasenschieben 19
P(fx ,y)
fx
-f0 y f0
Abb. 2.6: Fouriertransformierte eines Interferogramms, welches ein Streifenmuster der Ortsfrequenz f0 in x-Richtung
enthält. Nach [Tak81]
An Abb. 2.6 ist außerdem leicht einzusehen, daß die maximal meßbare Ortsfrequenz der
Objektphase (entspricht einer Verbreiterung des Peaks bei f0) in etwa der Trägerfrequenz
entspricht, da sich anderenfalls die Bänder überschneiden.
Die wichtigste Fehlerquelle dieser Auswertemethode wird als frequency leakage bezeichnet und
stammt von der Fouriertransformation eines Rechteckfensters, wie es durch ein Interferogramm
gegeben ist. Die Diskontinuität der Ortsfrequenzen am Bildrand führt zu Artefakten im
Ortsfrequenzspektrum. Deshalb werden die Intensitätsdaten durch eine örtliche Fensterfunktion
gewichtet, die an den Bildbegrenzungen den Wert Null hat; meist wird hierfür ein
Hammingfenster eingesetzt. Der größte Nachteil des Rechnens in der Fourierebene ist der
Rechen- und damit Zeitaufwand, der auch heute noch eine Echtzeitanalyse der Interferogramme
unmöglich macht.
Die Berechnung der Objektphase in der Ortsebene ist dem Fourieransatz äquivalent und wurde
zuerst an zwei analogen Echtzeitsystemen vorgestellt [Ich72, Mer83]. Ein Blockschaltbild der in
[Ich72] verwendeten Elektronik zeigt Abb. 2.7.
20 ESPI und Phasenschieben
Interferogramm Detektor
mit Orts- Multiplizierer Tiefpaß S
frequenz f sin ω 0 t tan-1(S/C) Monitor
Multiplizierer Tiefpaß
C
Frequenz- Phasen- cos ω 0 t
Generator ω 0 schiebe-
einheit
Abb. 2.7: Analoge Schaltung zur Echtzeit-Phasenberechnung aus einem Interferogramm mit der Trägerfrequenz f0.
Nach [Ich72]
Die Anwendung einer Trägerfrequenz für die Profilometrie ist in [Toy86, Tan90] gezeigt
worden; hier wird die besagte Deformation eines projizierten Streifenmusters in der Ortsdomäne
ausgenutzt.
In [Mer83] wird ein Spezialfall dieser Technik behandelt, welcher die digitale Implementation
des räumlichen Phasenschiebens vorwegnimmt. Es wird von einem Interferogramm mit der
.
Trägerfrequenz 1/(3 PA) ausgegangen; die Spannungswerte A, B, C, die von drei horizontal
aufeinander folgenden Pixeln stammen, werden periodisch in drei verschiedene Kanäle
eingespeist und elektronisch zu den beiden Spannungssignalen
ESPI und Phasenschieben 21
A C 3 3
(2-4) I =− +B− und Q=− A+ C
2 2 2 2
Die wichtigste Fehlerquelle ist hier die Abweichung der Trägerfrequenz vom nominellen Wert;
dies entspricht einem falschen Phasenvorschub und führt zu den hierfür typischen Meßfehlern. In
[Ran86] wird ein Weg zur rechnerischen Beseitigung dieses Fehlers vorgeschlagen, der auf das
Hinzufügen eines Vorfaktors hinausläuft (vgl. Kapitel 4.4.1). Weiterhin wird die Annahme
gemacht, daß die Objektphase in allen Phasenbildern, d.h. über drei nebeneinanderliegende Pixel,
gleich sei. Das kann sie in Wahrheit nicht sein, da sonst das Objekt gar keinen zu messenden
horizontalen Phasengradienten hätte; die Forderung muß daher von vornherein auf eine
quasikonstante Objektphase reduziert werden. Der daraus entstehende Meßfehler wird ebenfalls
in [Ran86] behandelt. Auch der Modulationsgrad und die Untergrundintensität müssen als
konstant innerhalb eines Pixeltripels angenommen werden. Damit sind diese Größen kritischer
als beim zeitlichen Phasenschieben, wo die miteinander verrechneten Meßwerte tatsächlich von
ein und demselben Pixel stammen und sich im allgemeinen stabiler verhalten als die
Objektphase. Der Verwendung hochwertiger optischer Komponenten kommt folglich nicht nur
in Multichannel-Systemen große Bedeutung zu, sondern auch das bucket-Verfahren stellt höhere
Ansprüche an die Optik als das zeitliche Phasenschieben.
Geschoß gemessen. Die Phasenberechnung erfolgt mit einem 3-bucket-Algorithmus für 90°
Phasenvorschub. Das käufliche Echtzeitinterferometer DIRECT 100 (Hersteller: Carl Zeiss)
macht sich den Geschwindigkeitsvorteil und die Vibrationsunempfindlichkeit des räumlichen
Phasenschiebens für eine Vielzahl von Meßproblemen zunutze [Küc90]. Ein in-plane-Moiré-
Aufbau und ein Projektionssystem zur 3-D-Oberflächenvermessung, welche das räumliche 3-
bucket-Verfahren verwenden, werden in [Kuj91] vorgestellt.
Für die Vermessung optisch rauher Oberflächen, also den Fall der Specklemuster-
Interferometrie, bedeutet die Bedingung der quasikonstanten Objektphase, daß die horizontale
Ausdehnung der Speckles mindestens drei Pixel betragen muß, denn die Phasen in einem
Specklemuster können nur innerhalb der Speckles selbst als annähernd konstant angesehen
werden [Goo75]. Hinsichtlich der interferometrischen Auswertung von Speckles folgt daraus,
daß jedes Speckle, gleich welcher Größe, nur eine Objektphaseninformation enthält. Diese kann
mit dem Verfahren des räumlichen Phasenschiebens nur aus Speckles mit einer horizontalen
Ausdehnung von drei oder mehr Pixeln gewonnen werden. Deshalb verringert sich die räumliche
Auflösung einer solchen Messung mindestens um den Faktor drei. Aus Speckles, die breiter sind
als drei Pixel, können u.U. mehrere gültige Phasenwerte berechnet werden, die aber keine
Erhöhung der Ortsauflösung, sondern allenfalls eine genauere Bestimmung des einen pro
Speckle erhältlichen Objektphasenwerts erlauben. Eine Vergrößerung der Speckles geht deshalb
in jedem Fall mit weiterem Auflösungsverlust einher. Bei Verwendung kreisförmiger Aperturen
haben Speckles für alle Richtungen in der Abbildungsebene die gleiche mittlere Größe; daraus
ergibt sich die reduzierte Ortsauflösung unnötigerweise auch in senkrechter Richtung.
Eine elegante Ausnutzung der Specklegeometrie bei kreisförmiger Apertur wird in [Wil91]
gezeigt. Bei geeigneter Justage der Referenzwelle ist die Phasenmessung mit einem 5-bucket-
Algorithmus möglich; Abb. 2.8 illustriert die dafür erforderliche Ausrichtung des Streifenmusters
im Vergleich zur 3-bucket-Methode. Die dort eingezeichneten Speckles sind der Einfachheit
halber als annähernd kreisförmig angenommen und haben genau die mittlere Specklegröße. Der
berechnete Objektphasenwert gilt jeweils für das mittlere (fett umrandete) Pixel.
I1
I1 I2 I3 I2 I3 I4
I5
Abb. 2.8: Zwei mögliche Anordnungen zusammengehörender Intensitätsmeßwerte Ii für das räumliche
Phasenschieben. Die schwarzen Balken deuten die Ausrichtung und Ortsfrequenz des aufmodulierten
Streifenmusters an. Nach [Wil91]
ESPI und Phasenschieben 23
In der gewöhnlichen 3-bucket-Methode steht das Streifenmuster senkrecht und die Streifen haben
einen Abstand von 3 PA. In der 5-bucket-Methode wird das Streifenmuster so ausgerichtet, daß
seine Ortsfrequenz horizontal 1/(4 . PA) und vertikal 1/(2 . PA) beträgt. Der Streifenabstand ist
3 PA und man erhält einen Phasenshift von 90° zwischen nebeneinanderliegenden Pixeln und
180° zwischen untereinanderliegenden Pixeln. In ein Quadrat von 3x3 Pixeln kann daher eine
kreuzförmige Abfolge von fünf Intensitätsmeßwerten mit einem relativen Phasenshift von 90°
gelegt werden, von denen der fünfte einen Phasenshift von 2π gegenüber dem ersten zeigt. Die
Objektphase wird mit einem 4+1-Algorithmus berechnet, der Meßfehler durch falschen
Phasenvorschub weitestgehend unterdrückt [Har87].
3.1 Zwei-Wellen-Interferogramme
y z
CCD
Zwei interferierende Wellen
x
Abb. 3.1: Aufnahme eines 2-Strahl-Interferogramms
Läßt man wie in Abb. 3.1 zwei kohärente Lichtwellen auf eine Beobachtungsebene (x, y) fallen,
entsteht ein Interferogramm, dessen Intensität I (x,y) folgendermaßen beschrieben wird [Jon83]:
(3-1) I(x,y)=I0(x,y)+I0(x,y)!γ(x,y)!cos(Φ(x,y))
γ (x,y) Modulationsgrad
Die Phasendifferenz Φ (x,y) stellt dabei die in der Interferometrie eigentlich interessierende
Größe dar, da mit ihr die Verformung des Objektes bestimmt werden kann.
Ortsabhängigkeiten werden im folgenden weggelassen, sind aber in der Regel immer vorhanden.
Weiterhin wird davon ausgegangen, daß das Interferogramm per CCD-Sensor abgetastet wird.
Man unterscheidet bei den interferierenden Wellen zwischen der Objektwelle, die Information
über das zu untersuchende Objekt trägt, und der Referenzwelle, die durch Interferenz die
Intensität der Objektwelle moduliert und so ihre Phase detektierbar macht.
ebener Objektwelle, daß eine ebene Referenzwelle eingekoppelt wird und bei sphärischer
Objektwelle, daß man eine Referenz-Kugelwelle verwendet.
Beim räumlichen Phasenschieben wird die Objektphase φ (modulo 2π) einer zu untersuchenden
Wellenfront bestimmt. Zu dem Zweck wird durch geeignete Einstellung der Referenzwelle z.B.
in x-Richtung ein zusätzlicher, konstanter Phasengradient Fα = ∂α/∂x über den Kamerasensor
erzeugt (α(x) entspricht einem zusätzlichen örtlichen Phasenvorschub). Das bedeutet, man sorgt
dafür, daß über den Kamera-Sensor in x-Richtung der Phasenunterschied zwischen Objekt- und
Referenzwelle einen zusätzlichen linearen Anstieg α = Fα!x erhält. Das Interferogramm erhält
damit in Abwandlung zu (3-1) unter der cos-Funktion einen zusätzlichen Phasenterm:
Es entsteht ein eng gestreiftes Interferogramm wie in Abb. 6.3 (links), in dem die (nicht zu
großen) Änderungen der Objektphase φ als Deformation des regelmäßigen cos-Gitters zu
erkennen sind. Diese Deformation enthält gerade die gesuchte Information über die Objektphase.
In diesem Fall reicht es aus, die Referenzwelle zur Objektwelle um einen in der (x,z)-Ebene
liegenden Winkel β verkippt einzukoppeln wie in Abb. 3.2 dargestellt.
ebene Referenzwelle
y z
β
CCD
x quasi-ebene Objektwellenfront
Abb. 3.2: Erzeugung eines zusätzlichen, konstanten Phasengradienten bei ebener Objektwelle
Der Phasengradient (Phasenvorschub pro Strecke, % ∂α/∂x) für die beiden um β verkippten
Wellen läßt sich dann nach der Konstruktion in Abb. 3.3 bestimmen.
In Abb. 3.3 ist ∆x die Strecke, für die man gerade einen Phasenvorschub ∆α = 360° (bzw. einen
Gangunterschied λ) erhält. Aus der Geometrie des fett umrandeten Dreiecks ergibt sich so eine
Streifenbreite ∆x = λ/sin β und damit für den zusätzlichen Phasengradienten (der hier konstant
26 Theoretische Grundlagen zum räumlichen Phasenschieben
∆x
Referenzwelle
λ
!"# Objektwelle
β
λ
x
Abb. 3.3: Bestimmung des Phasenvorschubs zweier verkippter ebener Wellen; Variablen siehe Text.
Wird ein zu untersuchendes Objekt per Kamera mit abbildender Optik aufgenommen, so erhält
man eine quasi-sphärische Objektwelle mit Ursprung in der Apertur des Kameraobjektivs. Zur
interferometrischen Objektvermessung koppelt man eine ebenfalls sphärische Referenzwelle ein.
Bei Interferometern ohne räumliches Phasenschieben (z.B. klassisches ESPI) wird die
Referenzwelle dabei konfokal eingekoppelt, d.h. die Foci beider Wellen liegen (zumindest
virtuell) genau übereinander. Damit werden zusätzliche Strukturen/Streifen im Interferogramm
vermieden.
Einen näherungsweise linearen Phasenvorschub über den Kamera-Sensor erzeugt man nun über
einen seitlichen Versatz ∆s der Foci zueinander in x-Richtung (siehe Kapitel 6.2). Der
Phasenvorschub ist außerdem abhängig vom Abstand ∆z der Foci vom Kamera-Sensor. Abb. 3.4
veranschaulicht die zugrundeliegende Geometrie.
Abb. 3.4: Seitlicher Versatz des Referenzwellenfocus erzeugt über x-abhängige Gangunterschiede a einen
näherungsweise konstanten, zusätzlichen Phasengradienten über den Kamerasensor
Theoretische Grundlagen zum räumlichen Phasenschieben 27
(3-4) α ( x) = ( ( x + ∆ s) + ∆ z
2 2
) 360λ °
− x2 + ∆ z2 ⋅
Es ergibt sich ein Verlauf des zusätzlichen Phasenvorschubs wie in Abb. 3.5 zu sehen.
α(x)
Blendenabstand ∆z : 150 mm
Abstand der Foci ∆s : 3.7 mm
3000 λ
x
120 mm Sensor (6.33 mm)
Abb. 3.5: Durch seitlichen Versatz der Foci erzeugter zusätzlicher Phasenvorschub in der Bildebene
Für die in Abb. 3.5 gewählten typischen Werte ist zu erkennen, daß der Phasenvorschub im
Bereich des Kamerasensors in guter Näherung linear ansteigt bzw. dort der zusätzliche
Phasengradient Fα quasi-konstant ist (siehe Abb. 4.7).
Der zusätzliche Phasengradient ergibt sich als partielle Ableitung von (3-4) nach x:
∆s+ x x 360°
(3-5) Fα = − ⋅
(∆ s + x)2 + ∆ z 2 2
x +∆z λ
2
• Für x >> ∆s werden die beiden Brüche in (3-5) gleich und der Gradient geht gegen Null
28 Theoretische Grundlagen zum räumlichen Phasenschieben
Für x << ∆s (im Bereich des Kamera-Sensors) ist der Gradient näherungsweise konstant
mit
1 360°
(3-6) Fα = ⋅ .
1+ ( )
∆z 2
∆s
λ
Der notwendige seitliche Versatz ∆s der Foci bei gegebenen Fα und ∆z berechnet sich damit zu
∆ z2
(3-7) ∆s= .
( )
2
360°
λ ⋅ Fα −1
Wie am Beispiel in Abb. 3.5 und Abb. 4.7 zu sehen, liegt ∆s typischerweise im mm-Bereich.
Die Linearität des Phasenvorschubs ist in der Regel über die gesamte Sensorbreite sehr gut
gewährleistet, wie bei der Fehleranalyse in Kapitel 4.5 gezeigt wird.
Aus dem durch (3-2) beschriebenen Interferogramm soll nun die Objektphase φ bestimmt
werden.
Bei (3-2) setzen viele Verfahren zur Phasenrekonstruktion an, die unter den Begriff der spatial
carrier phase measurement methods gefaßt werden und in Kapitel 2.2.2.2 beschrieben sind. Die
Erzeugung des zusätzlichen, konstanten Phasengradienten Fα wird auch als räumliches
Heterodyn-Verfahren bezeichnet.
Hier wird jedoch die von uns benutzte, einfachere SPS (spatial phase shifting) - Methode
dargestellt, die ohne Fourier-Transformationen auskommt und somit weniger Rechenleistung
benötigt.
Theoretische Grundlagen zum räumlichen Phasenschieben 29
Zunächst werden die Bedingungen angegeben, die notwendig sind, um aus (3-2) mittels
Fouriertransformation die Objektphase φ(x,y) berechnen zu können [Kuj93]. Für das SPS
müssen diese Bedingungen weiter verschärft werden, siehe Kapitel 3.3.3.
• Bei der Aufnahme mit einer CCD-Kamera muß zur Vermeidung von Aliasing-Effekten
die Abtastfrequenz fPixel größer als die doppelte Trägerfrequenz fα sein.
D.h. die durch den zusätzlichen Phasenschub erzeugten Streifen müssen mindestens
2 Pixel Breite haben, bzw. als obere Grenze für den zusätzlichen Phasengradienten gilt:
Fα < 180°/PA .
Also muß der zusätzliche Phasengradient groß genug über seiner unteren Grenze
Fα = 0°/PA gewählt werden.
Beim SPS wird in Kapitel 3.3.3 noch verschärft als Bedingung an φ eingeführt werden:
|∂φ/∂x| ≈ 0 über drei Sensor-Pixel.
∂ I0 1 ∂γ
f α >> max ⋅ und f α >> max
∂ x [ I0 ] ∂x
Insgesamt ist man somit in der Wahl des Phasenvorschubs eingeschränkt durch
0°/PA << Fα < 180°/PA.
30 Theoretische Grundlagen zum räumlichen Phasenschieben
Bei der Aufnahme des Interferogramms wird auf der Sensoroberfläche die Intensitätsverteilung
als Pixel diskretisiert, über die Kameraelektronik verstärkt und schließlich in der
Bildverarbeitungshardware digitalisiert. Für eine Kamerazeile werden damit aus den
kontinuierlichen Intensitäten I(x) des Interferogramms diskrete Werte an den Orten xj : I(xj) = Ij .
Der Übergang von den Pixel-Intensitäten zu den Grauwerten wird durch die Kamera-Transfer-
Funktion beschrieben (siehe Kapitel 5.3.1). Für das SPS-Verfahren ist vor allem die Linearität
der Transferfunktion von Bedeutung. Hier soll speziell der Einfluß der endlichen Pixelgröße und
das Verstärkungsverhalten der Kamera auf das durch (3-2) beschriebene Interferogramm
beleuchtet werden.
Im digitalisierten Bild liegt das Interferogramm in Form diskreter Werte vor (hier am Beispiel
einer Zeile). :
Bei der Diskretisierung des Interferogramms kann nicht wirklich punktweise gemessen werden.
I(x) wird zur Erzeugung des Grauwertes eines Pixels über die aktive Pixelfläche integriert. In
Abb. 3.6 wird als Beispiel hierfür ein Ausschnitt eines Interferogramms nach (3-2) mit einem
Phasenvorschub von Fα = 120°/PA und mit γ < 1, φ ≈ 120° graphisch dargestellt.
I(x)
… …
CCD-Pixel xj: x
!"#
Phasenvorschub αj: 0° 120° 240° 360° PB
!"#
PA
Abb. 3.6: Mittelung der Interferogrammintensität über die Breite PB der Kamerapixel. Der detektierte Intensitätswert
ist der schraffierten Fläche proportional.
Theoretische Grundlagen zum räumlichen Phasenschieben 31
P
x + B
1 j 2
Ij = ⋅ ∫ I 0 ⋅ (1 + γ ⋅ cos(φ + Fα ⋅ x )) dx
(3-9) PB x − PB
j 2
(
= I 0 ⋅ 1 + γ ⋅ sinc(
PB ⋅ Fα
2
) ⋅ cos(φ + Fα ⋅ x j ) )
Mit γ′ " sinc(PB ! Fα/2) und αj = Fα ! xj gilt für die Intensitätswerte der einzelnen Pixel:
Die einzige Änderung, die sich durch die endliche Pixelbreite im Vergleich zu einer punktweisen
Abtastung ergibt, ist der Faktor γ′. Die verringerte Modulation γγ′ ist nach Kameraverstärkung
(siehe Kapitel 3.3.2.3) nicht mehr direkt meßbar. Sie geht aber wegen größerer notwendiger
Verstärkung als stärkeres Rauschen ins aufgenommenen Bild ein.
• Bei einer CCD-Kamera mit 100% Füllfaktor (full frame - Sensor) gibt es keine optisch
inaktive Fläche zwischen den Pixeln. Deshalb mittelt das Pixel über den gesamten
Phasenvorschub ∆α=120° zwischen zwei Pixeln. Damit folgt γ ′ = sinc(60°) ≈ 0,83 als
bestmögliche Modulation1.
• Gewöhnliche interline transfer - CCDs haben einen Füllfaktor < 50%. Die Pixel mitteln damit
über höchstens ∆α/2 = 60°, woraus folgt: γ ′ = sinc(30°) ≈ 0,95. Bei diesen Sensoren wird die
Modulation also kaum noch verringert.
Ein linear arbeitendes Kamera-BV-System setzt die über je ein Pixel integrierten Intensitäten Îj
nach folgender Gleichung in Grauwerte um:
(3-11) Ij = V!Îj + O
1
CCD-Kameras mit großer aktiver Sensorfläche gleichen den Modulationsverlust in der Regel wieder durch einen höheren
Signal-Rausch-Abstand aus.
32 Theoretische Grundlagen zum räumlichen Phasenschieben
Wendet man (3-11) auf das Interferogramm nach (3-8) an, so erhält man
I j = V ⋅ I$ j + O
(
= V ⋅ I 0 1 + γ ⋅ cos(φ + α j ) + O )
(3-12)
= (V ⋅ I 0 + O) ⋅ 1 + V ⋅I0 + O ⋅ cos(φ + α j )
V ⋅ I 0 ⋅γ
~
(
=: I 1 + γ~ ⋅ cos(φ + α )
0 j )
Wie zu erwarten, hat sich mit der linearen Verstärkung die Form des GLS nicht verändert und
die Konstanten I0 und γ nehmen beliebige – über O, V einstellbare – Werte an. Bei gut
eingestellter Kamera sollte man γ ≈ 1 und I0 ≈ 127.5 erhalten.
Ab hier seien mit I0 und γ die Werte für Hintergrund und Modulationsgrad bezeichnet, wie sie
nach Kameraverstärkung und Integration (Kapitel 3.3.2.2) im digitalisierten Interferogramm
vorliegen.
Wie in Kapitel 6.2.1.5 und A1.1 angesprochen wird, läßt sich über eine Bestimmung von I0, γ,
oder γ ⋅I0 eine Aussage über die Brauchbarkeit der berechneten Phasenwinkel machen.
Bei der Aufnahme (Digitalisierung) über eine CCD-Kamera richtet man die Kamerazeilen
senkrecht zum Streifensystem ein, was nach den Definitionen in (3-2) bedeutet: in x-Richtung2.
Für die Pixelintensitäten einer Zeile ergibt sich im allgemeinsten Fall (mit αj " Fα ! xj und xj als
Mitte der einzelnen Pixel):
Nun die entscheidende Näherung: Man nimmt für jeweils drei direkt benachbarte Pixel
Grundhelligkeit I0, Modulation γ und den zu bestimmenden Phasenwinkel φ als konstant an.
Betrachtet man also ein Pixel j und seine beiden direkten Zeilennachbarn, so erhält man
folgendes Gleichungssystem aus drei linear unabhängigen Gleichungen:
2
Das Interferogramm wird nun zeilenweise behandelt, so daß im folgenden die y-Abhängigkeiten nicht explizit aufgeführt
werden.
Theoretische Grundlagen zum räumlichen Phasenschieben 33
Die Ii sind als Meßwerte bekannt, αi durch den Phasenvorschub Fα vorgegeben. Es bleiben die
drei Unbekannten I0, γ und das gesuchte φ, die durch Lösen des Gleichungssystems (3-14)
bestimmt werden können.
Die grundsätzlichen Verfahren zur Lösung von (3-14) können der Literatur entnommen werden,
zumal genau so die Algorithmen für 3-step-Verfahren anzuwenden sind [Cre93].
Die Herleitung der Algorithmen wird hier trotzdem skizziert, da einige Zwischenergebnisse für
spätere Fehlerbetrachtungen benötigt werden und da die Gesamtheit der benötigten Relationen in
der Literatur sehr verstreut ist und manche Relationen gar nicht zu finden sind.
Drei Gleichungen in (3-14) stellen eine minimale Anzahl von Gleichungen zur Bestimmung von
φ dar. Analog zu zeitlichen Phasenschiebetechniken könnte man auch mehr als drei Gleichungen
zur Berechnung heranziehen, um die Fehleranfälligkeit bei der Phasenbestimmung zu verringern
(siehe dazu Kapitel 2.2.1). Beim SPS jedoch müssen möglichst wenige Pixel benutzt werden, um
die Näherung (I0, γ, φ = const. über alle benutzten Pixel) nicht überzustrapazieren.
Speziell im Hinblick auf den Einsatz des SPS-Verfahrens mit der Objektphase eines
Specklemusters kann die obengenannte Bedingung nur innerhalb eines Speckles ausreichend
gewährleistet werden. Die Speckles müssen damit beim 3-Schritt-Verfahren ohnehin im Mittel
mindestens auf eine Größe von drei Pixeln gebracht werden. Jede größere Anzahl von Schritten
erfordert noch größere Speckle, was zu einem zu starken Auflösungsverlust bei der Aufnahme
führt (vgl. Kapitel 2.2.2.2). Deshalb werden im folgenden nur 3-Schritt-Methoden benutzt.
Nach Kapitel 3.3.1 ist man in der Wahl des Phasenvorschubs ∆α = Fα⋅PA eingeschränkt durch
0°<< ∆α < 180°. Im folgenden werden speziell für ∆α = 90° und 120° Algorithmen angegeben.
Die konkrete Realisierung des räumlichen Phasenshifts mit den gewählten Parametern
veranschaulicht Abb. 3.7. Die letztlich getroffene Wahl ∆α = 120° wird in Kapitel 4 begründet.
34 Theoretische Grundlagen zum räumlichen Phasenschieben
α(x)
360°
I3
240°
I2
120° I1
0° x
(Pixel)
Abb. 3.7: Phasenlagen für einen Satz von Meßpunkten beim SPS - 3-bucket-Verfahren mit ∆α = 120°.
Das nichtlineare GLS (3-14) muß zunächst linearisiert werden, wozu man sich einer
trigonometrischen Identität bedient. Mit cos(φ+αi) ≡ cos φ⋅cos αi - sin φ⋅sin αi folgt
Ii = I 0 + γ ⋅ I 0 ⋅ cos(φ + α i )
(3-15) = I 0 + (γ ⋅ I 0 ⋅ cos φ ) ⋅ cosα i − (γ ⋅ I 0 ⋅ sin φ ) ⋅ sin α i .
=: a0 + a1 cosα i − a2 sin α i
Als neue zu bestimmende Größen im nun linearen GLS (3-15) hat man die Größen
(3-17) I0 = a0 ,
a12 + a22
(3-18) γ = und
a0
a2
(3-19) tan φ = .
a1
Bei der Bestimmung von φ = arctan(a2/a1) erhält man zunächst einen Phasenwinkel modulo π.
Durch die Kenntnis des Vorzeichens von a2 und a1 läßt sich φ jedoch demodulieren auf 2π, was
in 3.5 gezeigt wird.
Theoretische Grundlagen zum räumlichen Phasenschieben 35
Wählt man als Phasenvorschubwinkel αi = -∆α, 0°, ∆α , so erhält man aus (3-15):
I1 = a0 + a1 cos ∆α + a2 sin ∆α
I 2 = a0 + a1
I 3 = a0 + a1 cos ∆α − a2 sin ∆α
(3-20) ⇔
a2 = ( I1 − I 3 ) 2 sin ∆α
a1 = (2 I 2 − I1 − I 3 ) 2(1 − cos ∆α )
a0 = (2 cos ∆α ⋅ I 2 − I1 − I 3 ) 2(cos ∆α − 1)
a2 1 − cos ∆α I1 − I 3
(3-21) tan φ = =
a1 sin ∆α 2 I 2 − I1 − I 3
Die Phasenvorschubwinkel ∆α = 90°, 120° bieten sich besonders an, da sie sich bei „glatten“
Objektphasen einfach per visueller Kontrolle einstellen lassen (vgl. Kapitel 6.2.1). Dabei werden
für 120° bzw. 90° pro Pixel im Interferogramm Streifen mit 3 bzw. 4 Pixeln Breite eingestellt.
Setzt man αi = 0°, 120°, 240° und rechnet nach demselben Schema wie in (3-20), so erhält man:
a2 = ( I 3 − I 2 ) 3
(3-22) a1 = (2 I1 − I 2 − I 3 ) 3
a0 = ( I 1 + I 2 + I 3 ) 3
I3 − I2
(3-23) tan φ = 3 ,
2 I1 − I 2 − I 3
(3-24) γ ⋅ I0 = 1
9 (2 I1 − I 2 − I 3 )2 + 13 ( I 3 − I 2 )2 und
a2 = ( I 3 − I 2 ) 2
(3-26) a1 = ( I1 − I 2 ) 2 ,
a 0 = ( I1 + I 3 ) 2
I3 − I2
(3-27) tan φ = .
I1 − I 2
Bei der Bestimmung der gesuchten Phase φ nach (3-19) erhält man φ über arctan(a2/a1), wobei
sich der Bruch a2/a1 als eine vom Phasenvorschub ∆α abhängige Funktion T(∆α) = f(I1, I2, I3) der
I3 − I2 3
Intensitäten Ii ergibt. (z.B. für ∆α=90°: T(90°) = I1 − I 2
)
Mit φ = arctan T erhält man φ modulo π. Durch die Kenntnis der Vorzeichen von a1 und a2 läßt
sich φ aber auf modulo 2π demodulieren. Wird bei der Herleitung des jeweiligen Algorithmus'
(T = a2/a1) nicht mit negativen Zahlen erweitert, so liefert gerade der Zähler einen zu sin φ und
der Nenner einen zu cos φ proportionalen Term mit richtigem Vorzeichen wegen:
a2/a1 = γ I0 sin φ/ γ I0 cos φ.
Aus folgenden Gründen folgt eine Herleitung des bereits in verschiedenen Arbeiten angegebenen
Demodulations-Algorithmus':
• In der Literatur [Cre85] gefundene Algorithmen arbeiten mit dem Betrag |arctan T|.
Nachfolgend werden aber die Vorzeichenwechsel des arctan genutzt, wodurch bei der in
dieser Arbeit benutzten Auswertung Rechenleistung eingespart werden konnte.
• Herleitungen sind in der gesichteten Literatur nicht gefunden worden. Die Darstellungen
werden oft aus anderen Arbeiten übernommen - manchmal falsch [Cre85].
3
Dabei gilt T = tan φ im Idealfall nicht vorhandener Fehler.
Theoretische Grundlagen zum räumlichen Phasenschieben 37
Man betrachtet die in Abb. 3.8 dargestellten Zweige des Arcustangens (Hauptzweig, 1. und 2.
positiver Zweig): Der Hauptzweig der arctan-Funktion liefert Werte für φ im Bereich
-90° … +90° , also modulo 180°. Durch die Kenntnis der Vorzeichen von sin φ und cos φ lassen
sich die Winkel aber über einen weiteren Bereich von 360° bestimmen, indem T einem der drei
in Abb. 3.8 dargestellten Zweige zugeordnet wird. Der Bereich 0° < φ < 360° ist in die
Quadranten I bis IV unterteilt, in denen jeweils sin φ und cos φ ihr Vorzeichen beibehalten.
φ
450°
360°
(IV)
φ=arctan(T)+360°
270°
(III)
180°
φ=arctan(T)+180° (II)
90°
(I)
0° T
φ=arctan(T)+ 0°
-90°
Die Phase φ berechnet sich folgendermaßen, wenn T den Bereichen I bis IV zugeordnet wurde:
• Für den Quadranten I liefert der Hauptzweig direkt das Ergebnis: φ = arctan T.
• Für die Quadranten II und III ist der 1. positive Zweig die Berechnungsgrundlage:
φ = arctan T + 180°.
Die Zuordnung von T zu den Quadranten I bis IV geschieht über die Kenntnis der Vorzeichen
von sin φ und cos φ bei den Winkeln φ = 0°…360°. Diese Zuordnung ist in Tabelle 3-1
dargestellt, wobei das Endergebnis der Demodulation mit „neuer Winkel“ bezeichnet wird.
38 Theoretische Grundlagen zum räumlichen Phasenschieben
Tabelle 3-1: Phasendemodulation mit Hilfe der Vorzeichen von sin φ und cos φ
Quadrant I II III IV
φ 0° 0-90° 90° 90-180° 180° 180-270° 270° 270-360°
sin φ 0 + + + 0 - - -
cos φ + + 0 - - - 0 +
Zweig 1 1 1/2 2 2 2 2/3 3
neuer arctan T arctan T arctan T arctan T
Theoretisch nicht möglich ist der Fall, daß Sinus und Cosinus gleichzeitig 0 werden. Für die
(nicht idealen) Meßwerte kann trotzdem Zähler = Nenner = 0 auftreten. Dieser Fall muß bei der
Computerauswertung abgefangen werden.
Die Algorithmen (3-21), (3-23) und (3-27) zur Berechnung des Phasenwinkels φ entstanden als
Lösung des (vereinfachten) GLS (3-14) und liefern für ein Pixeltripel die relative Phase φ. Bei
der Herleitung der Algorithmen wurden als Grundlage für die Intensitäten (I1, I2, I3) die
Phasenvorschübe (α1, α1+∆α, α1+2∆α) angesetzt.
Um beim SPS die Objektphase für ein ganzes Bild zu rekonstruieren, muß für sämtliche
Pixeltripel die Phase bestimmt werden.
Rückt man mit der Berechnung nun ein Pixel weiter, um die Phase für das Tripel (I2, I3, I4) zu
berechnen, so weist das neue Pixeltripel um ∆α vergrößerte Phasenvorschübe
(α1+∆α, α1+2∆α, α1+3∆α) auf. Nach dem Weiterrücken um n Pixel liegen die Phasenvorschübe
αi = (α1+n!∆α),(α2+n!∆α),(α3+n!∆α) vor und man erhält nach (3-14) folgende Intensitäten:
Dieses GLS hat „tripelweise“ dieselbe Form wie (3-14), wenn man als zu berechnenden
Phasenwinkel (φ+n⋅α) wählt. Mit anderen Worten: Wendet man auf das n-te Pixeltripel dieselbe
Berechnung an wie auf das erste, so erhält man als Ergebnis für φ einen um n⋅α vergrößerten
Phasenwinkel, der wieder abgezogen werden muß, will man eine über das ganze Bild
vergleichbare Phase berechnen. Geht es aber, wie in ESPI, nur um Phasendifferenzen, kann
dieser Schritt eingespart werden.
Theoretische Grundlagen zum räumlichen Phasenschieben 39
Dieser Zusammenhang wird nachfolgend für beliebige Winkel φ und modulo-Werte r gezeigt.
(3-30) 1
φ mod r " 1φ - n⋅r , so daß 1φ mod r ∈ [0, r), n ∈ ZZ und 1φ, r ∈ |R
2
φ mod r " 2φ - m⋅r , so daß 2φ mod r ∈ [0, r) , m ∈ ZZ und 2φ, r ∈ |R
Damit gilt
(3-31) (1φ mod r - 2φ mod r) mod r = (1φ - n⋅r -(2φ - m⋅r)) mod r
Beim SPS hat man es sowohl mit systematischen als auch mit statistischen Fehlern zu tun. Die
meisten Fehler, die beim zeitlichen PS auftreten, lassen sich direkt auf SPS übertragen.
Weiterhin gibt es einige für SPS spezifische Fehler.
Zunächst folgt ein Überblick (Tabelle 4-1) über alle wichtigen Fehler, die beim 3-Schritt-
Phasenschieben auftreten. Sortiert nach verschiedenen Phasenvorschüben ∆α sind jeweils
Literaturstellen bzw. Kapitel dieser Arbeit angegeben, in denen eine Untersuchung zu dem
zugehörigen Fehler zu finden ist. Ein „A“ bezeichnet dabei ein analytisches, „S“ ein
simuliertes/numerisches Ergebnis.
Tabelle 4-1: Verschiedene Fehlerquellen für SPS mit Angaben zugehöriger Untersuchungen.
Die für das räumliche Phasenschieben wichtigen Fehler werden in den folgenden Kapiteln
angesprochen. Vorhandene Fehlerbetrachtungen für zeitliches PS lassen sich dabei auf das SPS
übertragen. Bei phasenwinkelabhängigen Fehlern tritt im SPS allerdings noch mit ein besonderer
Effekt auf, der zu einem high order fringe error [Cre94a] führt (vgl. 4.2). Weiter ergeben sich für
Fehler bei der Phasenrekonstruktion 41
das SPS spezifische Fehler, wenn die Bedingung der Konstanz von φ, I0 und γ über je drei
miteinander zu verrechnende Pixel (siehe 3.3.3) verletzt wird.
Des weiteren waren wenige Untersuchungen zu ∆α = 120° zu finden. Diese Lücken sollen hier
teilweise gefüllt werden. Dabei wurden einige Ergebnisse auch über Hilfsmittel aus [Bro90] auf
analytischem Wege in allgemeinerer Form erlangt, die bei den Untersuchungen [Cre91, Sch92,
Cre94a] nur als Computersimulation vorlagen.
Beim SPS äußern sich Phasenfehler auf andere Weise als beim zeitlichen Phasenschieben, sobald
der Fehler bestimmte Eigenschaften aufweist.
In Abb. 4.1 sieht man eine rekonstruierte Phase (schräg verkippte Ebene), die über den
Phasenvorschub ∆α = 90° bestimmt wurde. Die Intensitäten des zugrundeliegenden
Interferogramms waren durch Übersteuerung fehlerbehaftet.
Abb. 4.1: Fehlerhafte, rekonstruierte Phase aus übersteuertem Interferogramm mit ∆α = 90°.
Es sind feine senkrechte Streifen zu erkennen mit wesentlich höherer Ortsfrequenz als durch die
Objektphasenänderungen bedingte Wechsel. D.h. selbst in Bereichen konstanter Objektphase
(hier diagonale Linien) werden durch den Übersteuerungsfehler unterschiedliche Phasenwerte
42 Fehler bei der Phasenrekonstruktion
φ′ ≠ const berechnet. Die Struktur der Streifen ist dabei abhängig vom Wert der rekonstruierten
Objektphase φ. Eine genaue Betrachtung der Fehlerstreifen zeigt, daß sich die Fehler alle vier
Spalten wiederholen, was mit der Periodizität des Phasenvorschubs im Interferogramm
zusammenhängt. Diese Art von Fehlern ist in der Literatur [Cre94a und frühere] als high order
fringe error bekannt.
Zur Klärung des Fehlerverhaltens in Abb. 4.1 betrachte man den weiter unten in Abb. 4.2
dargestellten Fehler des Algorithmus für ∆α = 90°. Der Fehler hängt von der rekonstruierten
Phase φ ab.
Durch die gleitende Phasenberechnung (Kap. 3.6) wird bei der Berechnung der Objektphase φ
tatsächlich eine Objektphase von (φ + n⋅∆α) berechnet, von der anschließend n⋅∆α wieder
abgezogen wird. Für die Fehleranfälligkeit eines Algorithmus ausschlaggebend ist nun die
tatsächlich rekonstruierte Phase (φ + n⋅∆α). Dadurch erhält man bei phasenabhängigen Fehlern
auch im Bereich konstanter Phase unterschiedliche Fehler bei der Phasenrekonstruktion.
Eine Ausnahme bilden phasenabhängige Fehler, die gerade periodisch mit dem Phasenvorschub
∆α verlaufen, wie z.B. der in Abb. 4.5 dargestellte Übersteuerungsfehler für ∆α = 120°. Hier
haben Bereiche konstanter Phase trotz gleitender Phasenberechnung überall denselben
Phasenfehler, so daß keine feinen Streifen im Phasenbild entstehen.
Die Periodizität der feinen Streifen erklärt sich daraus, daß die tatsächlich rekonstruierte Phase
nach (360°/∆α) Phasenschritten mit (φ+α+360°) wieder denselben Phasenfehler erhält wie für
(φ+α). So wiederholen sich beispielsweise für ∆α = 90° die Fehler alle vier Spalten.
Zusammenfassend kann man feststellen, daß beim SPS die Fehler in Bereichen konstanter
Objektphase streifig auftreten, wenn
Man betrachte den statistischen Fehler σI als in den Intensitätsmeßwerten Ii lokalisiert. Der
Fehler pflanzt sich über Auswertealgorithmus und Arcustangens-Bildung als Fehler für den
betrachteten Winkel φ fort.
2
∂φ ( I1 , I 2 , I 3 )
3
(4-1) σφ = ∑ ⋅σ I
2
i =1 ∂I i
∑n An I n
(4-2) tan φ =
∑n Bn I n
über eine Taylorreihenentwicklung (mit der Näherung, daß keine Korrelation zwischen den
Fehlern besteht) σφ berechnet. Mit der Definition4
( ∑n An I n ) 2 + ( ∑n Bn I n ) 2
(4-3) C2 =
(γ ⋅ I 0 ) 2
folgt nach [Bro90] für den vom berechneten Phasenwinkel φ abhängigen Fehler
(4-4) σφ 2 σ I2 1
(
= 2 2 ⋅ 2 ⋅ ∑ An 2 ⋅ cos2 φ + Bn 2 ⋅ sin 2 φ − 2 An Bn sin φ cosφ .
γ ⋅ I0 C n
)
1
Zusätzlich wird der über alle Phasenwinkel gemittelte Fehler σ φ " 2π ∫[0;2π]σφ in [Bro90]
angegeben über
(4-5) σφ 2 σ I2 1
(
= 2 2 ⋅ 2 ⋅ ∑ An 2 + Bn 2 .
γ ⋅ I 0 2C n
)
Um nun mit diesen Formeln den Fehler für einen bestimmten Algorithmus zu berechnen, ist
folgendes zu beachten:
4
Im Artikel war fälschlicherweise angegeben: C = (Σn An⋅In)2 + (Σ n Bn⋅In)2
44 Fehler bei der Phasenrekonstruktion
Die Koeffizienten An, Bn lassen sich direkt aus dem verwendeten Algorithmus ablesen. Zur
Bestimmung des in (4-3) definierten, aufwendig zu berechnenden C werden in [Bro90] keine
Hinweise gegeben. Die Berechnung von C vereinfacht sich, wenn man die Herleitung der
Algorithmen nach Kapitel 3.4.1 noch einmal heranzieht:
Mit (3-19) zur Berechnung des jeweiligen Algorithmus und den Definitionen (3-16) folgt
a2 γ I 0 sin φ ∑n An I n
(4-6) tan φ = = = ,
a1 γ I 0 cos φ ∑n Bn I n
falls der Bruch a2/a1 nicht erweitert wurde. Dann gilt nach (4-3)
(γ I 0 sin φ ) 2 + (γ I 0 cos φ ) 2
(4-7) C2 = = 1.
(γ I 0 ) 2
Falls der Bruch a2/a1 mit dem Wert W erweitert wurde, so gilt C2 = W2.
Nun werden die Gleichungen von Brophy (4-4) und (4-5) auf den Algorithmus (3-21) für
beliebige Phasenvorschübe ∆α angewendet. Aus (3-20) ergibt sich
Definiere nun A " 1/2sin∆α und B " 1/2(1-cos∆α). Für die Koeffizienten An und Bn gilt damit
(4-9) A1 = A ; A2 = 0 ; A3 = -A ; B1 = -B ; B2 = 2B ; B3 = -B.
Mit diesen Koeffizienten gilt C2 = 1. Die Koeffizienten werden nun in (4-4) und (4-5) eingesetzt,
womit die gesuchten Fehler für beliebige Phasenvorschübe ∆α folgen:
σI 2 ⋅ cos2 φ 6 ⋅ sin 2 φ
(4-10) σφ = ⋅ +
2γ I 0 sin 2 ∆α (1 − cos ∆α ) 2
σI 1 3
(4-11) σφ = ⋅ + .
2γ I 0 sin ∆α (1 − cos ∆α ) 2
2
Fehler bei der Phasenrekonstruktion 45
In Abb. 4.2 ist σφ(∆α,φ) für die Phasenschübe 60°, 90°, 120° und 150° dargestellt. Die Fehler
sind alle phasenwinkelabhängig außer für den Algorithmus mit ∆α = 120°. Hierfür ist denn auch
kein streifiges Auftreten der Fehler (vgl. Kapitel 4.2) zu erwarten5.
σφ / °
15
12
9
∆α = 60°
∆α = 90°
6
∆α = 120°
∆α = 150°
3
0
0 90 180 270 360 Objektphase φ / °
Abb. 4.2: Winkelabhängiger Phasenfehler für verschiedene Phasenvorschübe ∆α bei einer Standardabweichung von
σI=(0,1⋅I0) für die gemessenen Intensitäten
Weiterhin gibt Abb. 4.2 einen Hinweis darauf, daß der mittlere Fehler für alle Algorithmen mit
∆α ≠ 120° größer wird. Dies wird durch die in Abb. 4.3 gezeigte Kurve bestätigt. Dort sind die
über alle Objektphasen gemittelten Fehler für alle Phasenvorschübe ∆α nach (4-5) dargestellt.
Der Algorithmus mit ∆α = 120° reagiert am wenigsten empfindlich auf statistische
Schwankungen der gemessenen Intensitäten6.
σφ / °
20
16
12
0
0 30 60 90 120 150 180 ∆α / °
Abb. 4.3: Gemittelter Phasenfehler für alle Phasenvorschübe ∆α bei einer Standardabweichung von (0.1!I0) für die
gemessenen Intensitäten
5
Bei Fehlern, die über das Interferogramm statistisch verteilt sind, ist mit Streifen ohnehin nicht zu rechnen. Diese treten ja nur
bei φ =const und gleichem Fehler σI = const. auf.
6
Die Ableitung von (4-5) nach ∆α hat gerade bei ∆α=120° ihre Nullstelle.
46 Fehler bei der Phasenrekonstruktion
4.3.2 Digitalisierungsfehler
2
(4-12) σ φ 2 ≈ 2 2 ∑ ∑ ( An Am + Bn Bm ) ∆I n ∆I m .
C Q n m
Für den Algorithmus nach (3-27) (3 Schritte mit ∆α = 90°) gilt C2 = 2. Hier berechnet Brophy
die Doppelsumme in (4-12) zu 1
3, womit nach (4-12) für den Digitalisierungsfehler gilt:
1
(4-13) σ φ2 ≈ .
3 ⋅Q 2
Auf gleiche Weise wie bei Brophy läßt sich der Digitalisierungsfehler für den Algorithmus nach
(3-23) (3 Schritte mit ∆α = 120°) berechnen. Hier ist C2 = 9 und die Doppelsumme berechnet
sich zu 1. Es folgt für den Digitalisierungsfehler bei ∆α = 120°:
1
(4-14) σ φ2 ≈
4.5 ⋅ Q 2
Damit ist der Algorithmus für ∆α = 120° gegenüber Digitalisierungsfehlern weniger anfällig als
der Algorithmus für ∆α = 90°.
Im Hinblick auf die Anwendung des SPS für eine verspeckelte Objektwelle ist das
Fehlerverhalten für falsch ausgesteuerte Intensitäten interessant. Unter Beachtung der
Specklestatistik steuert man ein Specklegramm so aus, daß möglichst viele Werte eine gute
Modulation aufweisen (siehe dazu Kapitel 6.2.1.5). Dabei nimmt man in Kauf, daß einige
Speckles übersteuert werden: Werte, die von der Intensität her über 255 lägen, werden auf 255
gesetzt.
Anschließend wird der Algorithmus zur Phasenberechnung angewendet und die berechnete
Phase von der vorgegebenen Phase subtrahiert. Damit liegt der absolute Fehler in Abhängigkeit
von der vorgegebenen Objektphase vor.
• Für ∆α = 90° werden die Pixel-Intensitäten I1,.., I6 berechnet, um aus den Tripeln (1,2,3),
(2,3,4), (3,4,5), (4,5,6) die Fehler für φ+45°, φ+135°, φ+225°, φ+315° zu bestimmen und
über φ darzustellen.
• Für ∆α = 120° werden die Pixel-Intensitäten I1,.., I5 berechnet, um aus den Tripeln
(1,2,3), (2,3,4), (3,4,5) die Fehler für φ, φ+120°, φ+240° zu bestimmen und über φ
darzustellen.
In Abb. 4.4 und Abb. 4.5 sind nun die unter gleichen Bedingungen (γ = 1 und I0 = 1.1⋅127.5)
erhaltenen Fehler für alle Phasenwinkel φ dargestellt. In den Legenden für die Diagramme ist
neben den dargestellten Pixeltripeln zusätzlich der Phasenvorschub für das erste Pixel des Tripels
angegeben.
Fehler / °
8
6
4
6
8
0 90 180 270 360
(1,2,3) α1 = 45° Vorgegebene Objektphase φ / °
(2,3,4) α2 = 135°
(3,4,5) α3 = 225°
(4,5,6) α4 = 315°
Abb. 4.4: Fehler für φ durch Übersteuerung für ∆α=90° (mit γ =1, I0=127+12.7 zu heller Hintergrund)
48 Fehler bei der Phasenrekonstruktion
Fehler / °
8
6
4
2
0
2
4
6
8
0 90 180 270 360
(1,2,3) α1 = 0° Vorgegebene Objektphase φ / °
(2,3,4) α2 = 120°
(3,4,5) α3 = 240°
Abb. 4.5: Fehler der Objektphase durch Übersteuerung für ∆α=120° (mit γ =1, I0=127+12.7); alle drei Fehlerkurven
liegen übereinander.
Mit ∆α = 90° erhält man bei gleicher Objektphase φ für die nebeneinanderliegenden
rekonstruierten Phasen verschiedene Fehler, was zu streifigen Strukturen führt, wie in Kapitel
4.2.1 und Abb. 4.1 dargestellt.
Für ∆α = 120° ist ein um Faktor 3 geringerer durch Übersteuerung bedingter Fehler zu erkennen
als für ∆α = 90°. Weiterhin ist der Fehler in Abb. 4.5 periodisch mit 120°, was gerade ∆α
entspricht. Wie in Kapitel 4.2.2 erläutert, tritt deswegen hier keine streifige Erscheinungsform
der Phasenfehler auf. Im Anhang A1.3 findet sich eine graphische Begründung dieser
Sachverhalte.
Der Vorteil eines kleineren Phasenvorschubs (∆α = 90° statt 120°) ist nach (3-10) eine erhöhte
Modulation, womit über kleinere Kamera-Verstärkung ein geringeres Rauschen zu erwarten ist.
Die Untersuchungen in den vorangegangenen Abschnitten zeigen jedoch eine geringere
Fehleranfälligkeit für ∆α = 120°, so daß die Wahl auf diesen Phasenvorschub fällt.
Mit dem Algorithmus (3-21) für beliebige Phasenschiebewinkel läßt sich ein analytischer
Ausdruck für die Fehler berechneter Phasenwerte durch einen falschen zusätzlichen
Phasenvorschub (∆α+δ statt ∆α) berechnen.
Fehler bei der Phasenrekonstruktion 49
Bei der Auswertung gewonnener Intensitäten Ii geht man im Normalfall von einem zusätzlichen
Phasenvorschub ∆α aus und berechnet die Objektphase mit dem passenden Algorithmus
T(∆α)=f(Ii) nach7:
Bei einem tatsächlich vorliegenden Phasenvorschub (∆α+δ) erhält man falsche Ergebnisse. Eine
abgewandelte Berechnung liefert hingegen die korrekte Objektphase φk
mit dem für den Phasenvorschub (∆α+δ) korrekten Algorithmus T(∆α+δ). Der durch den
abweichenden Phasenschub verursachte absolute Fehler
• Ein globaler Fehler, der durch das subtrahierte n⋅δ erzeugt wird und zu einem linearen
Phasenanstieg x⋅δ/PA im Phasenbild führt. Dieser Fehler verschwindet automatisch bei
der Bildung von Differenzphasen nach Kapitel 3.7 und wird deshalb nicht weiter
untersucht.
• Ein lokaler, phasenabhängiger Fehler, der durch die Verwendung des nicht zu ∆α+δ
passenden Algorithmus' T(∆α) erzeugt wird.
Mit (3-21) erhält man einen Algorithmus zur Rekonstruktion der Objektphase φ bei einem
Phasenvorschub ∆α von Pixel zu Pixel:
1 − cos ∆α I1 − I 3
(4-18) tan φ = .
sin ∆α 2 I 2 − I1 − I 3
Falls nun ein veränderter Phasenvorschub (∆α + δ) vorliegt, würde man die korrekte Phase nur
erhalten mit
1 − cos( ∆α + δ ) I1 − I 3
(4-19) tan φ k = .
sin( ∆α + δ ) 2 I 2 − I1 − I 3
7
Der Übersichtlichkeit halber wird hier die Demodulation des arctan von π nach 2π nicht mit aufgeführt.
50 Fehler bei der Phasenrekonstruktion
modifiziert gegenüber dem korrekten Wert tan φk (vgl. auch [Ran86]). Damit ergibt sich für den
absoluten Fehler durch falschen Phasenvorschub bei vorgegebenem korrektem Phasenwinkel φk
Für den Algorithmus (3-23) (∆α=120°) wurde in Abb. 4.6 der absolute Fehler nach (4-21) für
verschiedene Abweichungen δ des Phasenvorschubs aufgetragen. Es zeigt sich, daß erst für
größere Abweichungen des Phasenvorschubs merkliche Fehler in der berechneten Objektphase φ
auftreten.
Durch die Abhängigkeit des Fehlers von der Objektphase ist zum einen wieder mit streifigem
Auftreten der Fehler wie in Kapitel 4.2 zu rechnen. Zum anderen werden die Phasenwinkel, bei
denen größere Fehler auftreten (z.B. φ = 45°) auf stärker abweichende Werte verschoben als die
Phasenwinkel mit kleineren Fehlern (z.B. φ = 0°). Dadurch werden bestimmte Phasenwerte
bevorzugt rekonstruiert. Im Experiment konnte beobachtet werden, daß mit steigendem δ die
rekonstruierten Phasenwinkel immer ungleichmäßiger verteilt wurden8 (vgl. 6.2.3.2).
Fehler / °
15
10
10
15
90 45 0 45 90
Vorgegebene Objektphase φk / °
Fehler bei δ = -10°
Fehler bei δ = 2°
Fehler bei δ = +10°
Fehler bei δ = +20°
Abb. 4.6: Absoluter lokaler Fehler der Objektphase durch falschen Phasenvorschub bei Algorithmus für ∆α = 120°
8
Da die Phasenwinkel als Graustufen dargestellt wurden, bedeutet das eine ungleichmäßige Grauwert-Häufigkeit im Histogramm
des Sägezahnbildes.
Fehler bei der Phasenrekonstruktion 51
Bei verspeckelter Objektwelle wird die Bedingung „φ = const. über die drei zu verrechnenden
Pixel“ häufig verletzt. Um den dadurch erzeugten Fehler näherungsweise zu beschreiben, wird
hier eine Abweichung von φ in erster Ordnung untersucht: φ1 = φ - δ, φ2 = φ, φ3 = φ + δ.
Die Untersuchungen aus Kapitel 4.4.1 lassen sich nun in einfacher Weise auf dieses Problem
anwenden. Bei einem Phasenvorschub α1 = -∆α, α2=0°, α3 = +∆α läßt sich die
Objektphasenänderung erster Ordnung als abweichender Phasenvorschub deuten:
Mit dem abweichenden Phasenvorschub ∆α′=∆α+δ läßt sich der Objektphasen-Fehler durch
variierende Objektphase mit (4-21) berechnen (vgl. [Ran86]). Zu variierenden Objektphasen in
Speckles siehe Kapitel 6.2.2.1.
In Kapitel 3.2.2 wird gezeigt, daß sich ein durch seitlichen Focus-Versatz erzeugter
Phasenvorschub über dem Kamera-Sensor nach Gleichung (3-5) verhält. Diese Funktion ist in
Abb. 4.7 für Werte dargestellt, wie sie in den Aufbauten für diese Arbeit benutzt wurden (vgl.
auch Abb. 3.5).
Fα⋅ PA
Blendenabstand ∆z = 150mm
Abstand der Foci ∆s = 3,7 mm
Pixelabstand PA = 8,6 µm
120°
0,12°
x
Kamera-Sensor
An Abb. 4.7 läßt sich erkennen, daß der Phasenvorschub ∆α über den Bereich des Sensors um
weniger als 0.1 % von 120° abweicht. Mit (4-21) ergibt sich so ein maximaler absoluter Fehler
für die berechnete Objektphase φ von 0.07°. Fehler durch die verbleibende Nichtlinearität des
zusätzlichen Phasenvorschubs sind damit vernachlässigbar.
52 Fehler bei der Phasenrekonstruktion
Spezifische Fehler für das SPS treten auf, wenn die in Kapitel 3.3.3 gemachte Annahme der
Konstanz von I0 und γ über drei ausgewertete Pixel nicht eingehalten wird. Im Hinblick auf den
Einsatz verspeckelter Objektwellen treten jedoch räumlich stark schwankende Intensitäten in der
Objektwelle auf, wodurch bei der Auswertung fehlerhafte Phasen berechnet werden.
Im folgenden wird der Fehler untersucht, der durch veränderliche Objektwellen-Intensität auf den
jeweils drei ausgewerteten Pixeln erzeugt wird. Dabei wird vereinfacht der Fehler erster Ordnung
betrachtet, bei dem die Intensitätswerte der Objektwelle Oi über drei Pixel linear ansteigen (O1,
O2, O3) = (O-δ, O, O+δ). Die Referenzwelle kann hingegen mit über das target quasi konstanter
Intensität eingekoppelt werden, weshalb die Intensitäten der Referenzwelle Ri als über drei Pixel
gleich angenommen werden: (R1, R2, R3) = (R, R, R). Man geht damit von folgenden Intensitäten
für drei benachbarte Pixel aus:
(4-23) Ii = Oi + R + 2 ⋅ Oi ⋅ R ⋅ cos(φ + α i ) .
!"# !%"% #
=: I0 =:γ ⋅I0
1
I0 und γ ergeben sich darin zu I0 = Oi + R und γ = 2 ⋅ .
O R
+ +2
R O
Eine Änderung der Objektwellenintensität O bewirkt damit eine Änderung sowohl des
Untergrundes I0 als auch des Modulationsgrads γ.
Durch die mit δ veränderten Objektwellenintensitäten entsteht eine Abweichung der bei der
Phasenrekonstruktion berechneten Objektphase. Berechnet man die Abweichung für einen
beliebigen Phasenvorschub (α1, α2, α3) = (-∆α, 0°, +∆α), so erhält man einen komplizierten
Ausdruck in Abhängigkeit von den nicht-separablen Variablen φ, ∆α, δ, O, R.
Um den Fehler zu charakterisieren, wurde auf gleiche Weise wie in Kapitel 4.3.3 eine Simulation
der auftretenden Fehler durchgeführt. Für vorgegebene Parameter φ, ∆α, δ, O, R werden nach (4-
23) die Intensitäten I1, I2, I3 berechnet, woraus mit (3-21) eine fehlerbehaftete Objektphase
rekonstruiert wird. Aus der Differenz zur vorgegebenen Objektphase ergibt sich der absolute
Fehler ∆ der Phasenrekonstruktion.
Um die Anzahl der Parameter für die Simulation einzuschränken, ist unter Einbezug der
experimentellen Ergebnisse folgendes zu beachten:
Fehler bei der Phasenrekonstruktion 53
• Die Intensitäten O und R werden in Anlehnung an Kapitel 6.2.1.5 so gewählt, daß eine
maximale mittlere Modulationstiefe zustandekommt.
• Daher wird die Referenzwellenintensität auf Grauwert R = 50 gesetzt. Da sich bei der
Fehlerberechnung nur ein geringer Einfluß von R auf den Fehler ∆ zeigte, ist speziell
diese Festlegung unkritisch.
• Bei dem in Kapitel 6.2 benutzten Aufbau waren in der Objektwelle Intensitätsänderungen
von 10 bis 20 Graustufen zwischen je zwei Pixeln zu beobachten. Für die Abweichung
der Objektwellenintensität wird im folgenden ein Bereich δ ∈ [0, 20] untersucht. Je
größer die Speckles gewählt werden, desto kleiner werden auch die Schwankungen δ.
• Für den Phasenvorschub ist unter Beachtung der vorangegangenen Kapitel ein Bereich
um 90° bis 120° interessant. Untersucht wird ∆α ∈ [60°, 150°].
360°
2. Über alle Phasenwinkel gemittelter Fehler ∆ = ∫ ∆ (φ ) dφ
1
360°
0°
3. PV (peak to valley) - Fehler ∆PV : Differenz zwischen dem maximalen und minimalen
phasenabhängigen Fehler ∆ im Bereich φ ∈ [0°;360°). Dieser Wert entspricht dem
größten Fehler, der bei der Berechnung von Differenzphasen nach Kapitel 3.7
auftreten kann, wenn die zu bestimmenden Phasenwinkel ungünstige Werte
annehmen.
Die Phasenwinkelabhängigkeit des Fehlers ∆(φ) ist nun in Abb. 4.8 dargestellt.
54 Fehler bei der Phasenrekonstruktion
∆/° ∆/°
30 δ = 20 ∆α = 120° 30 δ = 10
∆α = 150°
20 15 20
10 120°
10 10
5 90°
0 0 60°
10 10
20 20
0 90 180 270 360 φ/° 0° 90 180 270 360 φ/°
Abb. 4.8: Phasenwinkelabhängigkeit der durch ungleichmäßige Objektstrahlintensität erzeugten, absoluten Fehler
∆(φ). Links: für verschiedene Intensitätsunterschiede δ bei ∆α =120°, rechts: für verschiedene
Phasenvorschübe ∆α mit δ =10.
Der Fehler ∆ nimmt mit δ schnell zu und wird zunehmend unsymmetrisch (links). Veränderte
Phasenschübe ∆α verändern kaum die Form des Fehlers, sondern erzeugen einen Offset für den
gesamten Fehler (rechts). Das läßt sich am besten an dem über alle Phasenwinkel gemittelten
Fehler in Abb. 4.9 (links) erkennen.
∆ /° ∆PV/°
40
10 35
δ = 15
0 30
δ= 5
10
25
10 15
δ = 10
20 20
20
15
60 90 120 150 ∆α/° 60 90 120 150 ∆α/°
Abb. 4.9: Abhängigkeit vom Phasenvorschub ∆α des über alle Phasenwinkel gemittelten Fehlers ∆ (links) und des
PV-Fehlers ∆PV (rechts) für verschiedene Intensitätsunterschiede δ der Objektwelle.
Unabhängig von den anderen Parametern ist der gemittelte Fehler ∆ = 0 für ∆α = 120°, negativ
für ∆α < 120° und positiv für ∆α > 120°. Bei anderen Phasenvorschüben als 120° erhält man
damit für Pixeltripel mit δ ≠ 0 einen Offset, der die Qualität des berechneten Phasenbildes
beeinträchtigt. Das spricht dafür, einen Phasenvorschub ∆α = 120° zu wählen.
In Abb. 4.9 (rechts) ist zu erkennen, daß die PV-Fehler ∆PV bei ∆α = 90° minimal werden. Da die
Fehlerkurve dort jedoch sehr flach verläuft (am Unterschied der Fehler für δ = 10 und 15 zu
Fehler bei der Phasenrekonstruktion 55
erkennen), ist der Fehler für ∆α = 90° nur wenig geringer als für ∆α = 120°, was auch der Abb.
4.10 zu entnehmen ist.
∆PV/°
50
40 ∆α = 120°
30
∆α = 90°
20
10
0 δ
0 5 10 15 20
Abb. 4.10: PV-Fehler ∆PV(δ) als Funktion einer linearen Abweichung δ der Objektwellenintensität
Hier wurde ∆PV über δ aufgetragen. Wie auch schon in Abb. 4.8 (links) zu erkennen, steigt der
Phasenbestimmungsfehler mit δ sehr schnell an und liegt schon für δ = 15 bei ∆PV = 35°. Hier
liegt eine der Ursachen für das starke Rauschen, welches man bei der Auswertung verspeckelter
SPS-Interferogramme im Phasenbild erhält.
tan φ =
O2 ( J1 − J 3 ) − cos ∆α ( O1 ( J 2 − J 3 ) + O3 ( J1 − J 2 ) ).
( )
(4-24)
sin ∆α O1 ( J 2 − J 3 ) + O3 ( J 2 − J1 )
9
Für O1=O2=O3=O folgt daraus wieder (3-21).
56 CCD-Bildwandler
5 CCD-Bildwandler
„Designers of video speckle interferometers are usually not experts in the field of CCD technol-
ogy, and most of them apply commercially available camera systems. Even with these systems,
some knowledge of the design and performance characteristics of CCD imaging devices is re-
quired to choose a camera that best suits the purpose.“ (Aus [Spo94])
Die elektronische Specklemuster-Interferometrie ist ein Gebiet der Optik, das ohne Bildwandler,
die Intensitäten in elektrische Signale umsetzen, nicht denkbar wäre. Als Standardgerät hat sich
dabei aufgrund problemlosen Betriebs und sehr guter elektronischer Eigenschaften weltweit die
sogenannte CCD (charge coupled device)-Kamera durchgesetzt.
Im folgenden werden die Anfänge der CCD-Technologie und ihre Vorteile kurz skizziert;
anschließend wird die technische Umsetzung des Konzepts geschildert. Sich daraus ergebende
Eigenschaften werden im letzten Abschnitt behandelt.
5.1 Einführung
In den 1960er Jahren führten die Fortschritte in der Mikroelektronik zu einem neuen Typ von
selbstauslesenden Bildwandlern, die sich bald durch erhebliche Vorteile gegenüber den bis dahin
gebräuchlichen Röhrenkameras auszeichneten.
Die ersten Versuche befaßten sich mit Photowiderständen, die in einer zweidimensionalen
Matrix angeordnet wurden. Es stellte sich jedoch heraus, daß hiermit nur eine ungenügende
Bildqualität erzielt werden konnte. Rauschen, ungenügende Anzahl der Sensoren in den
sogenannten arrays und zu geringe Auslesegeschwindigkeit sprachen gegen die
Weiterverfolgung dieses Konzepts. In der Folge wurde es jedoch möglich, Photoelektronen als
Ladungspakete zu sammeln anstatt sie als Photoströme zu messen, was einen integrierenden
Betrieb ermöglichte.
1969 wurden die sog. Eimerkettenschaltungen oder BBDs (bucket brigade devices) vorgestellt;
sie waren ursprünglich für einen Einsatz als analoge Filter, Speicher oder
Verzögerungsschaltungen konzipiert; es wurde jedoch bald erkannt, daß auch die Nutzung als
Photosensor möglich war. Ihre Funktionsweise bediente sich des Transports von Ladungspaketen
durch eine Reihe hintereinander geschalteter Transistoren [The95b].
1970 stellten die Bell Telephone Laboratories einen Halbleiterchip vor, der einen
Ladungstransport durch hintereinander geschaltete Kondensatoren ermöglichte und CCD genannt
wurde. Dieser konnte für die gleichen Zwecke wie die BBDs verwendet werden. Das neue
CCD-Bildwandler 57
Konzept wurde zuerst in Astronomie und Rüstungs- und Videoindustrie aufgegriffen [Spo94,
The90, Jan95]; es dauerte jedoch etwa 10 Jahre, bis die Fertigungstechnologie so weit
fortgeschritten war, daß der CCD-Bildsensor ein preisgünstiges Massenprodukt wurde; in allen
anderen denkbaren Anwendungen war die CCD-Technologie durch digitale Technik verdrängt
worden.
Im Bereich der Bildaufnahme verdrängte der CCD-Sensor seinerseits die bis dahin
gebräuchlichen Bildwandlerröhren, die sogenannten Vidicons. Für den CCD-Sensor sprechen
folgende Vorteile:
• Lange Lebensdauer
• Niedrige Leistungsaufnahme
Die Auflösung von CCD-Kameras ist inzwischen konkurrenzfähig mit der von Röhrenkameras;
auch die HDTV (high definition television)-Forschung konzentriert sich auf CCD-Sensoren. Die
bei der Digitalisierung anfallenden Datenmengen, die dem Produkt aus horizontaler und
vertikaler Auflösung und Grautiefe proportional sind, stellen angesichts der heutigen
Massenspeicher kein großes Problem mehr dar.
Da die Einsatzmöglichkeiten von CCDs immer noch ausgebaut werden – neuere Beispiele sind
automatische Fertigung und Endoskopie –, führen die Aktivitäten in der Forschung nach wie vor
zur ständigen Entwicklung neuer Technologien. Viele Erfindungen kommen zuerst in teuren
58 CCD-Bildwandler
Spezialgeräten zum Einsatz und sind wenig später auf dem Massenmarkt, z.B. in Camcordern, zu
finden.
5.2 CCD-Technologie
Das Grundelement eines Bildsensors ist das Pixel (Abk. für picture element). Im CCD-Sensor
muß jedes Pixel Ladungen erzeugen, speichern und transportieren können. Von der
Verwirklichung dieser Bedingungen soll im folgenden die Rede sein.
Im Prinzip ist ein CCD eine Anordnung von Kondensatoren, deren Geometrie vielen
Einsatzzwecken angepaßt werden kann. Am bekanntesten sind die lineare (Zeilenkamera), die
rechteckige und die kreisförmige Anordnung.
Die meisten CCD-Chips sind auf einem Substrat aus p-Silizium (Löcherdichte etwa 1015 ⋅ cm −3 )
hergestellt, der mit einer dünnen Isolatorschicht (SiO2) überzogen ist. Durch Aufbringen von
Elektroden auf die Oxidschicht entsteht ein array von MOS (metal oxide semiconductor) -
Kondensatoren. Wird an die Elektroden ein positives Potential angelegt, stoßen deren elektrische
Felder die Löcher ab und schaffen unter jeder Elektrode eine negative Raumladungszone von
einigen µm Dicke, wie Abb. 5.1 zeigt. Meist wird zusätzlich ein n-dotierter Bereich unter der
Elektrode eingebracht, um die Raumladungszone zu vergrößern.
Das Material der Elektroden ist so gewählt, daß Licht der gewünschten Wellenlänge es
durchdringen kann; meist wird hier Poly-Silizium verwendet, das für Wellenlängen über 400 nm
durchlässig ist. Wird das Substrat in der Raumladungszone von Photonen getroffen, deren
Energie ausreicht, Elektron-Loch-Paare zu erzeugen, werden diese Paare durch das elektrische
Feld sogleich getrennt. Die Elektronen reichern sich unter der isolierten Elektrode an und die
Löcher wandern ins Substrat ab, so daß sich unter jeder Elektrode eine negative Ladung
ansammelt, die der auftreffenden Lichtenergie proportional ist.
Längerwelliges Licht dringt tief in das Material ein und erzeugt die Ladungsträger u.U. zu weit
unter der Raumladungszone, so daß sie entweder rekombinieren oder die Elektronen zu
benachbarten Elektroden diffundieren können. Dadurch verringert sich die räumliche Auflösung
eines arrays; in [Spo94] wird von der Verwendung gewöhnlicher Sensoren für Wellenlängen
über etwa 900 nm aus diesem Grunde abgeraten.
CCD-Bildwandler 59
Photon
Elektrode
Isolatorschicht (SiO2)
Raumladungszone
Wird ein solcher Flächendetektor in die Bildebene einer Abbildungsoptik gebracht, wird die
abgebildete Intensitätsverteilung in eine Ladungsverteilung umgewandelt und kann elektronisch
weiterverwertet werden.
Die Anzahl der Elektronen, die unter einer Elektrode gesammelt werden können, ist begrenzt und
liegt für eine gewöhnliche CCD-Kamera bei etwa 100000. In solchen Kameras liegt das Signal-
Rauschverhältnis (" Verhältnis von maximal speicherbarer Elektronenanzahl zum
Dunkelrauschen in Elektronen) bei maximal 58 dB. Höhere Ansprüche erfordern folglich größere
Pixel mit mehr Kapazität; dies geht zu Lasten der räumlichen Auflösung. Um die Pixelanzahlen
beizubehalten, sind solche rauscharmen Sensoren demzufolge extrem groß (Kantenlänge einige
cm bis wafer-Größe). Für spezielle Anwendungen kann der Sensor gekühlt werden, um
Leckströme und Rauschen weiter zu reduzieren. Dabei nimmt pro 8 K Temperatursenkung der
Dunkelstrom um 50% ab. Die Empfindlichkeit gekühlter Sensoren stößt erst durch shot noise
und Photonen aus kosmischer Strahlung an ihre Grenzen; das Signal/Rauschverhältnis kann bis
zu 120 dB erreichen. Ein angepaßter Analog-Digital-Wandler muß dann mit mindestens 16 Bit
Auflösung arbeiten [Jan95, PI].
Die Quantenausbeute der Detektorelemente ist wellenlängenabhängig; meist werden die Chips
auf das Ansprechverhalten des menschlichen Auges, d.h. ein Empfindlichkeitsmaximum bei
etwa 500 nm abgestimmt. Trotzdem sind kommerzielle Kameras oft mit einem zusätzlichen IR-
Filter ausgestattet, da das natürliche Absorptionsmaximum von Silizium bei etwa 800 nm liegt.
Um die Quantenausbeute, besonders im blauen Bereich, zu erhöhen, kann die Sensorfläche von
hinten beleuchtet werden. Absorption im Elektrodenmaterial und Verluste durch
Mehrfachreflexionen werden so vermieden und die Quantenausbeute beträgt im Bereich von
100-1000 nm über 50% [Spo94, Jan95]. Abb. 5.2 zeigt den Verlauf der spektralen
Empfindlichkeit für einen handelsüblichen Sensor (SONY ICX 039 BLA).
60 CCD-Bildwandler
rel. Einh.
1
.9
.8
.7
.6
.5
.4
.3
.2
.1
Die Ladungsakkumulation läuft erst unter Einwirkung des elektrischen Feldes; liegt kein Feld an,
so werden die gebildeten Elektron-Loch-Paare nicht getrennt und rekombinieren. Dadurch steht
auf natürliche Weise ein sehr einfacher elektronischer Verschluß (shutter) zur Verfügung, der
zum elektronischen Abblenden (auto iris) bei zu heller Beleuchtung und/oder zum Vermindern
von Verwischungen eingesetzt werden kann. Hierbei liegt dann die Spannung nicht in der ganzen
Zeit zwischen zwei Auslesevorgängen an, sondern erst mehr oder weniger kurz vor dem
Auslesen (vgl. 5.3.3.1). Ausreichende Beleuchtungsintensität vorausgesetzt, können so
Integrationszeiten in der Größenordnung von einigen µs realisiert werden. Breite Anwendung
findet dieses Prinzip z.B. bei Sportaufnahmen [The90, SO1].
5.2.2 Ladungstransport
Für den Transport der Ladungspakete in das bzw. die Schieberegister und von dort in eine
Verstärkerschaltung, die Ladung in Spannung übersetzt, hat sich der Begriff „Eimerkette“
eingebürgert. Das besagt, daß die Ladungen voneinander getrennt bleiben und taktweise von
einer Gitterstelle zur nächsten weitergereicht werden. Um zu verstehen, wie dies geschieht, kann
man sich eine Potentialwelle wie in Abb. 5.3 vorstellen, in deren Tälern die Elektronen
peristaltisch transportiert werden.
Abb. 5.3: Elektronentransport mittels Potentialsteuerung. Die Welle trägt die Elektronen hier nach rechts ins
Schieberegister, das auf die gleiche Weise arbeitet.
CCD-Bildwandler 61
Gezeigt sind die Elektroden wie in Abb. 5.1; das Substrat ist nicht dargestellt. Ein Pixel ist hier
durch vier Elektroden definiert; da diese alle gleich sind, gibt es keine feste Position für die Pixel
und auch die Orte der Ladungsakkumulation können innerhalb einer Vierergruppe frei gewählt
werden. Eine Periode des Vierphasentaktes umfaßt die Takte t1 bis t8; erst dann ist ein
Ladungspaket um vier Elektroden weitergeschoben. Der Übersichtlichkeit wegen wird hier nur
eine Hälfte des Zyklus´ dargestellt.
V1
V2
V3
V4
1 Stufe
t1
t2
t3
t4
t5
Transportrichtung
Abb. 5.4: Der Transport eines Ladungspakets mittels Vierphasentakt. Nach [The90]
Durch Verwenden eines Zweiphasentaktes läßt sich die Verlustleistung verringern; dadurch wird
jedoch innerhalb der einzelnen Potentialbereiche ein zusätzlicher Gradient erforderlich, um die
Elektronen am Zurückfließen zu hindern. Dies kann entweder durch geeignet geformte,
überlappende Elektroden oder durch Vorspannung der Potentialbereiche mittels Dotierung
erreicht werden. Bei der Herstellung überlappender Elektroden sind Kurzschlüsse zwischen
diesen sehr wahrscheinlich; deshalb wird das Zweiphasenverfahren hauptsächlich durch
Dotierung implementiert. Abb. 5.5 zeigt die Beschaffenheit einer Zweiphasen-Anordnung mit
dotierten Potentialbereichen.
n-Dotierung
V1
V2
SiO2
1 Stufe p-Si
t1
t2
t2
t1
t1
Abb. 5.5: Transport eines Ladungspakets mittels Zweiphasentakt. Während eines Taktes gelangen die Elektronen
über die Potentialrampe zum tiefsten Punkt des Potentials, der im nächsten Takt angehoben wird. Nach
[SO1]
Hier ist ein Pixel durch zwei Elektroden definiert; der Ladungstransport ist nur in der
dargestellten Richtung möglich. Das Weiterschieben des Ladungspakets um ein Pixel erfolgt
innerhalb von zwei Takten; der komplette Zyklus ist dargestellt.
Der Zweiphasentakt eignet sich gut für schnelle Transportvorgänge; horizontale Schieberegister,
welche die Ladungspakete mit etwa 15 MHz ausgeben, werden meist in Zweiphasenanordnung
gefertigt.
CCD-Bildwandler 63
Schließlich ist auch das Einbringen sogenannter virtueller Elektroden durch geeignete Dotierung
des Substrates möglich. Dieses muß allerdings vom n-Typ sein; die virtuellen Elektroden
bestehen aus p-dotierten Bereichen, die zwischen den Steuerelektroden liegen und eine konstante
negative Raumladung aufbauen. Dadurch wird ein mittleres Potential erzeugt. Durch
abwechselndes Über- und Unterschreiten desselben wird ein Einphasentakt möglich, wie er in
Abb. 5.6 dargestellt ist. Dieses Verfahren ist unter dem Begriff „Virtual Phase“ bekannt und
patentiert und bietet besonders im Blauen den Vorteil höherer Quantenausbeute, da nur noch die
Hälfte des Sensors mit Elektroden bedeckt ist [Sch83].
Zugleich ist an der Form der Elektroden zu erkennen (n.b. die Elektroden liegen alle auf einem
Potential), wie durch unterschiedliche Abstände von Teilstücken zum Substrat ein
Potentialgradient im Substrat erzeugt werden kann.
p-Dotierung
V
virtuelle
Elektroden
SiO2
n-Si
1 Stufe
t1
t2
t2
t1
t1
Abb. 5.6: Verschieben der Ladungen mit nur einem Spannungssignal. Die fett gezeichneten Potentialrampen sind
durch die Dotierung gegeben und unveränderlich. Nach [Sch83]
Gemeinsam ist den Mechanismen, daß das Verschieben um eine Gitterstelle etwa 1 µs dauert;
diese Geschwindigkeit kann bei geeigneter Chip-Architektur zur Verbesserung der Bildqualität
ausgenutzt werden (vgl. 5.2.3). In neueren Versuchen sind die Verschiebezeiten bis auf 50 ns
reduziert worden [The95a]; Ausleseregister arbeiten standardmäßig mit Zeiten <100 ns.
64 CCD-Bildwandler
Der allergrößte Anteil des Ladungspakets (99.999%) ist aber bereits nach etwa 1 ns übertragen
[The95b]; die längere Verschiebezeit dient der Verlustminimierung. Ohnehin ist die Verlustrate
beim Ladungstransfer sehr gering; schon 1972 war es gelungen, eine charge transfer efficiency
von >99.995% zu erreichen und bis heute sind die Verluste nochmals um zwei Größenordnungen
geschrumpft [Jan95]. Diese Größe erlangt um so mehr Bedeutung, je mehr Pixel ein Chip
enthält, denn der Verlust tritt bei jedem Verschiebeschritt auf und potenziert sich, so daß Pixel,
die viele Verschiebeschritte durchlaufen, stärker betroffen sind.
Erhebliche Verluste treten an der Grenzfläche des monokristallinen Si zum amorphen SiO2 auf,
wo sich innerhalb der Bandlücke zusätzliche Energieniveaus ausbilden. Die transportierten
Elektronen können aus dem Leitungsband in diese Zustände fallen und werden erst nach einer
Zeit wieder abgegeben, in der das Ladungspaket, zu dem sie gehören, schon weitergerückt ist.
Dieser Effekt ist in neuerer Zeit mit der Einbringung einer dünnen p+-Dotierung zwischen den
Schichten weitestgehend behoben worden, da die Zwischenzustände nun von Löchern besetzt
gehalten werden.
Dies wird mit dem etwas irreführenden Begriff hole accumulation diode (HAD) bezeichnet; die
Ladungsträger, welche zu Ladungspaketen akkumuliert werden, sind auch bei diesem Sensortyp
Elektronen [The95, SO3].
Der übliche Potentialhub zum Ladungstransport beträgt etwa 5 V; um die Leistungsaufnahme der
Sensoren weiter zu senken, wird aber bereits mit 3.3 V-Bausteinen experimentiert [The95a]. In
[Lem92] ist ein Verfahren beschrieben, mittels stark erhöhter Transportspannung (ca. 20 V)
Stoßionisation hervorzurufen und so praktisch rauschfrei 20 dB Verstärkung noch auf dem Chip
zu erhalten. Das Ausleserauschen liegt für handelsübliche Kameras bei einer
Standardabweichung von ca. 50 Elektronen und für Spezialtypen bei unter einem Elektron.
5.2.3 Bauweisen
In diesem Sensortyp finden sich bereits alle wichtigen Baugruppen der CCD-Technologie. Neben
einer Zeile von lichtempfindlichen Zellen befindet sich ein sogenanntes Schieberegister, das aus
einer weiteren Zeile besteht und zum seriellen Auslesen der angesammelten Ladungen dient. Es
ist lichtgeschützt, meist metallisiert, und weist annähernd gleiche Zellengröße auf. Diese liegt in
der Größenordnung 10 x 10 µm². Damit nicht bereits während der Integrationszeit Elektronen ins
CCD-Bildwandler 65
Schieberegister wandern, bedarf es einer Barriere, die als transfer gate bezeichnet wird und
während der Ladungsakkumulation auf negativem Potential liegt. Wird das Potential dann
angehoben, können die Elektronen als Ladungspakete ins Schieberegister gelangen. Eine Skizze
eines Zeilensensors zeigt Abb. 5.7.
Lichtempfindliche Detektorzellen
transfer gate
Monitor, A/D-Wandler o.ä.
Lichtgeschützte Transportzellen
Das Auslesen erfolgt gemischt parallel und seriell. Das Verschieben der Ladungen ins
Ausleseregister ist ein paralleler Schritt; die Ausgabe der einzelnen Pixel geht seriell vonstatten.
Weil hier zum gesamten Auslesen nur wenige Transportschritte notwendig sind, können sehr
hohe Bildfrequenzen erreicht werden. Das eindimensionale Abtasten eines Interferenzmusters
mit hoher zeitlicher Auflösung ist eine typische Anwendung [Cho89]. Auch in Faxgeräten
werden Zeilenkameras eingesetzt. Mit modernen Sensoren, die einige Tausend Pixel auf wenigen
Zentimetern besitzen, werden Bildraten von einigen kHz erreicht.
Hier erreicht man eine flächenhafte Anordnung durch Kombination von Zeilensensoren; Abb. 5.8
verschafft einen Eindruck davon.
Lichtempfindliche
Spalte
Abgedeckte
Spalte
Bildverarbeitung
Abb. 5.8: Der Aufbau eines Interline-Transfer-Sensors. Die waagerechten Pfeile markieren den Ladungstransfer
eines Halbbilds. Nach [Spo94]
Zum Auslesen dieses Sensors wird noch ein zusätzliches Schieberegister benötigt. Zuerst werden
die Spalteninformationen alle zugleich in ihre vertikalen Transportregister geschoben und von
dort werden die Zeileninformationen nacheinander in das horizontale Schieberegister
66 CCD-Bildwandler
transportiert und seriell ausgelesen.Da die Transportspalten nur gegen Lichteinfall von oben und
nicht von der Seite geschützt sind, kommt es durch Lichtstreuung an den Begrenzungen der
Sensorzellen und durch Vielfachreflektionen zwischen dem Substrat und der Unterseite des
Lichtschutzes zur Entstehung eines sog. Geisterbildes in den Schieberegistern. Dieses addiert
sich beim seitlichen Transferschritt zum eigentlichen Signal und erhöht das Rauschen. Beim
senkrechten Ladungstransport während des Auslesens dauert dieser Effekt an und erzeugt eine
leichte vertikale Bildverwischung, das sogenannte smear oder streaking. Das Verhältnis des
Signals zum smear-Anteil beträgt für den IT-Sensor etwa 80 dB.
Der Ausdruck interline bezeichnet die Eigenschaft so aufgebauter Sensoren, für je zwei Zeilen
nur eine vertikale Schiebezelle, z.B. vier Elektroden in Vierphasenanordnung, zu besitzen.
Während des Übertragens der Ladungspakete in die lichtgeschützten vertikalen Transportregister
sind die Sensorzellen inaktiv. Da dieser Vorgang jedoch nur einen Schritt erfordert, beträgt die
Totzeit nicht mehr als etwa 1 µs und hängt außerdem nicht von den Pixelzahlen ab.
Die interline-Bauweise ist besonders gut für Fernseh- und Videoaufnahmen geeignet, da die
gängigen Normen (EIA und CCIR) auf dem sog. interlaced-Modus beruhen. Dabei werden 30
bzw. 25 Vollbilder pro Sekunde übertragen, die aber, um ein pseudo-flimmerfreies Bild zu
erzeugen, in 60 bzw. 50 Halbbildern gesendet werden, welche abwechselnd die geraden und die
ungeraden Zeilen enthalten. Zur Erhöhung der Empfindlichkeit ist – allerdings auf Kosten der
Auflösung – auch ein alternierendes Zusammenfassen der Zeilenpaare möglich, wie es unten für
den FT-Sensor und in [SO1, Ban95] beschrieben wird. Dies ist nur möglich, wenn die vertikalen
Schieberegister in Vierphasen-Anordnung gebaut sind; dann können die ausgelesenen Ladungen
durch geeignete Positionierung der Potentialbarrieren auf zwei verschiedene Arten paarweise
vereinigt werden.
Falls die Zeilen nicht zusammengefaßt werden, läßt sich statt dessen die Integrationszeit pro
Zeile verdoppeln. Für einen nach CCIR-Norm arbeitenden IT-Sensor ist sie meist auf 20 ms
eingestellt; da aber jede Zeile nur 25mal pro Sekunde ausgelesen wird, kann auch 40 ms pro
Halbbild akkumuliert werden, so daß sich eine zeitliche Überlappung der Halbbilder von 20 ms
ergibt.
Die Zeilenzahl ist bei genormter Ausgabe vorgegeben; beim CCIR-Standard sind es 625 Zeilen
in einem Vollbild. Die Spaltenzahl variiert dagegen von Sensor zu Sensor geringfügig, liegt aber
meist bei etwa 800. Das Seitenverhältnis des Pixelgitters ist etwa quadratisch; bei diesem
Sensortyp ist aber höchstens die Hälfte der Sensorfläche lichtempfindlich, da die andere Hälfte
von den vertikalen Schieberegistern eingenommen wird. Bei neuesten Exemplaren dieses Typs,
sogenannten hyper-HAD-Sensoren, ist die Oberfläche mit einem Mikrolinsenarray versehen, das
etwa 90% des einfallenden Lichtes auf die Pixel fokussiert [Hug95]. Ein höherer Wert kann nicht
erreicht werden, weil die Brennweite der Mikrolinsen meist so gewählt wird, daß paralleles Licht
CCD-Bildwandler 67
auf die Pixelfläche fokussiert wird. Das einfallende Licht ist jedoch um so weniger parallel, je
weiter die Blende geöffnet wird, was zu einer Defokussierung führt. Sind die Mikrolinsen zu
groß, überlappen sich die Lichtflecken in der Sensorebene und optisches Übersprechen tritt auf.
Außerdem geht die lineare Zuordnung von Blendenzahlen und Beleuchtungsintensität verloren,
sobald die Lichtflecken über die Pixelkanten hinausragen.
Der entscheidende Kostenfaktor bei der CCD-Produktion ist die Sensorfläche, die immer weiter
miniaturisiert wird. Die übliche Angabe der Chipgröße bezieht sich auf dessen Diagonale in Zoll;
diese wurde im Lauf der letzten Jahre von 2/3" über 1/2" und 1/3" auf neuerdings 1/4" reduziert.
Die typische Pixelgröße eines 1/4"-Sensors beträgt nur noch 5x5 µm² [The95a]. Die
Verkleinerung der Pixel verschlechtert durch geringere Kapazität der MOS-Kapazitäten den
Signal-Rauschabstand (vgl. 5.2.2), aber durch Fortschritte im Chip-Layout und rauschärmere
Ausleseverstärker haben sich die Eigenschaften dieser Chips sogar noch verbessert. Die
Produktionszahlen liegen bei weltweit über 107 Einheiten pro Jahr.
Bei diesem Typ ist fast die gesamte Sensorfläche lichtempfindlich; der Preis dafür ist die
Weiterbelichtung der Pixel während des Ladungstransports, wodurch die Bildpunkte vertikal
verschmiert erscheinen können. Da die lichtempfindlichen Pixel selbst die Transportregister
darstellen, liegt der smear bei diesem Sensortyp höher als beim IT-Sensor, wo der Transport in
lichtgeschützten Bereichen stattfindet. Um smear zu unterdrücken, muß das Verhältnis von
Transferzeit zu Akkumulationszeit so klein wie möglich gehalten werden. Hierzu befindet sich
direkt unter dem Sensor ein Zwischenspeicherarray mit gleichen Pixelzahlen wie der Sensor
selbst, in das die Ladungen nach Ende der Integrationszeit so schnell wie möglich übertragen
werden und wo sie dann lichtgeschützt zum Auslesen bereitstehen. Hier hängt die Totzeit, d.i.
die Zeit, in der nur smear entsteht, von der Zeilenzahl des Sensors ab, denn das Bild muß um
eine ganze Bildhöhe nach unten versetzt werden. Beim interlaced-Betrieb eines Sensors mit 625
Zeilen beträgt sie etwa 300 µs; dies ist jedoch noch immer eine große Verbesserung gegenüber
dem direkten Auslesen, das bei einer Halbbildfrequenz von 50 Hz etwa 20 ms dauern würde und
somit gleich der Integrationszeit wäre. Bei einer Transferzeit von 300 µs pro frame beträgt das
Verhältnis des Signals zum smear-Anteil etwa 60 dB; in neueren Konstruktionen geht der
Transfer innerhalb von etwa 30 µs vor sich und entsprechend reduziert sich der smear-Anteil auf
Werte, wie sie vom IT-Sensor erreicht werden. Abb. 5.9 stellt einen FT-Sensor schematisch dar.
68 CCD-Bildwandler
Übersprechbarrieren
lichtempfindlicher
CCD Bereich
Verschieben
des ganzen Bildes
CCD lichtgeschützter
Bereich
serielles Auslesen
Abb. 5.9: Ein Frame-Transfer-Sensor. Die abgebildete Intensitätsverteilung wird vor dem Auslesen in einem
lichtgeschützten Bereich zwischengespeichert. Nach [Spo94]
Bei gleichen äußeren Abmessungen sind die effektiven Kantenlängen der Pixel jeweils doppelt
so groß wie beim IT-Sensor, horizontal wegen des Fehlens der lichtgeschützten Schieberegister
und vertikal wegen des Zusammenfassens jeweils zweier Zeilen wie oben beschrieben [Spo94],
d.h. die lichtempfindliche Fläche und damit die Empfindlichkeit steigen um den Faktor vier.
In der Specklemuster-Interferometrie wird jedoch die mittlere Specklegröße etwa der effektiven
Pixelgröße angepaßt. Beim Einsatz eines IT-Sensors können folglich halb so große Speckles
verwendet werden, so daß die Blende zwei Stufen weiter geöffnet werden kann und der
Unterschied in den Empfindlichkeiten keine Auswirkung zeigt.
Ladungsverteilung wie beim FT-Sensor sehr schnell in einen vollkommen abgedeckten Bereich
übertragen werden. Für spezielle Anwendungen und zunehmend für HDTV ist daher noch der
Frame-Interline-Transfer-Sensor in Gebrauch; der smear-Anteil im Verhältnis zum Signal
kann hier bis auf -120 dB verringert werden [The95b]. Diese Sensoren sind bislang zu teuer für
eine größere Verbreitung.
Falls gepulste Belichtung zur Verfügung steht oder die Integrationszeit sehr groß gegen die
Auslesezeit ist, kann der Full-Frame-Sensor eingesetzt werden. Hierbei handelt es sich um
einen Frame-Transfer-Chip ohne Zwischenspeicherbereich. Der Vorteil dieses Sensors liegt in
der sehr hohen Dynamik, da die gesamte Chipfläche lichtempfindlich ist und die einzelnen Pixel
größere Abmessungen haben; Kantenlängen über 20µm sind hier Standard. Dieser Sensortyp
bietet sich zur Maximierung der lichtempfindlichen Fläche an, da ein Chip auf ein wafer
(Durchmesser ca. 10 cm) passen muß und ein Zwischenspeicherbereich die Sensorfläche
verringern würde. Eine typische Anwendung, oft mit Kühlung, ist die Astronomie.
Um möglichst hohe Bildraten zu erreichen, können Detektoren jeweils zur Hälfte nach oben und
nach unten ausgelesen werden; auch parallele Übertragung der Pixel ist im Prinzip möglich. Es
wird dann auf ein serielles Ausleseregister verzichtet und statt dessen für jede Bildspalte eine
Datenleitung zum Speicher eingerichtet, so daß die Bildzeilen simultan übertragen werden
können. Je höher die Bildrate wird, desto kürzer ist die Integrationszeit pro frame. Deshalb ist der
Einsatz von Detektoren mit hoher Quantenausbeute hier sehr wichtig; oft werden rückwärtig
beleuchtete Chips (vgl. 5.2.1) eingesetzt [Hug95].
Die Grenzen der erreichbaren Auflösung befinden sich zur Zeit bei etwa 5000⋅7000 Pixeln; ein
Sensor mit 10000² Pixeln ist jedoch schon in der Entwicklung [Jan95]. Je höher die Auflösung
ist, desto mehr Daten müssen übertragen werden, so daß sehr hochauflösende Chips im
allgemeinen nicht echtzeitfähig sind. Die höchsten bisher erreichten Datenübertragungsraten
liegen bei etwa 3 GBit/s; von einer 256 x 256-Kamera mit 4500 Bildern pro Sekunde wird in
[Hug95] berichtet. Das Betrachten der Bilder am Monitor bringt dem menschlichen Auge infolge
der hohen Bildfrequenz keinen Informationsgewinn; deshalb muß erheblicher Aufwand getrieben
werden, um eine Echtzeitspeicherung solch hoher Datenraten zu erreichen.
70 CCD-Bildwandler
5.3.1 Übertragungsfunktion
0.8
0.6
I(x)f( x )
0.4
0.2
Abb. 5.10: Abtastung eines voll durchmodulierten Intensitätsmusters mit drei diskreten, flächigen
Detektorelementen. Die Fläche unter der Kurve wird integriert und der Ausgabewert entspricht jeweils der
Höhe der Rechtecke; die übertragene Modulation sinkt.
Ein quantitatives Maß für den Modulationsverlust durch räumliche Integration ist die
Modulations-Transfer-Funktion (MTF), die den Kontrast eines abgebildeten Sinusgitters als
Funktion seiner horizontalen oder vertikalen Ortsfrequenz darstellt. Vorausgesetzt, daß die Pixel
CCD-Bildwandler 71
über ihre ganze Ausdehnung gleich empfindlich sind und damit ein Rechteckfenster darstellen,
ist sie [Spo94, PI] definiert als
π ν P
sin ⋅ m ⋅ B
2 ν n PA
(5-1) MTF =
π ν m PB
⋅ ⋅
2 ν n PA
mit
νm: Ortsfrequenz des zu übertragenden Sinusgitters
1
νn: Nyquist-Ortsfrequenz des Detektors (= ).
2 PA
Je größer also die effektive Pixelbreite ist, desto geringer wird die Modulation in der Nähe der
Nyquistfrequenz. Das Verhältnis PB /PA wird auch als fill factor bezeichnet und unterscheidet
sich zwischen Interline-Transfer- und Frame-Transfer-Sensoren horizontal und vertikal etwa um
den Faktor zwei. Interline-Transfer-Sensoren mit Mikrolinsenarray (vgl. 5.2.3.2) verhalten sich
bezüglich der horizontalen MTF wie Frame-Transfer-Sensoren.
In [Hoc95] wird allerdings darauf aufmerksam gemacht, daß die übertragene Modulation
zusätzlich vom Pixelabstand und von der relativen Lage des Sinusgitters zum Pixelgitter
abhängen kann. Deshalb hat die MTF keine allgemeine Gültigkeit. Um ein allgemeineres Maß zu
entwickeln, wird dann die Annahme gemacht, daß z.B. das Maximum eines Sinusgitters alle
Positionen auf der effektiven Pixelfläche mit gleicher Wahrscheinlichkeit einnimmt. Durch
ungewichtete Integration über alle Positionen wird ein Erwartungswert der Modulation
berechnet. Auf diese Weise gelangt man schließlich zur sogenannten Pixel-Transfer-Funktion
Diese berücksichtigt variierende Pixelabstände; die Werte für die Modulation sind geringer als
bei der MTF. Für den IT-Sensor und den FT-Sensor sind die horizontalen PTFs in Abb. 5.11
gegenübergestellt. Die Abtast-Ortsfrequenz der Sensoren ist mit νs bezeichnet und für beide
Sensoren gleich. Der Füllfaktor des FT-Sensors wird als 100 %, der des IT-Sensors als 50 %
angenommen.
72 CCD-Bildwandler
PTF
0.8
0.6
FT IT
0.4
0.2
00
νn νs νm
Da die breiteren Pixel des FT-Sensors über einen größeren Ausschnitt des Sinusgitters
integrieren, wird die von ihnen übertragene Modulation geringer. Sie verschwindet bei νs, weil
dann jedes Pixel über eine ganze Periode des Gitters integriert. Beim IT-Sensor sind die Pixel nur
halb so breit und das Verschwinden der Modulation geschieht folglich erst bei 2 νs. Bei
Abtastung der Nyquistfrequenz νn liefert der IT-Sensor eine mehr als doppelt so große
Modulation wie der FT-Sensor.
Hier zeigt sich ein Vorteil der Bildaufnahmeröhre: die Zeilen werden mittels Elektronenstrahl
kontinuierlich ausgelesen, so daß die detektierbare Ortsfrequenz nur von Zeitkonstanten des
elektronischen Systems abhängt und aliasing nicht auftritt. Die Diskretisierung in Zeilen und
folglich eine vertikale Nyquistfrequenz sind aber für den Röhrensensor genau wie für CCD-
Arrays gegeben.
Bei der Aufnahme von Vollbildern beträgt der vertikale Füllfaktor des FT-Sensors 100 %; mit
gewöhnlichen IT-Sensoren können keine Vollbilder aufgenommen werden. Beim alternierenden
Zusammenfassen von Zeilenpaaren für die Halbbilder (field integration mode), das bei den
CCD-Bildwandler 73
meisten IT-Sensoren möglich ist, erhält man auch für den IT-Sensor einen vertikalen Füllfaktor
von 200 %.
Praktisch bedeuten diese Sachverhalte, daß der IT-Sensor für das sog. aliasing, d.h. das Erzeugen
von Artefakten aufgrund zu niederfrequenter Abtastung, wesentlich empfindlicher ist als der FT-
Sensor. So kann beim Umgang mit einem IT-Sensor aus dem Vorhandensein eines gut
modulierten Streifenmusters nicht geschlossen werden, daß das Abtasttheorem noch erfüllt ist,
denn z.B. bei νn beträgt der Kontrast des Streifenmusters noch 81 % des Ausgangswertes. In
[Gre87] ist eine Methode angegeben, auch aus Streifendichten weit oberhalb der Nyquist-
Frequenz noch sinnvolle interferometrische Information zu gewinnen; dies setzt jedoch a priori-
Wissen über die Wellenfront und einen möglichst geringen Füllfaktor voraus.
Auch in unserer Anwendung wäre ein geringer Füllfaktor für den Kontrast des Streifenmusters
theoretisch von Vorteil; in der Praxis jedoch bestimmen starke örtliche Intensitätsschwankungen
im Specklemuster die ausgelesenen Intensitäten und lassen einen geometrisch bedingten
Kontrastverlust vernachlässigbar werden (siehe 4.6). Der theoretisch zu erwartende
Kontrastverlust ist in 3.3.2.2 angegeben.
5.3.2 Pixelsynchronisation
Auch bei Beachtung der Übertragungseigenschaften ist die Verwertbarkeit der ausgelesenen
Bilder noch nicht gesichert. Gewöhnliche CCD-Kameras geben die Pixelwerte mit einer
Taktfrequenz in der Größenordnung 10 MHz aus. Üblicherweise wird dann für die Übertragung
in einen digitalen Speicher der Oszillator des A-D-Wandlers auf dieselbe Frequenz eingestellt.
Ausnahmen davon treten auf, wenn Bilder aus einer Kamera mit nichtquadratischen Pixeln auf
einem Bildschirm mit quadratischen Pixeln dargestellt werden sollen; die veränderte Geometrie
wird durch eine veränderte Einlesefrequenz ausgeglichen, um das Seitenverhältnis zu
korrigieren. Hier wird ein Kamerapixel z.B. 1.3-mal abgetastet, so daß eine genaue Zuordnung
von Kamera- zu Bildschirmpixeln unmöglich ist [ST].
Die 1:1-Übertragung, auf die eine Intensitätsmessung sich stützt, geht jedoch auch bei gleichen
Frequenzen verloren, wenn auch nur einer der Oszillatoren nicht die erforderliche
Frequenzstabilität besitzt; man spricht hierbei von pixel jitter. Typische Werte für diese
Schwankungen sind $ 1% Frequenzstabilität für die Oszillatoren, die üblicherweise mit etwa 14
MHz arbeiten, und eine Zeitunsicherheit von $ 50 ns für den Pixelauslesetakt der Kamera [PH,
SO1]. Dadurch wird besonders bei hohen Ortsfrequenzen, wie sie für Specklebilder typisch sind,
die horizontale Information verfälscht. Abb. 5.12 illustriert diesen Effekt. Da die Flankensteilheit
des Signals endlich ist, führt ein Versatz der Abtastpunkte zu einer falschen Zuordnung; der Jitter
ist hier allerdings stark übertrieben dargestellt. Rechts unten sind die Grauwerte der eingelesenen
Pixel wiedergegeben.
74 CCD-Bildwandler
USignal 140 ns
richtige Abtastung:
falsche Abtastung:
Abb. 5.12: Typisches Zeilensignal einer CCD-Kamera bei einer Intensitätsmodulation mit Nyquist-Frequenz. Die
Pixelfrequenz beträgt hier etwa 14 MHz.
Es muß also Sorge getragen werden, daß jede einzelne Zelle eines Bildspeichers genau einem
Pixel zugeordnet wird; hierfür besitzen viele CCD-Kameras einen separaten Signalausgang, die
sogenannte pixel clock. Falls die Bildverarbeitungskarte externe Pulse akzeptieren kann, dient die
pixel clock als Taktgeber für den A-D-Wandler, dessen Oszillator dann abgeschaltet ist. Durch
diese Pixelsynchronisation wird die von der Kamera detektierte Intensitätsverteilung punktgetreu
in den Bildspeicher geschrieben.
Die Auswirkung dieser Modifikation läßt sich direkt an einem gedruckten Streifengitter
beobachten, welches so auf den Detektor abgebildet wird, daß die detektierte Periode in
horizontaler Richtung 1/(2 PA) beträgt, die horizontale Ortsfrequenz also gleich der
Nyquistfrequenz ist und schwarze und weiße Pixel einander in den Zeilen abwechseln sollten.
Eine falsche Abtastung des Videosignals führt zur Verwischung der Zeileninformation wie in
Abb. 5.12 dargestellt. Die Bildverbesserung durch eine synchronisierte Pixelübertragung ist Abb.
5.13 zu entnehmen, die Ausschnitte von jeweils 100 x 75 Pixeln aus Bildern eines Test-
Streifenmusters wiedergibt.
Abb. 5.13: Kamerabilder eines Streifenmusters, dessen horizontale Ortsfrequenz der Nyquistfrequenz des Detektors
entspricht. Links: ohne Pixelsynchronisation; rechts: mit Pixelsynchronisation.
CCD-Bildwandler 75
Im linken Bild sind fehlerhafte Zeilen zu erkennen; nach dem Zeilensynchronisationspuls laufen
die nicht gekoppelten Oszillatoren auseinander, was zu häufigem Auftreten fehlerhafter Zeilen
und allgemein schwächerem Kontrast führt. Im rechten Bild werden mit eingeschalteter
Pixelsynchronisation die Hell-Dunkel-Sprünge stabil übertragen.
Moderne Kameras bieten die Möglichkeit, unter Beibehaltung der TV-Normausgabe nach dem in
Abb. 5.14 skizzierten Prinzip die Integrationszeit für die einzelnen Bilder zu verkürzen. Dies ist
bei Dauerbeleuchtung so lange sinnvoll, wie die Integrationszeit groß gegen die Transferzeit ist.
Die Akkumulationszeit reicht bei der von uns verwendeten Kamera mit IT-Sensor von 20 ms
ohne Shutter bis herunter zu 100 µs. Für noch kürzere Belichtungszeiten muß Pulsbeleuchtung
eingesetzt und/oder die Bildaufnahme mit dem sogenannten asynchronen Shutter ausgelöst
werden.
Im linken Bild von Abb. 5.14 liegt während der gesamten Halbbildzeit das elektrische Feld an
und Ladungen werden gesammelt; dann wird die Spannung an der Elektrode abgeschaltet und
das Ladungspaket Qaus verschoben. Rechts bleibt die Elektrode bis kurz vor Ende der
Halbbildzeit inaktiv und erst in den letzten 2 ms können Photoelektronen gesammelt werden;
dementsprechend reduziert sich auch Qaus und damit die Signalhöhe um den Faktor 10.
76 CCD-Bildwandler
20 ms 20 ms
Qaus
Q 2 ms
Qaus
Q=0
V
t t
Abb. 5.14: Steuerung der Integrationszeit über das Elektrodenpotential. Links: Ladungsakkumulation über 20 ms,
rechts: Akkumulationszeit auf 2 ms verkürzt.
Die großen Vorteile des elektrischen Verschlusses im Vergleich mit anderen Verschlüssen sind
die Geschwindigkeit und die vollkommene Vibrationsfreiheit. Der Einsatz eines Shutters ist
insbesondere für unsere Anwendung angezeigt, in der es um das Verringern zeitlicher
Phasenfluktuationen nicht nur zwischen, sondern auch innerhalb der Aufnahmen geht. Bei
Speckleaufnahmen konnte aufgrund mangelnder Laserleistung kein Shutter eingesetzt werden,
jedoch zeigten Versuche im Michelson-Aufbau die Verbesserung der Interferogramme bei
kürzerer Belichtung. Abb. 5.15 gibt einen Eindruck hiervon. Die beiden Halbbilder sind jeweils
getrennt dargestellt, oben die ungeraden und unten die geraden Zeilen.
Abb. 5.15: Mod 2π-Bilder der Phasenfront, welche durch eine flackernde Kerzenflamme im Strahlengang
hervorgerufen wurde, links mit 20 ms, rechts mit 100 µs Integrationszeit.
Im linken Bild sind Unstimmigkeiten in der Phasenverteilung zu erkennen, welche durch eine
Verwischung des zugrundeliegenden Interferogramms während der Aufnahme entstanden sind.
Rechts ist die Integrationszeit kurz genug, daß die momentane Phasenverteilung fehlerfrei
detektiert werden kann.
CCD-Bildwandler 77
5.3.3.2 Gamma-Korrektur
Der Ausdruck stammt aus der Photographie und Holographie und bezieht sich auf eine
nichtlineare Eigenschaft der dort verwendeten Emulsionen. Die Schwärzung des Materials gegen
die Belichtungsenergie kommt bei geringen Energien nur langsam in Gang und erreicht erst ab
einem gewissen Schwellenwert ein lineares Verhalten. Mittels γ - Korrektur wird die Krümmung
dieser Kennlinie ausgeglichen und die Zuordnung wieder linearisiert.
Für CCD-Kameras bedeutet das eine Anhebung geringer Intensitätswerte und damit eine
gekrümmte Kennlinie. Für Meßzwecke jedoch ist diese Nachbearbeitung nicht erwünscht; in
[Ohy86] wird für das Phasenschieben die Entstehung von Meßfehlern durch nichtlineare
Kennlinien untersucht. Das Ergebnis ist eine Abweichung von bis zu 14° für 3-step-Verfahren.
Daher muß der Korrekturfaktor einer Kamera in der Interferometrie Eins betragen, d.h. eine
Korrektur findet nicht statt und die lineare Wandlung ist sichergestellt.
Im Dienste einer möglichst einfachen Benutzung sind fast alle handelsüblichen CCD-Kameras
mit einer automatischen Aussteuerung ausgerüstet, welche die Verstärkung des empfangenen
Signals selbsttätig auf den größtmöglichen Wert einstellt. Diese Regelungsmechanismen zeigen
nach unseren Erfahrungen zum Teil bistabiles Verhalten und/oder sehr große Zeitkonstanten, so
daß selbst unter konstanten Beleuchtungsverhältnissen die Verstärkung etwas schwanken oder
driften kann. Darüber hinaus weisen Specklebilder unvermeidlich einen Restanteil übersteuerter
Bildpunkte auf, der nicht weggeregelt werden kann und darf. Um während der Aufnahme von
Bildern eine geeignete und konstante Verstärkung zu erreichen, muß diese auf einen festen Wert
arretiert und möglichst von Hand einstellbar sein.
Einige Kameras arbeiten auch mit horizontaler und/oder vertikaler Kontrastverstärkung, so daß
Kanten in der entsprechenden Richtung schärfer erscheinen. Weiterhin werden besonders helle
Bildpunkte von manchen Fabrikaten durch Mittelgrau maskiert [PH]. Alle diese Einrichtungen
verbessern zwar den subjektiven Eindruck von Aufnahmen, wirken sich aber besonders in der
78 CCD-Bildwandler
Während es bei älteren CCD-Chips noch möglich ist, die lichtempfindliche Fläche zur Reinigung
vorsichtig mit reinstem Alkohol abzuwischen, schließt die Mikrolinsenoberfläche der hyper-
HAD-Sensoren dies mittlerweile aus. Zum Schutz vor Staub und Beschädigung sind moderne
CCD-Chips meist mit einer dünnen Glasscheibe versehen, die sich etwa 1 mm vor dem Sensor
befindet. Oftmals ist zusätzlich ein IR-Filter vor dem Sensor angebracht. An den Glasoberflächen
und am Chip selbst treten jedoch Reflexe auf, die bei kohärenter Beleuchtung zu
Interferenzstrukturen in den Bildern führen. Abb. 5.16 zeigt das „Selbstinterferogramm“ unserer
Kamera. Die Strukturen führen zu einer kleinskaligen Variation von Helligkeit und
Modulationstiefe im Interferogramm, übertragen sich auf die Phasenberechnung (vgl. 6.1.2) und
verschwinden auch bei Subtraktion zweier Bilder nicht vollständig.
Abb. 5.16: Interferenzstrukturen durch interne Reflektionen am Schutzfenster einer SONY XC-75 Kamera bei
Beleuchtung mit einem kohärenten und kollimierten Lichtstrahl.
Das IR-Filter ist meistens abnehmbar und bereitet keine Schwierigkeiten; der Staubschutz jedoch
ist oft geklebt. Eine Möglichkeit, die Störungen zu verringern, ist das Aufkleben eines flachen
Keils auf die Scheibe, was aber die Reflektionen vom Chip zur Glasplatte und zurück nicht
berührt. Diese lassen sich eventuell durch Füllen des Zwischenraums mit einer Flüssigkeit von
geeignetem Brechungsindex beseitigen. Der einfachste und wirksamste Weg ist aber das
Entfernen der Scheibe. Dies ist im Prinzip auf mechanische, thermische oder chemische Weise
möglich, birgt allerdings immer ein gewisses Risiko, den Sensor zu zerstören. Wir hatten uns für
CCD-Bildwandler 79
den mechanischen Weg entschieden und den Frässtaub, der sich dabei auf der Chipfläche
abgelagert hatte, mit seitlich anströmender Dosendruckluft weitestgehend wieder entfernt.
Nachfolgend sind einige technische Daten der verwendeten Kamera SONY XC-75 CE
zusammengestellt.
Leistungsaufnahme 1.6 W
Manuell regelbarer Verstärkungsbereich 0 bis +18 dB
Halbbildfrequenz 50 Hz
Zeilenfrequenz 15.625 kHz
Pixelfrequenz 14.1875 MHz (Jitter $ 50 ns)
Sensor SONY ICX 039 BLA
Typ ½"-hyper-HAD, schwarzweiß
Abmessungen 7.95 x 6.45 mm²
geometrische Pixelgröße 8.6 (h) x 8.3 (v) µm²
effektive Pixelanzahl 736 x 576
Füllfaktor ca. 90 %
vertikaler Ladungstransport: 4-Phasentakt mit 9V
parasitäre Kapazität Elektroden-Substrat ca. 2 nF
Elektroden-Elektroden ca. 350 pF
horizontaler Ladungstransport: 2-Phasentakt mit 5 V
parasitäre Kapazität Elektroden-Substrat ca. 62 pF
Elektroden-Elektroden ca. 47 pF
Shutter 1/100 s, 1/250 s, 1/500 s, 1/1000 s,
1/2000 s, 1/10000 s
Smear 0.009 % (-80 dB)
Bildträgheit (lag) 0.5 %
Signal/Rauschverhältnis 54 dB
80 Realisierung des räumlichen Phasenschiebens
Im Zuge der Laborversuche ging es zunächst um die prinzipielle Realisierung des räumlichen
Phasenschiebens. Die hierfür benötigten Routinen waren im mitgelieferten Steuerungsprogramm
für die Bildverarbeitungskarte (DATA TRANSLATION DT 3852-B2) nicht enthalten und
wurden diesem hinzugefügt; sie sind im folgenden durch Fettdruck kenntlich gemacht und in A4
näher beschrieben. Zur Überprüfung der korrekten Funktion der neuen Unterprogramme diente
ein einfaches und leicht zu handhabendes Michelson-Interferometer. An diesem wurde auch die
entscheidende Bedeutung der Pixelsynchronisation erkannt. Im weiteren Verlauf wurde mit
einem Speckle-Interferometer die vorgesehene Anwendung verwirklicht und weitere, sowohl die
Optik als auch die Bildverarbeitung betreffende Erkenntnisse gesammelt.
6.1 Michelson-Interferometer
Das räumliche Phasenschieben läßt sich am einfachsten mit zwei ebenen Wellen realisieren, wie
sie z.B. in einem Michelson-Interferometer verwendet werden. Anfangs wurde mit der bekannten
rechtwinkligen Anordnung der Spiegel und einem Strahlteilerwürfel gearbeitet; dieser erzeugte
jedoch aufgrund nicht planparalleler Oberflächen Interferenzstrukturen, die sich als nicht
akzeptabel herausstellten. Wegen des Öffnungswinkels der dann verwendeten Keilplatte von 7.5°
konnte nicht mehr mit der üblichen Auslegung gearbeitet werden und größere Umbauten waren
erforderlich. Die abgeänderte Geometrie ist in Abb. 6.1 skizziert; Abb. 6.2 zeigt den
entsprechenden Laboraufbau.
Realisierung des räumlichen Phasenschiebens 81
Kamera
Keilplatte
Blende
Aufweitungsoptik
Spiegel Laser
Linse
Grauglas
Spiegel
Abb. 6.1: Strahlengänge im modifizierten Michelson-Interferometer. Der Übersichtlichkeit wegen sind die
Strahlengänge nach dem Grauglas als Striche dargestellt.
Die Realisierung des räumlichen Phasenschiebens setzt eine relative Verkippung der beiden
Strahlen voraus; in einem rechtwinkligen Aufbau laufen diese dann auseinander, so daß sehr
kurze Strahlwege gewählt werden müssen, damit eine (partielle) Überdeckung der
Strahlenbündel am Ort des Sensors noch gegeben ist. In dieser Hinsicht bringt die gezeigte
Modifikation den Vorteil, daß die Strahlenbündel anfangs aufeinander zulaufen. Dadurch wird es
möglich, den Bildsensor an ihrem Schnittpunkt zu positionieren, so daß sie diesen mit voller
Überdeckung treffen. Der notwendige Winkel zwischen den Strahlen hängt von der
Laserwellenlänge und dem Pixelabstand des Sensors ab; für den Einsatz einer SONY XC-75
Kamera ergibt sich ein Winkel von β = 1.4° (vgl. 3.2.1). Bei der gegebenen seitlichen Entfernung
von ca. 10 mm, mit welcher die Strahlen die Keilplatte verlassen, muß die Kamera etwa 40 cm
von dieser entfernt stehen, damit die Sensorebene sich im Schnittpunkt der Strahlen befindet.
Die Kamera wird ohne Objektiv betrieben; daher sind die Abmessungen des interferometrisch
beobachteten Bildausschnitts gleich denen des Videochips. Um eine Übersteuerung der Kamera
zu vermeiden, mußte ein Grauglas verwendet werden.
Wir beschreiben im folgenden zunächst die Entwicklung erster Werkzeuge zum Umgang mit den
hier vorliegenden besonderen Interferogrammen und stellen anschließend einige typische
Ergebnisse vor.
82 Realisierung des räumlichen Phasenschiebens
6.1.1 Justierung
Der Abgleich der Intensitäten erfolgte mit der Histogrammfunktion des Steuerungsprogramms
für die Bildverarbeitungskarte; wie bekannt, wird die Intensität eines Einzelstrahls auf ein Viertel
der Sättigungsintensität eingestellt. Bei einer 8-Bit-Digitalisierung, wie sie hier verwendet wird,
entspricht das der Graustufe 64.
Für den notwendigen Phasenshift pro Spalte kann zunächst durch Beobachten der Streifenbreite
in einem Interferogramm ein grober Wert eingestellt werden. Anschließend läßt sich durch
Aufruf des Programmpunkts Loop separation [every 3rd] der präzise Wert von 120° pro Spalte
finden. Während der Winkel zwischen den Strahlen variiert wird, zeigt sich die Abweichung des
Phasengradienten vom gewünschten Wert als Interferenzstreifenmuster im dargestellten
einzelnen Phasenbild. Das Einstellen erfolgt, indem die Anzahl der Interferenzstreifen durch
Nachregeln immer weiter verringert wird. Ist das Bild streifenfrei – soweit es die Qualität der
Spiegel erlaubt –, stimmt der Phasengradient mit den geforderten 120 Grad überein. Abb. 6.3
zeigt links ein richtig justiertes Interferogramm und rechts dessen Zerlegung in Phasenbilder
mittels Separate 3 pics.
Realisierung des räumlichen Phasenschiebens 83
Abb. 6.3: Einsatz des räumlichen Phasenschiebens im Michelson-Interferometer: links das originale Interferogramm,
rechts die Phasenbilder, die durch das Zusammenfassen der Interferogrammspalten mit jeweils gleichen
relativen Phasenlagen erkennbar werden.
Die verbleibenden Interferenzstreifen konnten aufgrund ihrer gekrümmten Form nicht entfernt
werden; dies weist auf mangelnde Güte der Spiegel hin. Abb. 6.3 stammt noch aus dem Aufbau
mit Strahlteilerwürfel und Philips LDH 600-Kamera, und die Interferenzstrukturen des
Strahlteilerwürfels sowie Schmutz auf dem CCD-Sensor sind in den Phasenbildern deutlich als
kleinskalige Intensitätsfluktuationen zu erkennen.
Die Zerlegung des Interferogramms in die Phasenbilder mittels Separate 3 Pics eröffnet die
Möglichkeit, die Phasenbilder tiefpaßzufiltern. Dies kann mit einem gewöhnlichen
Tiefpaßfenster, z.B. 3x3, nicht am ursprünglichen Interferogramm durchgeführt werden, da die
hohe Ortsfrequenz des Streifenmusters die Information trägt und nicht entfernt werden darf. Ist
das zerlegte Interferogramm gefiltert worden, muß es mit De-Separate 3 pics vor der
Auswertung in seine vorherige Form gebracht werden, weil das Phasenberechnungsverfahren
von dieser ausgeht. Nach der im folgenden Abschnitt beschriebenen Verbesserung des
Michelson-Interferometers konnte jedoch auf eine Filterung der mit diesem gewonnenen
Interferogramme durchgehend verzichtet werden.
In Abschnitt 2.2.2.2 ist die große Bedeutung hochwertiger Optik für das bucket-Verfahren bereits
betont worden. Insbesondere muß sichergestellt sein, daß Untergrundintensität und Modulation
im Interferogramm möglichst langsam mit dem Ort variieren. Bei der Grundeinstellung eines
Michelson-Interferometers kann zusätzlich die Konstanz der Objektphase erreicht werden.
Alle diese Forderungen sind in Abb. 6.3 verletzt; dies wirkt sich nachteilig auf die
Phasenrekonstruktion aus. Abb. 6.4 zeigt die Phasenverteilung, welche aus Abb. 6.3 berechnet
84 Realisierung des räumlichen Phasenschiebens
0,6
0,5
Höhenabweichung/µm
0,4
0,3
0,2
0,1
x 0
6,22
5,33
4,44
4,80
4,27
3,56
3,73
3,20
2,67
2,67
2,13
1,78
1,60
1,07
0,89
0,53
0,00
y/mm x/mm
Abb. 6.4: Aus den drei Phasenbildern des Interferogramms Abb. 6.3 berechnete Phasenverteilung der
Interferenzwellenfront im Michelson-Interferometer ohne weitere Phasenobjekte. Links: mod 2π-Bild,
rechts: Pseudo-3-D-Darstellung der Höhenverteilung.
Die Kantenlängen des Sensors betragen 6.4 mm in x-Richtung und 4.8 mm in y-Richtung; dies
entspricht einem Verhältnis von 4:3. Da die Pixel dasselbe Kantenverhältnis haben, ist deren
Anzahl auf der Sensorfläche in beiden Richtungen gleich, so daß bei der Digitalisierung ein
quadratisches Bild entsteht (vgl. 5.3.2). Die Störungen im Interferogramm finden sich im
Sägezahnbild als ripple auf der Phasenstruktur wieder; die Raumfrequenz, mit welcher I0 und γ0
sich im Interferogramm ändern, liegt zu hoch und beeinträchtigt die Phasenrekonstruktion.
Weiterhin sind in beiden Darstellungen einzelne „Ausreißer“ zu sehen; diese wurden durch
Schmutzpartikel auf dem Detektor und damit falsche Intensitätsmeßwerte verursacht.
Daß die dargestellten Gradienten nicht allein aus einer Schrägstellung der Spiegel entstanden
sind, kann im Sägezahnbild an der Krümmung der Streifen und in der Pseudo-3-D-Darstellung
an der Krümmung der dargestellten Fläche erkannt werden. Die Folgerung ist, daß die Spiegel
nicht ausreichend plan sind; die den Spiegeln zuzuschreibende Phasendifferenz der beiden
Strahlen über den beobachteten Ausschnitt beträgt ca. 4π in beiden Flächenrichtungen. Da die
Wegdifferenz in diesem Interferometer zweimal durchlaufen wird, ergibt sich eine gesamte
Aberration der Spiegel von etwa 0.6 µm über die betrachtete Fläche.
Die genannten Störungen sind in einem Michelson-Interferometer nicht akzeptabel und wurden
behoben. Das umgebaute Interferometer, wie es in Abb. 6.1 dargestellt ist, wurde mit Keilplatte,
neuer Kamera (SONY XC-75) und Spiegeln hoher Planität ausgerüstet. Justage des
Interferometers, Aufnahme eines Interferogramms in der Grundeinstellung und Berechnung eines
Sägezahnbildes wurden wiederholt. Abb. 6.5 zeigt das Ergebnis.
Realisierung des räumlichen Phasenschiebens 85
0,60
y
0,50
Höhenabweichung/µm
0,40
0,30
0,20
0,10
0,00
4,28
3,67
3,92
3,06
3,43
2,44
2,94
2,45
1,83
1,96
1,47
1,22
0,98
0,61
0,49
0,00
y/mm x/mm
x
Abb. 6.5: Links: mod 2π-Bild der Interferenzwellenfront aus einem Michelson-Interferometer ohne weitere
Phasenobjekte; der mittlere Grauwert stellt etwa die Phasenlage 240° dar. Rechts: der mittlere Ausschnitt
aus dem linken Bild in Pseudo-3-D-Darstellung.
Der Sensor hat dieselben Abmessungen wie zuvor in Abb. 6.4, die Pixelanzahl in horizontaler
Richtung ist jedoch wesentlich höher. Die Pseudo-3-D-Darstellung ist aber auf 512 x 512 Pixel
begrenzt und kann deshalb nur einen Ausschnitt des Sensors wiedergeben.
Eine Variation der berechneten Phase durch kleinräumige parasitäre Interferenzen ist nicht mehr
zu beobachten. Auch insgesamt ist eine deutliche Verbesserung gegenüber Abb. 6.4 erkennbar;
die Variation der optischen Weglängen über den Bildbereich beträgt hier etwa 0.06 µm für den
einfach durchlaufenen Weg. Die Planität der hier verwendeten Spiegel kann daher zu etwa λ/10
abgeschätzt werden. Eine Deformation der Wellenfront durch die unterschiedlichen Wege der
beiden Strahlen in der Keilplatte ist nicht erkennbar.
Die erste eingesetzte Kamera, Philips LDH 600, liefert ein vergleichsweise kontrastarmes Bild;
außerdem weist ihr FT-Sensor nur etwa 580 Spalten auf und die Pixelauslesefrequenz liegt um
10 MHz, die Pixelübertragungszeit entsprechend um 100 ns. Hier waren keine Störungen durch
pixel jitter erkennbar.
Die nachfolgend eingesetzte Philips-Kamera LDH 702 lieferte etwa 740 Bildspalten und
produzierte sehr viel kontrastreichere Bilder. Diese zeigten waagerechte, zufällig fluktuierende
Störstrukturen, sobald die horizontale Ortsfrequenz einen bestimmten Wert überschritt,
typischerweise bei der Justage des Interferometers. Anhand des Datenblatts zu der in der
Arbeitsgruppe vorhandenen SONY-Kamera XC-77, die den gleichen Sensor wie die LDH 702
besitzt (SONY, Typ ICX024BL-3), konnte die nominelle Pixelauslesefrequenz der LDH 702-
Kamera gefunden werden, die mit 14.1875 MHz angegeben wird. Da dieser Wert von Philips
nicht bestätigt werden konnte, wurde der in 5.3.2 beschriebene Versuch gemacht. Er ergab einen
Meßwert der Pixelfrequenz von 14.2 MHz, der gut mit dem Nennwert übereinstimmt. Die
86 Realisierung des räumlichen Phasenschiebens
Übertragungszeit für ein Pixel ergibt sich demnach zu etwa 70.5 ns; der pixel jitter des Systems
Kamera LDH 702/A-D-Wandler DT 3852 liegt im selben Bereich. Daher ist mit Instabilitäten in
der Pixelübertragung zu rechnen, die aber erst sichtbar werden, wenn die Intensitäten in
benachbarten Spalten sehr unterschiedlich sind. Genau diese Eigenschaft macht aber ein
räumlich phasengeschobenes Interferogramm aus und die pixelgetreue Digitalisierung der
vorhandenen Intensitäten ist deshalb unumgänglich.
Für die Philips LDH 702-Kamera war das Nachrüsten einer Pixelsynchronisation nicht möglich;
daher wurde eine SONY XC-75 Kamera angeschafft, die u.a. diese Möglichkeit bietet. Die XC-
75 ist eine in hohen Stückzahlen gefertigte CCD-Kamera z.B. für industrielle Zwecke und
zeichnet sich durch große Vielseitigkeit bei sehr gutem Preis-Leistungsverhältnis aus.
Die Auswirkung fehlender Pixelsynchronisation auf die Übertragung hoher Ortsfrequenzen ist in
5.3.2 bereits dargestellt worden; die falsche Abtastung des Videosignals bedeutet eine
Abweichung der digitalisierten Intensitätswerte von den tatsächlich gemessenen Intensitäten, die
bis zu etwa 128 Graustufen betragen kann. Der Auswertealgorithmus berechnet aus den falschen
Bildspeicherinhalten eine fehlerhafte Objektphase; Abb. 6.6 zeigt die Auswirkung dieses Fehlers
und seiner Behebung auf die Güte von Sägezahnbildern. Da ohne Objektiv gearbeitet wird,
stehen die Bilder auf dem Kopf.
Abb. 6.6: Sägezahnbilder einer Phasenverteilung, welche von einer Feuerzeugflamme in einem Strahl eines
Michelson-Interferometers erzeugt wurde. Links: ohne, rechts: mit Pixelsynchronisation.
Die vermessene Flamme stellt ein zeitlich veränderliches Phasenobjekt dar; deshalb bedingt die
Zeitspanne, die das Einschalten der Pixelsynchronisation zwischen den Aufnahmen der (nicht
abgebildeten) Interferogramme erforderte, eine veränderte Phasenverteilung vom ersten zum
zweiten Bild. Im linken Bild von Abb. 6.6 ist das Fehlen der Pixelsynchronisation an den
waagerechten Störungen besonders in der rechten Bildhälfte zu erkennen; rechts sind diese
Störungen beseitigt. Durch Einrichten einer Pixelsynchronisation ist die berechnete Phase frei
von horizontalen Sprüngen; dies ist insbesondere im Hinblick auf eine fehlerfreie automatische
Demodulation von Bedeutung.
Realisierung des räumlichen Phasenschiebens 87
Mit dem Einsatz der SONY XC-75 Kamera stand die Möglichkeit zur Verfügung, mit sehr
kurzer Akkumulationszeit Bilder aufzunehmen. Der elektrische shutter läßt es zu, die
Belichtungszeit in sieben Schritten, die etwa um den Faktor zwei gestuft sind, von 8 ms bis 100
µs zu variieren. Je kürzer die Akkumulation läuft, desto weniger Lichtenergie pro frame wird als
Photoelektronen gespeichert und das detektierte Signal sinkt immer weiter ab. Dem kann durch
entsprechende Erhöhung der einfallenden Intensität entgegengewirkt werden; in unserem Fall
ließ sich dies durch Verwenden eines schwächeren Grauglases erreichen. Dadurch, daß sehr
schnell bewegte Objekte ohne Verwischung aufgenommen werden können, wird der
Zeitunterschied zwischen den beiden Halbbildern sichtbar. Abb. 6.7 demonstriert zwei
Sägezahnbilder, die aus jeweils mit 100 µs Akkumulationszeit aufgenommenen
Interferogrammen berechnet wurden. Am linken Sägezahnbild ist die Schwingung, in der sich
das (leicht vorverkippte) Interferometer zum Zeitpunkt der Aufnahme befand, als Veränderung
der gemessenen Phasenlage von Halbbild zu Halbbild erkennbar. Im rechten Bild führt das
Zucken der Flamme im Strahlengang zu einer schnell und unregelmäßig fluktuierenden
Phasenverteilung. Die Halbbilder repräsentieren jeweils einen Zeitunterschied von 20 ms; diese
zeitliche Auflösung ist im interlaced-Betrieb immer gegeben, wird jedoch erst durch den Einsatz
des shutters nutzbar. Die räumliche Auflösung eines jeden Halbbilds ist dabei in senkrechter
Richtung um den Faktor zwei gegenüber einem Vollbild reduziert.
Abb. 6.7: Zwei Sägezahnbilder von schnell veränderlichen Phasenfronten. Links: Bildaufnahme während eines
Fausthiebs auf den Labortisch; rechts: das Objektlicht durchquert eine flackernde Feuerzeugflamme.
88 Realisierung des räumlichen Phasenschiebens
Die Schachtelung der Halbbilder durch den interlaced-Modus macht die obigen Sägezahnbilder
etwas unübersichtlich; die Interpretation der Bilder wird durch die Trennung der Halbbilder
mittels Separate both interlaced erleichtert. Abb. 6.8 bringt anhand der Zerlegung von Abb. 6.7
(rechts) ein Beispiel dafür.
Abb. 6.8: Das in Abb. 6.7 rechts gezeigte Sägezahnbild; die Zeilen sind umgeordnet, so daß die Halbbilder räumlich
getrennt sind. Die Veränderung der Phasenverteilung innerhalb von 20 ms kann besser als vorher erkannt
werden.
Sollen Interferogramme von bewegten Objekten tiefpaßgefiltert werden, müssen sowohl die
Phasenbilder (vgl. 6.2.1) als auch die Halbbilder separiert werden, weil dann auch in senkrechter
Richtung informationstragende hohe Ortsfrequenzen vorhanden sind, die erhalten bleiben
müssen. Man erhält dann aus drei Phasenbildern mit je zwei Halbbildern sechs Einzelbereiche.
Nach Abschluß dieser Untersuchungen waren hinsichtlich des Bildwandlers und einiger
optischer Komponenten die technischen Voraussetzungen für ein brauchbares Speckle-
Interferometer geschaffen und für den Umgang mit den Interferogrammen stand ein Grundvorrat
an neuen Softwarefunktionen zur Verfügung.
6.2 Speckle-Interferometer
Wie ein ESPI-Aufbau für den Einsatz des räumlichen Phasenschiebens abgeändert wird, ist Abb.
6.9 zu entnehmen; der Phasengradient in x-Richtung wird auf die in 3.2.2 genau beschriebene
Weise durch eine seitliche Verschiebung des Referenzstrahls eingeführt.
Realisierung des räumlichen Phasenschiebens 89
Referenzstrahl
Objektbeleuchtung
∆s
x
Sensor
Objektiv Strahlteiler
und Blende
Kamera
Beleuchtetes Objekt
Abb. 6.9: ESPI-Aufbau für räumliches Phasenschieben; die Referenzwelle wird seitlich um ∆s gegen die Objektwelle
versetzt eingekoppelt, so daß zwischen den beiden Wellenfronten ein relativer Phasengradient Fα entsteht.
Ein quasi-out of plane-Interferometer in der hier dargestellten Art wurde aufgebaut. Für diese
Anordnung besteht ein unerwünschter Zusammenhang zwischen der mittleren Specklegröße und
dem erreichbaren Phasengradienten Fα.
Die Specklegröße muß anwendungsgemäß mindestens drei Pixel betragen und wird durch den
Durchmesser der Blendenöffnung bestimmt: je kleiner die Apertur, desto größer die Speckles,
und andersherum. Der kleinsten hier möglichen Specklegröße entspricht also ein größter
möglicher Aperturdurchmesser. Da der angenommene Quellpunkt der Objektwelle immer mittig
in der Apertur liegt, entspricht der maximale seitliche Versatz ∆s des Referenzstrahl-Focus' dem
Radius des Blendenlochs. Ist der erforderliche Phasengradient nur mit einer diesen Radius
überschreitenden seitlichen Verschiebung des Referenzstrahls zu erreichen, trifft der
Referenzwellen-Focus auf die Blendenlamellen und erreicht den Sensor nicht, so daß die
Einstellung der gewünschten Parameter unmöglich ist.
Dieser Effekt ist von der Pixelgröße des Detektors unabhängig: es können z.B. bei verringerter
Pixelgröße zwar kleinere Speckles (% größere Apertur) eingestellt werden, aber gleichzeitig wird
ein erhöhter Phasengradient (% größere seitliche Verschiebung der Referenzwelle) erforderlich,
da eine gegebene Strecke x dann eine vergrößerte Anzahl von Pixeln enthält.
Wird die Blendenebene, welche die Quellpunkte der Wellenfronten enthält, näher an die
Sensorebene gebracht (d.h. ein Objektiv mit kürzerer Brennweite benutzt), erhält man bei
gegebenem ∆s eine Vergrößerung von Fα. Bei gleichbleibender Blendenzahl und damit
gleichbleibender Specklegröße ist jedoch in einem Objektiv mit kürzerer Brennweite der
Durchmesser der Blendenöffnung geringer, so daß ∆s nicht beibehalten werden kann. Die Wahl
eines anderen Objektivs kann folglich das Problem nicht lösen.
90 Realisierung des räumlichen Phasenschiebens
In dem Laboraufbau nach Abb. 6.9 konnte bei einer mittleren Specklegröße von 3 Pixeln der
gewünschte Phasengradient Fα von 120° pro Sensorspalte nicht erreicht werden. Deshalb wurde
die Strahlführung in geeigneter Weise geändert: weil die Referenzwelle ohnehin nicht
abgeblendet werden muß, läßt sie sich auch hinter der Blendenebene der Abbildungsoptik
einkoppeln. Dadurch wird die Einschränkung bezüglich ∆s beseitigt und sowohl die
Specklegröße als auch der Phasengradient Fα sind frei wählbar. Abb. 6.10 zeigt eine Skizze des
Speckle-Interferometers in seiner endgültigen Form und Abb. 6.11 eine Aufnahme des
Laboraufbaus.
Spiegel
Strahlteilerplatte
Blenden Linse (f = 140 mm)
Aufweitungsoptik
Laser Spiegel
Polfilter
Aufweitungsoptik
Linse (f = 60 mm)
Spiegel
Sensor
x
Strahlteiler- Objektiv
würfel und Blende
Kamera Beleuchtetes Objekt
Mit der mehrfachen Umlenkung der Objektbeleuchtung wird ein möglichst großer Einfallswinkel
derselben zur Oberfläche des Objekts und damit hohe Empfindlichkeit in out of plane-Richtung
erreicht. Die Größe der hierfür verwendeten Spiegel bleibt im üblichen Rahmen, da der
Objektbeleuchtungskegel nur schwach divergiert. Die stufenlose Intensitätsanpassung des
Referenzstrahls wird durch entsprechendes Rotieren eines Polfilters im entsprechenden
Strahlengang vorgenommen. Zur richtigen Fokussierung und seitlichen Versetzung der
Referenzwelle sind die Linse im Referenzstrahlengang und der Strahlteilerwürfel jeweils auf
Verschiebeeinheiten angebracht. Um Rückreflexe zu unterdrücken, werden zwei zusätzliche
Irisblenden eingesetzt.
Realisierung des räumlichen Phasenschiebens 91
Die Einheit von Kamera, Strahlteilerwürfel und Objektiv ist so kompakt wie möglich auf einer
einzigen Säule befestigt, damit das Objektiv nicht weiter als nötig von der Kamera entfernt wird.
Trotzdem überschreitet der Abstand des Objektivs zur Abbildungsebene den Normwert erheblich
(vgl. 6.2.1.3) und das Objekt kann gerade noch scharf auf den Sensor abgebildet werden. Für die
gesamte Anordnung kam eine Vierpunktauflage zum Einsatz.
Wir beschreiben im folgenden zunächst die nötigen Schritte zur korrekten Einstellung der
Systemparameter, kommen dann zu einigen exemplarischen Messungen und stellen abschließend
kurz die beiden Methoden der Interferogrammauswertung vor.
6.2.1 Justierung
Für unsere Anwendung spezifisch ist das Auffinden der richtigen Positionierung für den
Referenzstrahl. Jedoch müssen auch diejenigen Parameter, die vom zeitlichen Phasenschieben
her bekannt sind, wie mittlere Specklegröße und Intensitätsverhältnis von Objekt- und
Referenzlicht, entsprechend beachtet werden. Das Durchlaufen aller Einstellungsschritte
erfordert einigen Aufwand, der jedoch nach unserer Erfahrung in der Folge zu einem stabilen und
problemlosen Betrieb des Interferometers führt.
Sofern die Referenzwelle richtig in der Blendenebene fokussiert ist, hat ihre Krümmung
unabhängig von der Brennweite der zur Fokussierung verwendeten Linse überall denselben Wert
92 Realisierung des räumlichen Phasenschiebens
Beim Einsatz eines an der Kamera angeflanschten Objektivs wird die Referenzwelle durch dieses
hindurchgeführt wie in Abb. 6.9 gezeigt. Für diesen Fall kann die richtige Krümmung der
Wellenfront in der Abbildungsebene leicht gefunden werden, indem die Referenzwelle auf die
Blendenebene des Objektivs fokussiert wird. Eine direkte Sichtkontrolle ist möglich: stimmt die
Fokussierung nicht, entsteht in der Blendenebene ein Lichtfleck, der den Rand des Blendenlochs
mitbeleuchtet.
Dieser Anhaltspunkt existiert in der gemäß Abb. 6.10 veränderten Anordnung nicht mehr; die
effektive Entfernung der Blendenebene im Objektiv vom Strahlteilerwürfel kann i.a. nur
geschätzt werden. Auf dieselbe Entfernung vom Strahlteilerwürfel muß der Focus der
Referenzwelle eingestellt werden; dies ist in Abb. 6.10 berücksichtigt. Für die – unbedingt
notwendige – Feineinstellung bietet sich ein indirektes Verfahren an.
Da unser Auswertealgorithmus auf Phasengradienten reagiert, wie sie sich auch aus der
Interferenz unterschiedlich gekrümmter Wellenfronten ergeben [Cre94b], stellt er gleichzeitig die
Methode dar, die Krümmung des Referenzstrahls korrekt einzustellen. Hierzu wird eine
Objektverformung berechnet; dies ist im Fall von Specklemustern nur durch
Subtraktionsmethoden möglich. Das Specklemuster eines Anfangszustandes wird mit Calculate
Phase [120 DEG] ausgewertet und das erhaltene Sägezahnbild des Specklemusters gespeichert.
Das Objekt wird verformt und ein zweites Sägezahnbild berechnet, von dem sodann das erste
abgezogen wird. War in den aufgenommenen Interferogrammen ein Phasengradient Fα
vorhanden, kann die Objektverformung erkannt werden; dieses Verfahren ist sehr empfindlich
und liefert praktisch sofort Verformungsinformation, sobald Fα von Null verschieden ist. Nur
wenn die Quellpunkte von Objekt- und Referenzwelle genau übereinstimmen, beträgt der
Phasengradient über den ganzen Sensor Null und die Richtung der Objektverformung kann nicht
bestimmt werden. Abb. 6.15 links gibt ein Beispiel dafür.
Die Formeln, durch welche α(x) und Fα bestimmt werden, sind in 3.2.2 angegeben. Wird nun
zugelassen, daß ∆z für Objekt- und Referenzwelle verschieden ist, so bleibt der Phasengradient
über die Breite des Sensors nicht einmal näherungsweise konstant, sondern wechselt sogar sein
Vorzeichen; dieser Verlauf von Fα und die anderen Fälle, die bei der Justierung auftreten können
und unterschieden werden müssen, sind in Abb. 6.12 graphisch gegenübergestellt. Der Abstand
des Objektwellenfocus von der Abbildungsebene ist mit zO, der des Referenzwellenfocus mit zR
bezeichnet. Alle Graphiken sind um die optische Achse zentriert; die Strichmarkierungen auf den
x-Achsen bezeichnen jeweils ihre Position. Die Kurvenverläufe in Graphik 2 sind
Superpositionen der Kurven aus den Graphiken 1 und 3.
Realisierung des räumlichen Phasenschiebens 93
1 2 3
0 0
0
x x x
∆s=0, zO≠zR ∆s≠0, zO≠zR ∆s≠0, zO=zR
: geometrische Phasendifferenz von Objekt- und
Referenzwellenfront α(x)
: Phasengradient Fα
Abb. 6.12: Qualitative Übersicht der Verläufe von α(x) und Fα für die möglichen relativen Abweichungen der
Divergenzpunkte.
Zu Beginn der Justage begegnet man in der Regel einem der Fälle, die in Abb. 6.12 mit 1 und 2
bezeichnet sind. Graphik 1 entspricht dem Fall, daß die Referenzwelle keinen seitlichen Versatz,
aber falsche Krümmung zeigt. Die relative Phasendifferenz der Wellenfronten steigt von links
und rechts bis zur Bildmitte an; das Maximum gilt für senkrechten Einfall der Wellen auf den
Detektor und entspricht dem Wert 2π!(zO-zR)/λ. Beim Überschreiten der optischen Achse fällt
die Phasendifferenz wieder ab, d.h. der Phasengradient wechselt sein Vorzeichen. Das
Sägezahnbild einer Verformung, die über den ganzen Bildbereich dieselbe Richtung hat, liefert
in diesem Fall eine Streifenumkehr in der Bildmitte, denn dadurch, daß die Phasenshiftrichtung
sich umkehrt, wird vom Algorithmus auch eine inverse Objektverformung berechnet. In Graphik
2 ist dem Phasenverlauf durch verschiedene Krümmungen der Wellenfronten noch ein
Phasenterm durch seitlichen Versatz der Referenzwelle überlagert. Die Symmetriebrechung ist
sofort daran zu erkennen, daß der Vorzeichenwechsel des Gradienten in einiger Entfernung von
der optischen Achse stattfindet. Wie diese beiden Einstellungen sich auf eine vorläufige
Verformungsbestimmung auswirken, ist in Abb. 6.13 gezeigt.
Zu der in Graphik 3 skizzierten richtigen Justage gelangt man über den oben erwähnten
Zwischenschritt einer Einstellung, bei der keine Richtungsinformation mehr erhalten werden
kann. Dann fallen die Divergenzpunkte genau zusammen und der Phasengradient verschwindet.
Der Kurvenverlauf für diesen Fall ist trivial und wird hier nicht gezeigt. Anschließend wird der
gewünschte Verlauf der relativen Phasendifferenz durch Vergrößern von ∆s erzeugt; dieser ist in
3.2.2 quantitativ dargestellt. Die Vorgehensweise, um das richtige ∆s zu finden, wird im nächsten
Abschnitt beschrieben.
94 Realisierung des räumlichen Phasenschiebens
Abb. 6.13: Zwei mod 2π-Verformungsbilder, aus denen das weitere Vorgehen bei der Justage des Interferometers
abgeleitet werden kann. Links: Lage der Brennpunkte entsprechend Graphik 1 aus Abb. 6.12, rechts:
entsprechend Graphik 2 aus Abb. 6.12.
In Abb. 6.13 ist das Testobjekt eine Aluminiumplatte, die mittels einer rückwärtig angebrachten
Mikrometerschraube in Richtung Kamera verformt wurde. Das linke Bild entspricht dem Fall
zO≠zR. Infolge des schwachen hierdurch hervorgerufenen Phasengradienten ist es stark
verrauscht. Im rechten Bild ist zusätzlich ∆s≠0 und durch den größeren Phasengradienten ist die
Streifenqualität deutlich gestiegen; außerdem ist im Vergleich der beiden Bilder zu erkennen, wie
die x-Position der Streifenumkehr (% Nulldurchgang von Fα) sich nach rechts verschoben hat,
wie es in Graphik 2 von Abb. 6.12 skizziert ist.
In den hier gezeigten und allen folgenden Sägezahnbildern wird die Verformungsrichtung zur
Kamera hin als wachsende Helligkeit dargestellt; in Abb. 6.13 hat also der Phasengradient in den
linken Bildhälften das „richtige“ Vorzeichen.
Dieser Justierungsschritt erfordert ständiges Berechnen von Verformungen und ist deshalb
aufwendig; es hat sich jedoch gezeigt, daß die Zuverlässigkeit der Methode ausreicht, um die –
hier nicht mögliche – visuelle Kontrolle der Referenzwellenfokussierung zu ersetzen.
6.2.1.2 Phasenvorschub
Beim Einstellen des notwendigen Phasenvorschubs durch das seitliche Versetzen der
Referenzwelle kann die Funktion Loop separatn. [every 3rd] nicht benutzt werden, da die
Objektwelle nicht eben ist und auch bei richtiger Einstellung keine gleichförmige Helligkeit
erscheint. Hier muß wiederum ein indirekter Weg gegangen werden, der auf der Überlegung
basiert, daß die Phasen innerhalb von Speckles einen im Vergleich mit der einzustellenden
Referenzwellenfront geringen oder teilweise auch gar keinen Gradienten zeigen [Goo75]. Falls in
einem Speckle die Phase leicht variiert, gibt es im Raum keine Vorzugsrichtung hierfür. Wird
nun ein Speckle-Interferogramm mit dem Phasenshiftalgorithmus ausgewertet, ist folglich eine
ungerichtete Verteilung der Grauverläufe zu erwarten, sofern der richtige Phasengradient
Realisierung des räumlichen Phasenschiebens 95
eingestellt ist. Das Vorhandensein einer spaltenweisen Ausrichtung der Grauverläufe entlang des
Phasenshifts deutet darauf hin, daß der Algorithmus eine geneigte verspeckelte Objektwelle
errechnet; tatsächlich ist dann aber die Verkippung (% Versetzung) der Referenzwelle dem in der
Formel gesetzten Phasengradienten noch nicht angepaßt.
In der Praxis wird nach der richtigen Fokussierung der Referenzwelle der Phasenvorschub
zunächst grob eingestellt; hierzu wird das Interferogramm am Monitor beobachtet und die
seitliche Versetzung der Referenzwelle erhöht, bis sich streifige Strukturen auf den Speckles wie
in Abb. 2.5 andeuten. Nun tastet man sich unter ständiger Kontrolle des mod 2π-Bildes an die
richtige Einstellung heran: je nach dem Aussehen der berechneten Phasenverteilung wird der
Phasengradient weiter vergrößert oder wieder verringert. Abb. 6.14 gibt die Abfolge der mod 2π-
Bilder während eines Justiervorgangs wieder.
Abb. 6.14: Mit 120°-Algorithmus berechnete Phasenverteilung eines Specklemusters bei fünf verschiedenen
Einstellungen des Phasenshiftwinkels. Von oben nach unten: 0° pro Spalte (kein Referenzstrahl
vorhanden), 60°, 90°, 120° und 180° pro Spalte.
Es wird eine horizontale Verkippung ausgerechnet, deren Ausmaß der Abweichung des
Phasenvorschubs vom gewünschten Wert proportional ist. Deutlich ist in den oberen beiden
Teilbildern ein gerichtetes Streifenmuster zu erkennen; kommt der tatsächliche Phasenshift dem
nominellen näher, verschwindet die Streifigkeit allmählich. Die richtige Einstellung im vierten
Teilbild von oben zeigt keine räumliche Ausrichtung mehr. Falls der Phasenshift 120° pro Spalte
96 Realisierung des räumlichen Phasenschiebens
überschreitet, zeigt sich eine gegensinnig orientierte Ausrichtung; für $ 60° Abweichung des
Phasenshifts sehen die berechneten Muster (60° bzw. 180° Phasenshift) bis auf die Orientierung
der Ausrichtung sehr ähnlich aus.
Überschreitet der Phasenshift 180° pro Spalte, so verringert sich wegen des beginnenden
aliasing die detektierte Raumfrequenz der aufmodulierten Streifen und die berechnete Phase
eines einzelnen Specklebilds sieht wieder ähnlich aus wie in Abb. 6.14 oben. In diesem Fall
wechselt aber auch der detektierte Phasengradient und damit die detektierte Objektverformung
das Vorzeichen (vgl. 6.2.1.2); dies kann durch Berechnen eines Verformungsbildes erkannt
werden.
Ein Vorzeichenwechsel der detektierten Objektverformung findet aber auch bei einem
Phasenshift von 0° pro Spalte statt. Die beiden Fälle lassen sich jedoch anhand der
Interferogramme unterscheiden: ein Interferogramm mit 180° Phasenshift pro Spalte zeigt sehr
feine Streifen auf den Speckles; für 0° Phasenshift liegt die gewöhnliche ESPI-Einstellung vor
und das Vorhandensein einer Referenzwelle ist am Specklemuster nicht zu erkennen. Durch
Betrachten des Interferogramms ist es also möglich, den Grobbereich des vorliegenden
Phasenshifts zu bestimmen, falls mit einer unbekannten Einstellung gestartet wird.
Abb. 6.15 belegt, daß sich für die Fälle Fα = 0°/PA und Fα = 180°/PA auch die Sägezahnbilder
unterscheiden, obwohl in beiden Fällen die Richtungsinformation der Verformung verschwindet.
Das Objekt wurde in beiden Fällen zur Kamera hin verformt.
Abb. 6.15: Mod 2π-Differenzbilder einer Objektverformung, mit verschiedenen Phasengradienten in den
zugrundeliegenden Interferogrammen. Links: 0°, rechts: 180° Phasenvorschub pro Spalte.
Eine Sägezahnstruktur ist in keinem der Bilder zu erkennen, was belegt, daß die
Phasenvorschübe von 0 bzw. 180° pro Spalte genau getroffen wurden. Trotzdem liefert die
Verformung in beiden Fällen eine Differenzinformation zwischen den Interferogrammen und
man erhält eine Art Korrelationsstreifen. Da die Interferogramme, aus denen das rechte Bild
berechnet wurde, gestreifte Speckles zeigen, führt eine Objektänderung in diesem Fall zu
Realisierung des räumlichen Phasenschiebens 97
Der tatsächliche Phasenshift kann mit der Funktion Phase Shift überprüft werden; diese liefert
für Specklebilder aber nur von etwa 60° bis 120° zuverlässige Werte (s. A4). Das
Berechnungsergebnis ist aufgrund des Specklerauschens eine statistische Verteilung; man kann
den mittleren Phasenshiftwinkel näherungsweise mit der Lage des Maximums dieser Verteilung
identifizieren. Es hat sich aber gezeigt, daß die Einstellung per „Augenmaß“ wie in Abb. 6.14
kein schlechteres Ergebnis liefert, wie auch im nächsten Abschnitt nachgewiesen wird.
6.2.1.3 Specklegröße
Im hier untersuchten Verfahren muß die mittlere Specklegröße in horizontaler Richtung bei etwa
drei Pixelbreiten liegen; in vertikaler Richtung würde eine Pixelhöhe genügen, aber wir haben
durchgehend mit der kreisförmigen Apertur eines gewöhnlichen Objektivs gearbeitet.
Die mittlere Specklegröße in einem Specklebild läßt sich bei Verwendung einer Abbildungsoptik
aus den Werten von Blendenzahl F, Abbildungsmaßstab M und Laserwellenlänge λ nach der
Gleichung
berechnen [Lau93]. Diese Formel gilt auch für ein Objektiv, das nicht an die Kamera
angeflanscht ist; jedoch weicht dann die Bildweite erheblich von derjenigen ab, für welche das
Objektiv berechnet ist. In unserem Fall betrug die Bildweite bei angeflanschtem Objektiv etwa 4
cm und bei getrenntem Objektiv etwa 6.5 cm. Deshalb wurden einige Werte für die Specklegröße
zusätzlich experimentell bestimmt.
Die mittlere Specklegröße kann gemessen werden, indem ein Specklebild autokorreliert wird; der
Abstand vom Maximum der Autokorrelationsfunktion bis zur ersten Nullstelle gibt dann die
mittlere Specklegröße an [Goo75]. Es wurden bei allen möglichen Blendenzahlen Specklebilder
aufgenommen, jeweils ohne und mit Referenzstrahl, und mit dem Computerprogramm auto3
[Ada95] die Autokorrelationsfunktionen berechnet.
Die Ergebnisse von Berechnung und Messung der Specklegröße sind in Tabelle 6.1
zusammengestellt. Bei den gemessenen Werten zeigt sich mit sinkender Specklegröße eine
zunehmende Abweichung, die auf unzureichende räumliche Auflösung der
98 Realisierung des räumlichen Phasenschiebens
Autokorrelationsfunktion und des Specklemusters zurückzuführen ist. Wenn das Maximum der
AKF nur wenige Pixel breit ist, erzeugt die pixelweise Diskretisierung eine Stufenfunktion, die
zum Zweck der Auswertung geglättet werden muß. Der dabei entstehende Fehler vergrößert sich
um so mehr, je geringer die vermessene Specklegröße ist. Insbesondere können Specklegrößen
von weniger als einem Pixel prinzipiell nicht aufgelöst werden. Die Meßwerte für die
Blendenzahlen 32 und 22 weisen aber darauf hin, daß die Berechnungsformel (6-1) auch für die
veränderte Abbildungsgeometrie gültig bleibt.
Tabelle 6.1: Berechnete und gemessene Werte der mittleren Specklegröße in dem verwendeten Speckle-
Interferometer. λ=632.8 nm, M=0.33, Pixelbreite=8.6 µm.
Die Autokorrelationsfunktionen der Specklebilder mit Referenzstrahl geben durch die Form ihres
Maximums Aufschluß über Abmessungen und Ausrichtung der gestreiften Speckles, so daß mit
dieser Methode sowohl der Betrag als auch die genaue Richtung des Phasenvorschubs überprüft
werden können. Die Richtung des Phasenvorschubs ist eindeutig gegeben; Aussagen über die
Richtung des Streifenmusters haben dagegen statistischen Charakter. Die Richtung der
aufmodulierten Streifen wird in einem Specklemuster von dem absichtlich eingeführten
Phasengradienten und den jeweiligen Phasengradienten innerhalb der Speckles selbst bestimmt,
so daß die Streifenrichtung mit einer gewissen Abweichung um die senkrechte Stellung
fluktuiert. So gibt auch die Ausrichtung eines asymmetrischen Autokorrelationspeaks nur die
mittlere Ausrichtung von Speckles an. Abb. 6.16 zeigt links in Pseudo-3-D-Darstellung den
geglätteten Autokorrelationspeak eines Specklebilds mit der mittleren Specklegröße 32.9 µm
(Blende 32) und rechts den eines gestreiften Specklebildes mit Referenzstrahl, ebenfalls bei
Blende 32.
Realisierung des räumlichen Phasenschiebens 99
2 2
Autokorrelationsfunktion
Autokorrelationsfunktion
1,8 1,8
1,6 1,6
1,4 1,4
118 118
89 89
1,2 1,2
59 y/µm 59 y/µm
30 30
1 1
0 0
0
0
15
15
31
31
46
46
61
61
77
77
92
92
107
107
123
123
138
138
x/µm x/µm
Abb. 6.16: Links: zentrales Maximum der Autokorrelationsfunktion eines Specklebildes; rechts: gleicher Ausschnitt
der AKF des gleichen Specklebildes mit überlagertem Referenzstrahl.
Als Folge der Intensitätsmodulation in den Speckles durch die Referenzwelle ist die
Rotationssymmetrie des Maximums im rechten Bild gebrochen. Außerdem ist es in der x–y–
Ebene leicht verdreht, weil die gewünschte senkrechte Einstellung des Streifenmusters nicht
genau getroffen wurde; die Abweichung liegt bei etwa –8°. Nach der horizontalen 2π-
Phasenshiftdistanz (entspricht einem dunklen Streifen) steigt die Autokorrelationsfunktion noch
einmal kurz an, da die mittlere Specklegröße über drei Pixel liegt. Eine Auswertung der
Abstände zwischen den Extrema ergibt einen Phasenshift von 120° $10° pro Spalte.
Aus den Specklegrößenbestimmungen ergibt sich, daß eine mittlere Specklegröße von 25.8 µm
(3 Pixel) bei einer Blendenzahl von etwa 25 erreicht wird. Der Einfluß der mittleren
Specklegröße auf die Streifengüte und die Ortsauflösung von Sägezahnbildern wird im folgenden
Abschnitt untersucht.
6.2.1.4 Ortsauflösung
Wie zuvor erwähnt, schränkt die erforderliche Specklegröße die Auflösung des Interferometers
zumindest in Richtung des Phasenshifts ein. Dies verschärft sich zwar bei weiterer Vergrößerung
der Speckles, gleichzeitig aber nimmt das Specklerauschen ab und man erhält – sofern die
Streifendichte nicht zu hoch wird – zusehends klarere Sägezahnbilder. Mit der folgenden
Meßreihe sollen Erkenntnisse über die Bedeutung der Specklegrößen für das räumliche
Phasenschieben gewonnen werden.
besteht aus konzentrischen Kreisen, so daß jede mögliche Streifenrichtung in den Bildern
enthalten ist. Dadurch können eventuelle Richtungsabhängigkeiten der Auswertung leichter
erkannt werden. Weiterhin steigt die Streifendichte vom Zentrum der Verformung zu den
Bildrändern hin an, so daß es möglich wird, innerhalb eines Bildes die Grenze der Ortsauflösung
zu finden.
Die Specklegrößen wurden systematisch variiert und für jede Einstellung zwei Verformungen
vermessen: eine kleine mit sehr geringer Streifendichte zur Untersuchung der Güte der
Streifensysteme, und die jeweils größte, bei der noch Streifen zu erkennen waren, zum
Bestimmen der Auflösungsgrenze. Die große Verformung wurde so gewählt, daß im
Sägezahnbild das Übergehen der Streifen in Rauschen zu beobachten war. Die entstandenen
Bilder sind in Abb. 6.17 zusammengestellt. Eine Specklegröße von unter 8 µm (% etwa 1 Pixel)
führte zu unbrauchbaren Ergebnissen.
Wie an der linken Spalte der Abb. 6.17 zu erkennen ist, liefert die höchste Specklegröße das
rauschärmste Sägezahnbild. Zur Quantifizierung des Rauschens wurden die Sägezahnbilder
jeweils mit einem 15 x 15-Medianfilter geglättet und die Differenz des dabei erhaltenen Bildes
zum Original gebildet. Je stärker das Rauschen im Sägezahnbild, desto mehr weicht das gefilterte
Bild vom Original ab. Der Medianwert dieser Abweichung betrug für die Specklegrößen von 3.9,
2.7, 1.9 und 1.3 Pixel 22, 28, 39 und 54 Graustufen. Daran ist zu erkennen, daß eine
Verringerung der Specklegröße das Rauschen systematisch erhöht; der Faktor der Zunahme des
Rauschens kommt dem der Speckleverkleinerung von Messung zu Messung (1.4) sehr nah.
In den Bildern der rechten Spalte ist folgendes zu erkennen: Bei einer Specklegröße von 3.9
Pixel kann eine Verformung von 75 µm aufgelöst werden; dies entspricht einer Streifenbreite
von etwa 7 Pixeln. Bei der nächstkleineren Specklegröße (2.7 Pixel) findet man eine Auflösung
von etwa 5 Pixel Streifenbreite entsprechend 100 µm Verformung; der Faktor 1.4 wird hier
ebenfalls wiedergefunden. Dies gilt bei einer Specklegröße von 1.9 Pixel nicht mehr; die
detektierbare Streifenbreite beträgt etwa 4 Pixel bei einer Verformung von 120 µm. Wird die
Specklegröße auf 1.3 Pixel reduziert, nimmt die Auflösung sogar ab und bei Verformungen über
100 µm sind keine Streifen mehr erkennbar. Daß die erreichbare Auflösung ein Extremum zeigt,
liegt nicht allein an der zunehmenden Beeinträchtigung der Phasenrekonstruktion bei sinkender
Specklegröße: sowohl bei einer Vergrößerung der Verformung als auch bei einer Verringerung
der Specklegröße nimmt die Speckledekorrelation zwischen den Paaren der ausgewerteten
Interferogramme zu.
Realisierung des räumlichen Phasenschiebens 101
Abb. 6.17: Ergebnisse der Verformungsmessung an einer Aluminiumplatte bei veränderlicher Specklegröße. Linke
Spalte: geringe Verformung, rechte Spalte von oben nach unten: Verformung von 75, 100, 120 und 100
µm. Mittlere Specklegrößen von oben nach unten: 3.9, 2.7, 1.9 und 1.3 Pixel.
102 Realisierung des räumlichen Phasenschiebens
Die mittlere Specklegröße bestimmt zwar die räumliche Auflösung, doch es zeigt sich, daß
Verformungsstreifen etwa doppelt so breit sein müssen wie ein Speckledurchmesser, um noch
erkennbar zu sein. Für einen Phasenvorschub von 120° pro Spalte können außerdem
Verformungsstreifen von unter drei Pixeln Breite auf keinen Fall detektiert werden (vgl. 3.3.1).
Der Versuch, die Sägezahnbilder der starken Verformungen mit einer Filterung zu verbessern,
schlug in allen Fällen fehl. Es kann daher davon ausgegangen werden, daß bei niedrigeren
Streifendichten, die z.B. eine Demodulation erlauben, der räumliche Gradient der Objektphase
voll aufgelöst wird. Die nach wie vor verringerte räumliche Auflösung der Objektoberfläche ist
dann von untergeordneter Bedeutung.
6.2.1.5 Intensitätsverhältnisse
Um bei der Überlagerung zweier Wellen den Interferenzterm zu maximieren, müssen die
Intensitäten von Objekt- und Referenzstrahl aufeinander abgestimmt werden. Entscheidend ist
dabei in der Praxis nicht der Modulationsgrad oder Kontrast γ, sondern die Modulationstiefe I0γ,
denn die Intensitätsvariation beim Phasenschieben muß in einem realen Datensatz sowohl durch
ausreichend viele Graustufen aufgelöst sein als auch das Rauschen des Sensors übersteigen. Die
vom Objekt rückgestreute Intensität ist durch die notwendige kleine Blendenöffnung stark
eingeschränkt –aus diesem Grund war uns in dieser Anwendung auch das Verkürzen der
Belichtungszeiten nicht möglich–, so daß zum Abgleich der Strahlen nur die Intensität des
Referenzstrahls wie in Kapitel 6.2 beschrieben geregelt wird.
In [Sle86] wird hergeleitet, daß die Intensität des Referenzstrahls auch in einem Speckle-
Interferometer immer ein Viertel der Sättigungsintensität des Detektors betragen soll. Dies würde
wie in 6.1 eine Einstellung auf Graustufe 64 bedeuten. Mit dem Menüpunkt Modulation Shift
wurde der maximale Modulationshub I0γ im Interferogramm jedoch bei einer mittleren
Referenzstrahlintensität entsprechend etwa Graustufe 50 gefunden. Dies steht nicht im
Widerspruch zur Theorie, denn die Intensitätsverteilung unserer Specklebilder wich von den in
[Sle86] gemachten Annahmen ab.
Aufgrund der geringen Leistung des verwendeten Lasers konnte der Objektstrahl kaum
aufgeweitet werden; demzufolge zeichnet sich das Gaußprofil der Strahlintensität in den
Specklebildern deutlich ab. Die Intensität der Referenzwelle wird so gewählt, daß optimale
Modulation auf einem möglichst hohen Flächenanteil des Bildes zustandekommt, d.h. in diesem
Realisierung des räumlichen Phasenschiebens 103
Fall ist sie auf die flächenmäßig überwiegenden, vergleichsweise dunklen Randbereiche des
Bildes abgestimmt. Die Verstärkung der Kamera ist so eingestellt, daß die Bildmitte nicht
übersteuert wird; dadurch ist der restliche Bereich des Specklebildes schwächer als üblich
ausgesteuert und ebenso die diesem angepaßte Referenzwelle.
Als erster Schritt zum Abgleich der Intensitäten wird ein Specklemuster ohne Referenzstrahl
aufgenommen und ein Histogramm der Grauverteilung erstellt. Die Verstärkung der Kamera ist
so zu wählen, daß nur wenige Pixel übersteuert sind, d.h. daß der Grauwert 255 nur geringe
Häufung zeigt. Anschließend wird die Referenzwelle hinzugefügt und unter ständiger Kontrolle
der Modulation deren Intensität variiert, bis der Schwerpunkt der ermittelten
Modulationshubverteilung den höchsten Wert annimmt. (Dieses Kriterium kam ebenso beim
Abgleich der optischen Wege von Objekt- und Referenzstrahl zur Anwendung.) In Abb. 6.18
sind die Intensitätsverteilungen wiedergegeben, die sich als optimal erwiesen haben; Abb. 6.19
zeigt die damit erreichte Verteilung des Modulationsgrades und des Modulationshubs.
Abb. 6.18: Histogramme der Intensitätsverteilungen bei Einstellung der Strahlintensitäten auf maximale
Modulationstiefe I0γ des Interferogramms; die Abszissen zeigen die Grauwerte, die Ordinaten die
entsprechenden Pixelanzahlen.
Bei der Einstellung des Referenzstrahls gelang eine gute Gleichförmigkeit; die Strahlführung
mußte allerdings öfter am Spiegel nachjustiert werden.
104 Realisierung des räumlichen Phasenschiebens
Im Interferogramm haben etwa 4000 Pixel den Grauwert 255 und sind damit größtenteils
übersteuert; dieser Effekt muß aber beim Umgang mit Specklemustern immer in Kauf
genommen werden.
0 γ 1 0 I0 γ 128
Abb. 6.19: Histogramme zur Modulation eines optimierten Speckle-Interferogramms. Links: der Kontrast, rechts: die
Verteilung der Modulationstiefe in Grauwerten. Die Ordinaten geben die Pixelanzahlen an.
Der Schwerpunkt der Modulationsgradverteilung liegt bei etwa 0.33. Da diese Größe unter
Einbeziehung dreier nebeneinanderliegender Pixel berechnet und vom Specklerauschen
entsprechend beeinflußt wird, ist zu erwarten, daß eine höhere Modulation gemessen wird als bei
zeitlich phasengeschobenen Interferogrammen; eine Anwendung der Rechnung in [Sle86] führt
auf eine theoretische mittlere Modulation von 0.28 für das hier vorliegende Intensitätsverhältnis
und die Annahme bestätigt sich.
Die ermittelte Modulationstiefe beträgt etwa 50 Graustufen; dieser Wert liegt deutlich unter dem
theoretisch erwarteten von 60 Graustufen, in welchem der Modulationsverlust durch räumliche
Mittelung bereits enthalten ist. Auch hier zeigt sich die Auswirkung der gaußförmigen
Helligkeitsverteilung im Bild: die Randbereiche zeigen im Vergleich zur Mitte eine deutlich
schwächere Modulation.
In [Vro91] wird für die Wahl von Rσ ein Wert von 4σn vorgeschlagen, wobei σn die
Standardabweichung des Rauschens ist. Die SONY XC-75 Kamera erzeugt ein Rauschen von
etwa zwei Graustufen; daraus ergibt sich eine Modulationstiefe von etwa acht Graustufen als
Mindestwert. Dies konnte in einer Versuchsreihe mit Verformungsbildern aus kontrastschwachen
Interferogrammen bestätigt werden; die Sägezahnbilder zeigten erst bei einem Modulationshub
unter acht Graustufen ein sichtbar höheres Rauschen.
6.2.2 Anwendungen
Zunächst wurde die Annahme der konstanten Specklephase überprüft; anschließend wurde
exemplarisch eine quantitative Messung durchgeführt und zum Schluß die Einsetzbarkeit des
räumlichen Phasenschiebens zur Vermessung schnell bewegter Objekte demonstriert.
Abb. 6.20: Links: mit CCD-Kamera aufgenommenes Specklemuster, rechts: durch räumliches Phasenschieben
berechnete Phasenverteilung dieses Specklemusters. Zum leichteren Vergleichen der Bereiche ist anbei
eine Fensterfolie zu finden.
Die Struktur des Specklemusters ist nur teilweise in der Phasenverteilung wiederzuerkennen; die
Annahme, daß innerhalb eines Speckles die Phase annähernd konstant ist und an der Grenze
eines Speckles erkennbar variiert, erweist sich als Vereinfachung.
Um einen Anhaltspunkt für die Größe der Bereiche ähnlicher Phase und die Phasengradienten
innerhalb derselben zu gewinnen, wurde das mod 2π-Bild mit zwei verschiedenen „Bandpässen“
gefiltert: bestimmte Graustufenbereiche werden über geeignete Wertzuordnungen unterdrückt.
Zuerst wurden die Grauwerte unter 64 und über 192 abgeschnitten, d.h. als Schwarz dargestellt;
dadurch entsteht ein Bild, das nur 128 Graustufen enthält. Die Wahl für den Zentralwert der
Begrenzung fiel auf den Grauwert 128, weil der 2π–Phasenübergang in der Darstellung nicht
enthalten sein darf. Der entstehende Helligkeitssprung von schwarz nach weiß würde dem Auge
auch bei graduellen Übergängen eine Unstetigkeit vortäuschen.
In dem so veränderten Bild, das in Abb. 6.21 links wiedergegeben ist, werden nur noch
Objektphasenwerte von 90° bis 270° dargestellt und man kann die Ausdehnung von Bereichen
ähnlicher Phase (Abweichung <180°) erkennen. Der Anteil der unterdrückten Pixel beträgt
49.8%, was bestätigt, daß die Grauwerte im Originalbild gleichverteilt sind. Die Objektphase
bleibt zum Teil über Bereiche, die wesentlich größer sind als die Speckles, ohne abrupte
Sprünge. Dies macht zum einen deutlich, daß nebeneinanderliegende Speckles mit einer
gewissen Wahrscheinlichkeit ähnliche Phasenlagen zeigen; zum anderen aber ist zu
berücksichtigen, daß die räumliche Integration über die Pixelflächen des Sensors scharfe
Phasenübergänge unterdrückt. Diese würden sich nämlich, wenn sie auf einem Bruchteil der
Pixelbreite stattfinden, über welchen die Referenzphase quasi konstant ist, als Intensitätssprünge
manifestieren und nicht mehr aufgelöst werden.
Realisierung des räumlichen Phasenschiebens 107
Abb. 6.21: Selektive Darstellung der Phasenverteilung eines Specklemusters. Links sind nur Grauwerte von 64 bis
192 (Specklephasenwerte 90 bis 270°), rechts nur Grauwerte von 96 bis 160 (Specklephasenwerte 135 bis
225°) hell dargestellt; alle anderen Grau- bzw. Phasenwerte sind durch Schwarz maskiert.
Der Phasengradient innerhalb der 180°–Bereiche wird durch eine weitere Einengung der
dargestellten Grauwerte sichtbar gemacht; hier wurde ein Fenster von 64 Graustufen (% 90°)
gewählt, das ebenfalls um den Wert 128 zentriert ist. Das Resultat ist in Abb. 6.21 rechts gezeigt.
Der Anteil der auf Schwarz gesetzten Pixel beträgt hier 77.6 %. Diese Abnahme der dargestellten
Fläche läßt wiederum eine annähernde Gleichverteilung der Phasenwerte erkennen.
Das Aussehen der übrigbleibenden Bereiche weist auf die Größe der Phasengradienten hin: je
schneller die Phase bzw. die Grauverteilung räumlich variiert, desto kleiner werden die
zusammenhängenden Gebiete. Diese wurden deshalb auf ihre Größenverteilung untersucht, um
einen ungefähren Wert für den mittleren Phasengradienten zu gewinnen. Als mittlere Größe der
Gebiete ergibt sich ein Wert von etwa 3.8 Pixeln; unter der Annahme, daß die Specklephase auf
dieser Strecke um das darstellbare Intervall von 90° variiert, ergibt sich ein mittlerer
Specklephasengradient von etwa 24° pro Pixel. Zur Überprüfung dieses Werts wurde für ein mod
2π-Bild eines Specklemusters die Autokorrelationsfunktion berechnet; das erste Minimum wurde
in einem Abstand von etwa sechs Pixel zum Zentrum gefunden. Da der Untergrund der AKF
(Grauwert 128) den Phasenwert 180° darstellt, entspricht der Abstand des ersten Minimums vom
Zentrum einer Grauwertänderung von 128 Stufen bzw. einer Phasenänderung von 180°. Daraus
ergibt sich ein Phasengradient von ungefähr 30° pro Pixel.
Für das räumliche Phasenschieben ergibt sich aus diesen Betrachtungen, daß die erreichbare
Genauigkeit in Phasenshiftrichtung selbst in Messungen mit sehr großen Speckles eingeschränkt
ist, da die Bedingung der quasikonstanten Specklephase nicht erfüllt werden kann. Auf die
Meßgenauigkeit senkrecht zum Phasenshift bleibt dies ohne Auswirkung. Die Wahl eines
108 Realisierung des räumlichen Phasenschiebens
Wie häufig in der berechneten Specklephase Unstetigkeiten auftreten, läßt sich indirekt an einem
Differenz-Sägezahnbild erkennen. Dort zeigen die Streifen eine Art „Rissigkeit“, die von leicht
gegeneinander versetzten Phasen- bzw. Grauwertsprüngen in den beiden mod 2π-Bildern der
Specklemuster herrührt (vgl. 6.2.3.1).
Um auszuschließen, daß das System noch größere unerkannte Fehler birgt, wurde eine kurze
quantitative Meßreihe durchgeführt. Da sich die mittig verformte Metallplatte nicht als Ganzes
beobachten ließ, wurde eine Platte benutzt, die um ihre Hochachse drehbar ist; hier kann der
Objektphasengradient, der über die Bildbreite sichtbar sein muß, im Rahmen der
Ablesegenauigkeit der zur Drehung verwendeten Mikrometerschraube geometrisch bestimmt
werden. Abb. 6.22 skizziert die geometrischen Verhältnisse.
b D = 50.5 mm
S
L = 19.3 mm
B γ =11.8°
Kamera
Drehbare Platte
Abb. 6.22: Geometrie des Speckle-Interferometers für die Vermessung einer bekannten Objektänderung. B:
Beobachtungsvektor, b: Beleuchtungsvektor, S: Empfindlichkeitsvektor, V: Vorschub der
Mikrometerschraube, D: Abstand der Mikrometerschraube von der Drehachse, L: Breite des abgebildeten
Bereichs, γ : Winkel zwischen b und B.
Die Objektänderung ist eine Drehung; aufgrund des sehr geringen Drehwinkels wird V für alle
Verformungen als senkrecht auf der Platte stehend angenommen. Die im Bildausschnitt der
Breite L vorhandene Verkippung der Platte ergibt sich als
L
(6-2) ds = V ⋅ = V !0.38
D
b B
(6-3) S= −
b B
1
Ν = ⋅ S • V ⋅ 0.38
λ
1 γ
= ⋅ S ⋅ V ⋅ cos ⋅ 0.38
(6-4) λ 2
1
= ⋅ 199. ⋅ V ⋅ 0.995 ⋅ 0.38
λ
. µm−1 ⋅ V
= 118 •
Pro µm eingeführter Verformung sollten also etwa 1.2 Streifen im Sägezahnbild erscheinen. Für
eine Reihe verschiedener Verkippungen der Platte wurden Sägezahnbilder berechnet und die
erhaltenen Streifen gezählt. Meistens liegt jedoch keine ganze Zahl von Streifen vor; wie genau
die auftretenden Bruchteile geschätzt werden können, hängt von der Streifendichte ab. Ein
relativer Schätzfehler von $ 3 % (% 1/3 Streifen pro 10 Streifen) erschien uns realistisch.
Tabelle 6.2 faßt die Ergebnisse zusammen.
Tabelle 6.2: Gegenüberstellung von voreingestellten und abgelesenen Verkippungen in einer quantitativen Meßreihe
zur Überprüfung des Speckle-Interferometers.
Verkippung/µm
eingestellt ermittelt
10 9.87 $ 0.30
20 20.13 $ 0.60
40 41.53 $ 1.25
80 80.50 $ 2.42
100 99.15 $ 2.98
Die Meßwerte liegen mit einer Ausnahme innerhalb der Fehlergrenzen; eine mögliche Erklärung
für stärkere Streuung ist, daß die Verkippung an der Mikrometerschraube nur auf etwa 2 µm
genau eingestellt werden kann. Im Rahmen der gegebenen Genauigkeiten stimmen die Werte gut
überein; im folgenden kann also davon ausgegangen werden, daß der Phasengradient „richtig“ im
Hinblick auf die Streifenanzahlen ermittelt wird.
Das eigentliche Einsatzgebiet des räumlichen Phasenschiebens sind Anwendungen, in denen das
zeitliche Phasenschieben versagt. Die Bilder aus dem Michelson-Interferometer mit
Shuttereinsatz waren ein erstes Beispiel dafür; ein Vergleich der Methoden war in diesem Fall
jedoch nicht möglich. Für die Specklemuster-Interferometrie stand uns das mobile
Speckleinterferometer SD800 (Hersteller: Spectra Data) zur Verfügung, das von der AG
Angewandte Optik für Vor-Ort-Messungen an Gebäuden eingesetzt wird und dort seit Jahren
zuverlässig arbeitet. Im SD800 dient eine Laserdiode als Lichtquelle; für die
110 Realisierung des räumlichen Phasenschiebens
Verformungsmessung wird zuerst ein Referenzbild aufgenommen, das auf Wunsch gemittelt
werden kann, und anschließend werden zu einem vom Bediener zu wählenden Zeitpunkt vier
Phasenbilder in der Zeitspanne von etwa einer Sekunde aufgenommen. Die weitere Auswertung
erfolgt automatisch, wobei die Anzahl und die Art der Filterungsschritte sowohl für die
Korrelationsstreifen- als auch für die mod 2π-Bilder vorbestimmt werden kann. Für die gezeigten
Bilder aus dem SD800 waren die zugrundeliegenden Korrelationsstreifensysteme 3 x 3-
tiefpaßgefiltert. Die hier dargestellten Bilder aus dem räumlich phasenschiebenden Aufbau
wurden ohne Filterung berechnet.
Die Qualität der Sägezahnbilder wurde mit dem SD800 und dem hier behandelten Aufbau unter
zwei Arten äußerer Einflüsse geprüft, für die man beim zeitlichen Phasenschieben Probleme
erwartet.
Zunächst wurde mittels einer Wärmelampe, die jeweils unter dem Objektstrahlengang plaziert
war, die Luft in Turbulenz versetzt und damit die Objektwellenfront zeitabhängig gestört. Als
Testobjekt wurde abermals die mittig verformbare Metallplatte benutzt. Die Referenzbilder
wurden jeweils in Anwesenheit der Turbulenz aufgenommen. Abb. 6.23 stellt die erhaltenen
Sägezahnbilder nach vorgenommener Verformung einander gegenüber.
Abb. 6.23: Sägezahnbilder einer in Anwesenheit eines turbulenten Mediums aufgezeichneten Verformung; links aus
dem zeitlich, rechts aus dem räumlich phasenschiebenden System.
Der Bildausschnitt des SD800 ist hier weitaus größer als der des räumlich phasenschiebenden
Aufbaus, so daß die Turbulenzen auf einer anderen Skala beobachtet werden; das Verhältnis
beträgt etwa 5:1. Eine Anpassung der Ausschnitte war nicht möglich, da das Objektiv der CCD-
Kamera im SD800 keine Verstellmöglichkeiten hat und die vorhandenen Wechselobjektive sehr
ähnliche Abbildungen erzeugen; auch die Abbildungsgeometrie des räumlich phasenschiebenden
Aufbaus ist in der vorliegenden Konfiguration nicht variierbar. Auf eine Anpassung der
Bildausschnitte durch Abschneiden der Kanten des SD800–Bildes wurde verzichtet, um die
Pixelzahlen im Bild vergleichbar zu halten (SD800: 512 x 512, unser Interferometer:
Realisierung des räumlichen Phasenschiebens 111
736(h) x 576(v)). Es wurde auf eine ähnliche Streifendichte im Bild geachtet; die
unterschiedlichen Verformungen der Platte, die das erforderte, sind bezüglich der
Speckledekorrelation beide unkritisch. Die Integrationszeiten für die zugrundeliegenden
Interferogramme betrugen in beiden Interferometern 20 ms.
Das Streifensystem aus dem SD800 ist nicht auswertbar, da sich während der Aufnahme der
Phasenbilder die Objektwellenfront zu stark geändert hat. Die Phasenmessung durch räumliches
Phasenschieben dagegen gibt die Verformung qualitativ richtig wieder. Das entstandene
Sägezahnbild ist hier schon in die beiden Halbbilder zerlegt und man erkennt nicht nur eindeutig
die Verformungsrichtung, sondern auch die Veränderung der Wellenfront im zeitlichen Abstand
der Halbbilder. Die Verzerrung des Bildes durch Luftturbulenzen kann allerdings auch von dieser
Meßmethode nicht beseitigt werden.
Die ungleichen Bedingungen, mit denen der vorige Vergleich aufgrund sehr unterschiedlicher
Gesichtsfelder behaftet ist, wurden im folgenden Versuch behoben. Zu diesem Zweck wurde eine
zeitliche Objektänderung vorgenommen, deren räumliche Skalierung beliebig gewählt werden
kann: ein Piezotranslator wurde an der Rückseite der Platte angeschraubt und während der
Bildaufnahme bewegt. In diesem Fall bedeuten gleiche Streifenanzahlen in den Bildern direkte
Vergleichbarkeit der Meßergebnisse.
Abb. 6.24: Sägezahnbilder von einer sich während der Aufnahme der Interferogramme verformenden Metallplatte;
links aus dem zeitlich, rechts aus dem räumlich phasenschiebenden System.
Auch in der Specklemuster-Interferometrie erweist sich das räumliche Phasenschieben als in der
Lage, die Veränderung beweglicher Objekte zu messen; die Grenzen der Zeitauflösung sind hier
direkt durch die Integrationszeit der Interferogramme vorgegeben und damit indirekt durch die
verfügbare Laserleistung. Wir konnten aufgrund mangelnder Laserleistung den Shutter nicht
einsetzen, haben uns jedoch davon überzeugt, daß das räumliche Phasenschieben auch dann
keine mehrdeutigen Bilder liefert, wenn die Objektbewegung während der Integrationszeit groß
ist. Abb. 6.25 zeigt das Ergebnis einer Phasenmessung, bei der das Objekt sich in der Bildmitte
mit etwa 15 µm/s bewegt.
Abb. 6.25: Sägezahnbild eines sich schnell verformenden Objekts; die Verformungsgeschwindigkeit beträgt in der
Bildmitte 15 µm oder 25 Wellenlängen pro Sekunde.
114 Realisierung des räumlichen Phasenschiebens
Da die Platte an ihren Kanten fest gehaltert ist, beträgt dort die Verformung immer Null; es ergibt
sich also ein örtliches Geschwindigkeitsprofil der Verformung mit einem absoluten Maximum
am Angriffspunkt des Piezotranslators (% Bildmitte) und einem Abfallen in allen Richtungen
von dort aus.
In der Bildmitte wird innerhalb der Integrationszeit eines Halbbilds von 20 ms eine Verformung
von 0.3 µm aufintegriert. Der optische Weg der Objektwelle verändert sich um annähernd das
Doppelte, so daß im Zentrum des Bildes über 2π Objektphasenwinkel pro Halbbild integriert
wird. Das führt zum Verschwinden der zur Phasenberechnung notwendigen räumlichen
Intensitätsmodulation und es wird keine Verformung mehr detektiert. Die etwas langsamere
Objektbewegung außerhalb der Mitte läßt eine Restmodulation übrigbleiben. Diese reicht zur
Berechnung von Phasenwerten bereits aus, wenngleich der Signal-Rauschabstand sehr gering ist
(vgl. 6.2.1.5).
Die nahezu gleiche Streifenstellung der beiden Halbbilder weist zusätzlich darauf hin, daß
zwischen den Zeitspannen ihrer Aufnahme fast genau ein Sägezahnstreifen hinzugekommen ist.
Zur Berechnung der bisher gezeigten Sägezahnbilder wurde aus jedem der beiden
aufgenommenen Interferogramme die Phase des Specklemusters direkt rekonstruiert und die
Objektphasenänderung aus der Differenz der so erhaltenen Sägezahnbilder bestimmt (vgl. 3.7).
Die Vorgehensweise ist in Abb. 6.26 skizziert.
Phasenberechnung
– =
Specklephase vor Specklephase nach Differenz
Ein Nachteil dieser Methode ist, daß eine Filterung der Bilddaten und damit eine Verminderung
des Specklerauschens nicht durchgeführt werden kann, ohne erhebliche Artefakte zu erzeugen.
Es kommt jedoch noch ein anderer Weg in Betracht, die Objektphase zu ermitteln: man
berechnet Korrelationsstreifenbilder, mit denen zur Phasenrekonstruktion genau wie in zeitlich
phasenschiebenden Systemen verfahren wird.
6.2.3.1 Subtraktionsmethode
Bei der direkten Subtraktion von Speckle–Sägezahnbildern fällt auf, daß das Differenzbild
teilweise „rissig“ aussieht; die Ursache ist ein leichter Versatz von berechneten
Phasenunstetigkeiten zwischen den beiden mod 2π-Bildern. Es wurde untersucht, ob diese
Kanten sich durch Filterung der zugrundeliegenden Interferogramme entfernen lassen. Dabei gilt
es jedoch zu beachten, daß durch die Filterung der Informationsgehalt der Speckle–
Sägezahnbilder und auch der des Differenzbildes tiefgreifend verändert wird.
Liegt nämlich eine verspeckelte Objektwelle vor, so sind bei einer mittleren Specklegröße von
drei Pixel die Intensitätswerte im räumlich phasengeschobenen Interferogramm nur über
Gruppen von drei nebeneinanderliegenden Pixeln innerhalb von Speckles periodisch. Die
Speckles selbst haben zufällige Phasenlagen und Positionen. Das führt dazu, daß auch innerhalb
zerlegter Phasenbilder die Intensitätswerte örtlich zufallsverteilt sind, so daß eine
Tiefpaßfilterung die Information über die Größen und Phasenlagen der Speckles zerstört bzw.
verfälscht. In Abb. 6.27 wird dieser Sachverhalt vereinfacht dargestellt. Die Specklegröße beträgt
in der Abbildung konstant 3 x 1 Pixel und die Phasenlage der Speckles kann nur drei
verschiedene konstante Werte annehmen.
A B C A B C A B C A B C
Separate 3 Pics
A A B B C C A A B B C C
Die in 6.2.1 beschriebene Zerlegung des Interferogramms mit Separate 3 Pics und Filterung
kann also nur ohne Informationsverfälschung eingesetzt werden, wenn im ganzen
Interferogramm eine quasikonstante Objektphase vorliegt, so daß die Intensität im
Interferogramm alle drei Spalten eine Periode durchläuft. Nur dann zeigen die getrennten
Phasenbilder nahezu gleichförmige Intensitäten, die durch Tiefpaßfilterung geglättet werden
können und dürfen.
Den Verlust der Information über die kleinskalige Phasenverteilung eines Specklemusters durch
Tiefpaßfilterung zeigt Abb. 6.28; die Phaseninformation wird durch wiederholtes Filtern des
zugrundeliegenden Speckle-Interferogramms zusehends gröber und Artefakte spielen eine immer
größere Rolle.
Abb. 6.28: Auswirkung des Tiefpaßfilterns eines Specklemusters auf die berechnete Phasenverteilung. Es wurde ein
3 x 3-Mittelwertsfilter eingesetzt. Links: ohne Filterung, Mitte: nach 3mal wiederholter Filterung, rechts:
nach 9mal wiederholter Filterung.
Die Phasenbereiche werden nicht nur vergrößert, sondern auch in die Breite gezogen. Dies ist
darauf zurückzuführen, daß die drei Phasenbilder vor der Filterung horizontal getrennt und zur
Phasenberechnung wieder zusammengefügt werden, so daß die effektive horizontale
Ausdehnung des Filterfensters auf das Dreifache der vertikalen Ausdehnung steigt.
Realisierung des räumlichen Phasenschiebens 117
In den Versuchen hat sich jedoch gezeigt, daß die Information über die Differenz zweier derart
gefilterter und verfälschter Sägezahnbilder nicht verlorengeht. Der Grund dafür ist, daß die
Intensität in den Phasenbildern – in Abb. 6.27 mit A, B, C bezeichnet – zwar zufällig verteilt ist,
jedoch für alle Punkte mit nichtverschwindender Modulation die bekannte cosinusförmige
Abhängigkeit von der Objektphase zeigt. In zwei Phasenbildern, z.B. A, A´, aus
Interferogrammen von vor und nach einer Verformung haben die Intensitätsverteilungen – bei
Vernachlässigung der Speckledekorrelation – die gleiche örtliche Struktur. Für die
Intensitätsänderungen infolge einer Objektänderung gilt dasselbe, so daß eine ortsabhängige
Änderung der Intensitäten auch bei Filterung erhalten bleibt, sofern das Filterfenster nicht über
zu große Bereiche mittelt. Die anderen Paare von Phasenbildern B, B´ und C, C´ verhalten sich
entsprechend. Die gefilterten und verfälschten Interferogramme sind jedes für sich wertlos; in der
Differenz eines Paares von Interferogrammen ist die Information über ihre relative Veränderung
aber noch immer enthalten, so daß aus der Differenz ihrer Sägezahnbilder die Objektverformung
bestimmt werden kann. Abb. 6.30 stellt die Auswirkung der Filterung auf ein mod 2π–Bild einer
Verformung dar.
6.2.3.2 Korrelationsstreifenmethode
Für das hier verwendete 3-bucket-Verfahren muß ein Satz von drei phasengeschobenen
Korrelationsstreifenbildern mit einem relativen Phasenvorschub von 120° erzeugt werden. Zuerst
wird Bild 1 pixelweise von Bild 2 subtrahiert; man erhält so das Korrelationsstreifenbild für 0°
Phasenshift, denn es decken sich dann die Spalten mit gleichem absolutem Phasenshift, der sich
mithin zur Gänze aufhebt. Als nächstes wird Bild 2 unter Verwerfen der ersten Spalte um eine
Spalte nach links versetzt; wird davon Bild 1 abgezogen, erhält man das Korrelationsstreifenbild
für 120° Phasenshift, da nun die Spalten von Bild 2 zu den entsprechenden von Bild 1 einen
relativen Phasenversatz von 120° haben. Das letzte Korrelationsstreifenbild wird durch
Versetzen des Bildes 2 nach rechts und entsprechende Subtraktion erzeugt; der Phasenversatz der
Spalten beträgt dann -120° % 240°. Man hat damit drei Phasenbilder des originalen Formats
gewonnen, die pixelweise miteinander verrechnet werden können. Abb. 6.29 veranschaulicht den
Vorgang.
118 Realisierung des räumlichen Phasenschiebens
Bild 2
+1 Spalte –1 Spalte
Bild 1
⇒
=
∆α = -120° 0° 120° ⇒ Sägezahnbild
Abb. 6.29: Berechnung von Korrelationsstreifenbildern aus zwei räumlich phasengeschobenen Interferogrammen.
Abb. 6.30: Ergebnisse verschiedener Wege der Interferogrammauswertung. Links die Auswertung per direkter
Subtraktion der mod 2π-Specklebilder, rechts per Verrechnung einzeln erzeugter
Korrelationsstreifenbilder; oben ungefiltert, unten gefiltert. Es wurde in beiden Methoden dreimal
hintereinander ein 3 x 3-Mittelwertsfilter verwendet.
Ohne weitere Hilfsmittel ist nicht zu entscheiden, welche Auswertemethode die „bessere“ ist; die
Anwendbarkeit beider Methoden wurde hier unter Laborbedingungen an unproblematischen
Streifensystemen untersucht. Über die Fehlerempfindlichkeit der verschiedenen Verfahren und
angemessene Fehlerbehandlung kann der Einsatz in der Praxis, z.B. bei in situ–
Verformungsmessungen, weitere Erkenntnisse bringen.
120 Zusammenfassung und Ausblick
Das Konzept des räumlichen Phasenschiebens wurde mit einem Laboraufbau eines Michelson-
Interferometers und eines Speckle-Interferometers eingesetzt und erprobt. Dabei wurden
Erfahrungen zum apparativen Aspekt der Anwendung insbesondere hinsichtlich der
Anforderungen an den Bildwandler gesammelt.
Beim Aufbau des Speckle-Interferometers wurde gezeigt, daß die Grundeinstellung des Systems
viel Sorgfalt braucht; dabei wurde Einsicht in das Verhalten des Auswertealgorithmus´ in
Gegenwart hoher Ortsfrequenzen (Specklerauschen) gewonnen und eine Methode zum Einstellen
des richtigen Phasenshifts gefunden. Der Einfluß von Specklegröße und Specklerauschen auf die
Messungen wurde untersucht; dabei stellte sich heraus, daß die angenommene räumliche
Konstanz der Größen, die in das Gleichungssystem zur Phasenrekonstruktion eingehen, in
erheblichem Maße verletzt und daher die Meßgenauigkeit eingeschränkt ist. Der Nachteil des
räumlichen Phasenschiebens, verringerte räumliche Auflösung durch größere Speckles, wurde in
einer Meßreihe gezeigt. Anhand einiger Vergleichsmessungen mit einem zeitlich
phasenschiebenden System wurde jedoch deutlich, daß mit räumlichem Phasenschieben auch in
der Specklemuster-Interferometrie bewegte Objekte vermessen werden können. Die beiden
möglichen Wege der Interferogrammauswertung wurden untersucht.
Dabei blieb die Frage offen, welche Art der Phasenrekonstruktion die besten Ergebnisse bringt.
Hier wäre bezüglich der Entwicklung von Filterungs- und Demodulationsstrategien noch einige
Arbeit zu leisten. Auch die apparative Seite kann noch verbessert werden. Die Verwendung einer
Halbleiterdiode als Lichtquelle erscheint sinnvoll, um größere Flächen vermessen zu können. Die
kürzere Brennweite des hierzu notwendigen Objektivs würde eine kompaktere Bauweise der
Referenzstrahleinkopplung bedingen, die z.B. durch direkten Einbau eines Strahlteilerwürfels in
einen C-Mount-Adapter möglich wäre. Für den Referenzstrahl könnte eine Lichtleitfaser
eingesetzt werden, um einen robusten Aufbau zu erhalten.
Zusammenfassung und Ausblick 121
Die Größe der zu vermessenden Fläche wird durch die geforderte Ortsauflösung begrenzt. So
kann ein Objekt, das mittels eines gängigen CCD-Sensors mit 0.1 mm seitlicher Auflösung
vermessen werden soll, nicht breiter sein als etwa 2.5 cm. Hier werden durch die ständig
wachsende Verfügbarkeit hochauflösender CCD-Chips weitere Möglichkeiten zum Einsatz eines
räumlich phasenschiebenden Systems erschlossen, auch wenn der Auflösungsnachteil des
räumlichen Phasenschiebens gegenüber den zeitlichen Verfahren bestehenbleibt. Der unnötige
vertikale Auflösungsverlust kann durch eine elliptische Apertur im abbildenden System
umgangen werden.
Nicht zuletzt ist es im Sinne automatisierter Bildaufnahme von großem Vorteil, daß jedes
aufgenommene Bild als Anfangsbild einer Beobachtung dienen kann.
122 Literatur
8 Literatur
[Bro90] C. Brophy: Effect of intensity error correlation on the computed phase of phase-
shifting interferometry, J. Opt. Soc. Am. A 7, 537-541 (1990).
[Bru74] H. Bruning et al.: Digital Wavefront measuring Interferometer for testing Optical
Surfaces and Lenses, Appl. Opt. 13(11), 2693-2703 (1974)
[Cho89] Z. Chorvatova, T. Furda: CCD scanner element in some optical measurements, Opt.
Appl. 19(2), 195-202 (1989)
[Cre94a] K. Creath und J. Schmit: Errors in spatial phase-stepping techniques, Proc. SPIE
2340 (1984)
[Cre94b] K. Creath und P. Hariharan: Phase-shifting errors in interferometric tests with high-
numerical-aperture reference surfaces, TECHNICAL NOTE in Appl. Opt. 33(1), 24-25
(1994)
[Goo75] J. Goodman: Statistical Properties of Laser Speckle Patterns, in: Laser Speckle and
Related Phenomena, J. Dainty (ed.), Springer–Verlag Berlin (1975), 9-75
[Gre84] J. Greivenkamp, Generalized data reduction for heterodyne interferometry, Opt. Eng.
23(4), 350-352 (1984)
[Hoc95] K. Hock: Effect of oversampling in pixel arrays, Opt. Eng. 34(5), 1281-1288 (1995)
[Hug95] G. Hughes: High Frame Rate Electronic Imaging, Optics & Photonics News 4, 21-
26 (1995)
[Ich72] Y. Ichioka und M. Inuiya, Direct Phase Detecting System, Appl. Opt. 11(7), 1507-
1514 (1972)
[Jan95] J. Janesick und M. Blouke: Past, Present, & Future, Optics & Photonics News 4, 17-
20 (1995)
[Ker90] D. Kerr et al.: Extraction of phase data from electronic speckle pattern
interferometric fringes using a single-phase-step-method: a novel approach, J. Opt. Soc.
Am. A 7(5), 820-826 (1990)
[Küc90] M. Küchel: The new Zeiss interferometer, SPECIAL PAPER in Proc. SPIE 1332, 655-
663 (1990)
[Kuj89] M. Kujawinska et al.: Quantitative analysis of transient events by ESPI, Proc. SPIE
1121, 416-423 (1989)
[Kuj91] M. Kujawinska und J. Wojciak: Spatial carrier phase shifting technique of fringe
pattern analysis, Proc. SPIE 1508, 61-67 (1991)
[Kwo84] O. Kwon, Multichannel phase-shifted interferometer, Opt. Lett. 9(2), 59-61 (1984)
[Mer83] L. Mertz: Real-time fringe-pattern analysis, Appl. Opt. 22(10), 1535-1539 (1983)
[Nak83] S. Nakadate et al.: Computer-aided speckle pattern interferometry, Appl. Opt. 22(2),
237-243 (1983)
[PH] PHILIPS Communication & Security Systems: Video 700 Series Service Manual,
PHILIPS 4822 733 24447
[PI] Princeton Instruments Inc.: Slow CCD Cameras -Who Needs Them. Why,
Informationsbroschüre von Spectroscopy Instruments GmbH
[Rob86] D. Robinson und D. Williams: Digital Phase Stepping Interferometry, Opt. Comm.
57(1), 26-30 (1986)
Literatur 125
[Smy84] R. Smythe und R. Moore, Instantaneous phase measuring interferometry, Opt. Eng.
23(4), 361-364 (1984)
[SO2] SONY Corporation: ICX 039 BLA, ½ inch CCD Image Sensor for CCIR B/W
Camera, Datenblatt E91934–ST
[Sur93] Y. Surrel: Phase stepping: a new self-calibrating algorithm, Appl. Opt. 32(19), 3598-
3600 (1993)
[Tan90] S. Tang und Y. Hung: Fast profilometer for the automatic measurement of 3-D
object shapes, Appl. Opt. 29(20), 3012-3018 (1990)
126 Literatur
[Toy84] S. Toyooka und M. Tominaga: Spatial fringe scanning for optical phase
measurement, Opt. Comm. 51(2), 68-70 (1984)
[Toy86] S. Toyooka und Y. Iwaasa: Automatic profilometry of 3-D diffuse objects by spatial
phase detection, Appl. Opt. 25(10), 1630-1633 (1986)
[Vro91] H. Vrooman und A. Maas: Image processing algorithms for the analysis of phase-
shifted speckle interference patterns, Appl. Opt. 30(13), 1636-1641 (1991)
[Wya82] J. Wyant: Interferometric optical metrology: Basic principles and new systems,
Laser Focus 5, 65-71 (1982)
[Yat84] T. Yatagai und T. Kanou: Aspherical surface testing with shearing interferometer
using fringe scanning detection method, Opt. Eng. 23(4), 357-360 (1984)
A1 Graphische Interpretationen 127
A1 Graphische Interpretationen
A1.1 Look-up-Tabellen
Bei der praktischen Berechnung der Objektphasenwerte wird i.a. auf Geschwindigkeit großer
Wert gelegt; das bedeutet, daß möglichst viele Rechenoperationen eingespart werden müssen.
Bei der Auswertung des Ausdrucks
I1 − I 3
(A1-1) φ = tan −1 3
2 I 2 − I1 − I 3
können Division und Arcustangensberechnung umgangen werden, indem alle möglichen Werte
von Zähler und Nenner in eine zweidimensionale look-up-table eingetragen werden, wie Abb.
A1.1 zeigt. Da der Objektphasenwert aus einem Sinus- und einem Cosinusterm berechnet wird,
läßt sich deren Orthogonalität ausnutzen, um alle vorkommenden Werte in einem kartesischen
Koordinatensystem anzuordnen. Zur Objektphasenberechnung wird jeder Punkt der dadurch
gegebenen Ebene mit dem ihm entsprechenden Objektphasenwert belegt.
Abb. A1.1: Berechnung von φ und I0γ für 3-Schritt-Verfahren an zweidimensionalen Look-up-Tabellen. Nach
[Vro91]
Außerdem kann mit einem gleichartigen Verfahren die Modulationstiefe in einem Datensatz I1,
I2, I3 bestimmt werden. Sie ist dem Abstand des durch I1, I2, I3 gegebenen Punktes vom Ursprung
proportional; dies kann ausgenutzt werden, um einen Mindestwert für die Modulationstiefe
festzulegen. Es entsteht dadurch in der Ebene ein kreisförmiges Gebiet von Punkten, die z.B.
mittels einer binären Look-up-Tabelle bei der Phasenrekonstruktion unterdrückt werden können.
Der Radius dieses Kreises ist in der Abb. mit Rσ bezeichnet und stark übertrieben dargestellt.
Erwähnenswert ist die Tatsache, daß eine verschwindende Modulation in einem der beiden
Terme noch nicht automatisch zur Aussonderung des Meßwertes führt. Sofern der jeweils andere
128 A1 Graphische Interpretationen
Term ausreichend moduliert ist, liegt ein Nulldurchgang der Sinus- bzw. Cosinuskurve vor,
welche von dem verschwindenden Term repräsentiert wird.
Nenner und Zähler von (A1-1) bilden in der Ebene ihrer Wertebereiche eine Lissajousfigur
[Kin88]; aufgrund der Phasendifferenz von 90° ist diese ein Kreis oder (hier) eine Ellipse, deren
Halbachsen mit den Achsen des Koordinatensystems zusammenfallen. Die große Halbachse ist
dabei die des Cosinusterms. Die Exzentrizität der Ellipse beträgt für das 3-Schritt-Verfahren mit
120° Phasenshift 3 , wie man auch an der Skalierung des Nenners von (A1-1) erkennt. Solche
Skalierungsfaktoren wirken sich über (4-3) auch auf die Größe C aus.
Sind I1, I2, I3 ein Satz von Korrelationsstreifenbildern, so führt eine Kontrastverschlechterung in
einem oder zweien dieser Bilder zu einer Verzerrung der Lissajousfigur. Für den einfachen Fall,
der in 6.2.3.2 auftritt, sinkt die Modulationstiefe in I1 und I3 ab, d.h. der Hub des Sinusterms
verringert sich und der Hub des Cosinusterms vergrößert sich. Als Folge steigt die Exzentrizität
der Ellipse, auf der die Phasenwerte laufen und es ergeben sich falsche Zuordnungen.
Insbesondere kommt es zu einer Ungleichverteilung der ermittelten Phasenwerte durch
veränderte Aufenthaltswahrscheinlichkeiten des umlaufenden Phasenwerts. Abb. A1.2 stellt den
Sachverhalt schematisch dar.
– 255
Look-up-Tabelle
Abb. A1.2: Veränderung der Phasenzuordnung bei zu geringem Hub von (I1-I3) (gestrichelte Ellipse). Die
durchgezogene Ellipse markiert den richtigen Verlauf der Terme, der Punkt auf ihr das Wertepaar
(cos φ, sin φ ).
Wie in Kapitel 4.2 und 4.3.3 besprochen, treten z.B. bei Übersteuerung des Interferogramms für
∆α = 90° Artefakte im berechneten Sägezahnbild in Form feiner Streifen auf, während dieser
Effekt für ∆α = 120° nicht zu beobachten ist. Abb. A1.3 gibt eine graphische Interpretation der
Abtastung eines übersteuerten Interferogramms, welche das Verständnis des Phänomens
vereinfacht.
I I
255 255
I2 ∆α=120° I2 ∆α=90°
I1 I1
I3 I3
0 x 0 x
Abb. A1.3: Abtastung eines übersteuerten Interferogramms mit drei Stützstellen für die Phasenberechnung; links für
∆α = 120°, rechts für ∆α = 90°.
Während das Pixeltripel in x-Richtung über das Interferogramm wandert, laufen die abgetasteten
Intensitäten mit festem Winkelabstand auf einem Kreis um und jeweils andere Ii sind
fehlerbehaftet: Immer wenn einer der Werte I = 255 erreicht und der Kreisfunktion nicht mehr
folgen kann, kommt es bei der Phasenberechnung zu Fehlern, bis er wieder auf I < 255 absinkt.
Dies geschieht im linken Bild periodisch alle 120°, wobei die Stellungen des „Abtastrades“ bis
auf die zyklische Vertauschung der Ii nicht zu unterscheiden sind. Dieses Verhalten liegt Abb.
4.5 zugrunde. Im rechten Bild dagegen hat man ungleiche Winkelabstände zwischen den Ii ,
womit die Stellungen des „Abtastrades“ unterscheidbar sind und einen von diesen Stellungen
abhängigen Fehler liefern, wie an Abb. 4.4 zu sehen ist. Hieraus läßt sich allgemein folgern, daß
der high order fringe error für jede äquidistante Winkelverteilung der Abtastpunkte (vgl. 2.2 und
A2) ausbleibt.
130 A2 Allgemeine Herleitung von Phasenrekonstruktionsformeln
Für Phasenshiftalgorithmen, die N gleiche Phasenschritte benutzen und dabei jeweils den
Phasenshiftwinkel
2π
(A2-1) αi =i , i = 0,.., N − 1
N
benutzen, ist die Ableitung einer Berechnungsformel sehr einfach. Man schreibt mit Hilfe einer
trigonometrischen Identität die Interferogrammgleichung um:
I = I 0 ( 1 + γ cos(φ − α i ))
(A2-2) .
= I 0 (1 + γ cos φ cosα i + γ sin φ sin α i )
Die Ortskoordinaten sind hier aus Gründen der Übersichtlichkeit weggelassen worden.
Anschließend wird (A2-2) einmal mit cos αi und einmal mit sin αi multipliziert:
Nun wird über i summiert; da über eine ganze Periode von αi mit gleichen Winkelabständen
summiert wird, gilt
N −1 N −1
(A2-4) ∑ I o cosα i = ∑ I o sin α i = 0 ;
i =0 i =0
und somit in jeder Gleichung A2-3 zwei Summanden verschwinden. Für die übrigbleibenden
Terme gilt
N −1 N −1 N
∑ cos α i = ∑ sin α i =
2 2
(A2-6) ,
i =0 i =0 2
A2 Allgemeine Herleitung von Phasenrekonstruktionsformeln 131
N −1
2 ∑ I i cosα i = NI 0γ cos φ und
i =0
(A2-7)
N −1
2 ∑ I i sin α i = NI 0γ sin φ .
i =0
Man hat also die Objektphase über eine komplette Periode der Referenzphase abgetastet und
Terme erhalten, die Cosinus und Sinus der Objektphase modellieren. Mit
N −1
∑ Ii sin α i
i =0
(A2-8) tan φ = N −1
∑ Ii cos α i
i =0
läßt sich dann die Objektphase rekonstruieren. Diese Methode ist als synchronous detection
bekannt [Bru74, Kin88, Cre94a] und ermöglicht die sofortige Ableitung einer
Berechnungsformel für Algorithmen, welche die oben angegebenen Bedingungen erfüllen, da
leicht zu sehen ist, wie die verschiedenen Intensitätsmeßwerte gewichtet werden müssen.
Neuere Algorithmen bedienen sich der sog. symmetrischen N+1-Technik, wo ein zusätzlicher
Meßwert einbezogen wird, der nominell um 2π Referenzphase gegen den ersten verschoben ist;
die Gewichtungsfaktoren für den ersten und den letzten Meßwert werden halbiert, so daß ein
Mittel dieser beiden Werte gebildet wird. Das erste Beispiel dieser Art war der in [Har87]
vorgestellte 4+1-Algorithmus.
132 A3 Herleitung der Phasenberechnungsformel mit Speckle-Intensitätskorrektur
(A3-1) Ii = Oi + R + 2 ⋅ Oi ⋅ R ⋅ cos(φ + α i )
Ji = R + 2 ⋅ Oi ⋅ R ⋅ cos(φ + α i )
(A3-2) R + 2 R cos φ cos α Oi − 2 R sin φ sin α Oi .
&
:=a 0 !% "%#
:=a1
!%"%
:=a2
#
Für Phasenschritte (-α, 0, α) läßt sich das entstehende LGS schreiben als
1 cos α O1 sin α O1 a0 J1
(A3-3) 1 O2 0 a1 = J 2 ;
1 cos α O
3 − sin α O3 a2 J 3
dies ist eine Matrizengleichung der Form Ax = b. Da A regulär ist sowie Rg (A) = Rg (A, b) = 3,
und das GLS daher eine Lösung hat, kann man auch schreiben x = A-1b. Dann läßt sich das LGS
nach der Cramer'schen Regel auflösen [Bro87]. Mit den Abkürzungen
1 C1 S1 a0 J1
(A3-3') 1 C 2 0 a1 = J 2
1 C 3 S 3 a2 J3
!% %"%% #
:= A
A3 Herleitung der Phasenberechnungsformel mit Speckle-Intensitätskorrektur 133
gilt
1 C1 S1
A = 1 C 2 0 , det ( A ) = C 2 S 3 − C1S 3 + S1C 3 − S1C 2
1 C 3 S 3
J1 C1 S1
A 0 = J2 C2 0 ,det ( A 0 ) = J1C 2 S 3 − C1J 2 S 3 + S1J 2 C 3 − S1C 2 J 3
J3 C 3 S 3
(A3-4) ,
1 J1 S1
A1 = 1 J2 0, det ( A1 ) = J 2 S 3 − J1S 3 + S1J 3 − S1J 2
1 J3 S 3
1 C1 J1
A 2 = 1 C2 J 2 , det ( A 2 ) = C 2 J 3 − J 2 C 3 + C1J2 − C1J 3 + J1C 3 − J1C 2
1 C3 J3
Da es hier wiederum auf den Quotienten a2/a1 = tan φ ankommt, erhält man
a2 det( A 2 ) C1( J 2 − J 3 ) + C 2( J 3 − J1 ) + C 3( J1 − J 2 )
= =
a1 det( A1 ) S1( J 3 − J 2 ) + S 3( J 2 − J1 )
(A3-6) ,
=
O2 ( J 3 − J1 ) + cosα ( O1 ( J 2 − J 3 ) + O3 ( J1 − J 2 ) )
sin α ( O1 ( J 3 − J2 ) + O3 ( J1 − J 2 ) )
was (4-24) ist.
134 A4 Beschreibung der erweiterten Routinen in DT51.EXE
Das sogenannte example program „dt51.exe“, welches als Softwarepaket zur BV-Karte
DT3852-B2 gehört und im mitgelieferten Handbuch detailliert beschrieben ist, wurde als
ausführbare Datei inklusive ausführlich kommentiertem Quelltext ausgeliefert. Das Programm
läuft unter Windows und enthält unter anderem grundlegende Routinen zur Bildaufnahme per
BV-Karte sowie Lade- und Speicherfunktionen.
Änderungen der Original-Dateien wurden nur am Hauptprogramm dt51.c und am Menü dt51.rc
vorgenommen10. Änderungen sind im allgemeinen mit „THB“ markiert. Als neue Quelltext-
Dateien wurden eingefügt: espi.c, espi2.c, espi3.c, espi.h, espi_rip.h und espimens.h. Die Dateien
und Routinen sind ausführlich kommentiert, so daß eine weitere Bearbeitung/Erweiterung11
möglich ist. Nachfolgend werden die erweiterten Menüpunkte im Programm kurz erläutert:
Abb. A4.1: Menüleiste der in der Diplomarbeit benutzten Version von dt51.exe (Juli 1995).
Als neue Menüeinträge sind in dt51.exe die Punkte ESPI, ESPI_PixOp und Tests eingefügt
worden. Diese funktionieren wie folgt:
10
Zusätzlich wurde eine Änderung in der Datei file.c vorgenommen, um die TIF-Dateiausgabe zu korrigieren.
11
Bei der Programmierung neuer Routinen ist zu beachten, daß in der augenblicklichen Version die Menge an NEAR-Daten
(Strings, Konstanten innerhalb der Routinen) ausgeschöpft ist. Entweder müssen bei Erweiterung vorhandene Zeichenketten
(z.B. ausführliche Meldungen) gekürzt werden, oder in den FAR-Bereich gebracht werden.
A4 Beschreibung der erweiterten Routinen in DT51.EXE 135
Abb. A4.2: Menüpunkt ESPI für grundlegende Funktionen zur Aufnahme von Differenzbildern.
• DISPLAY dient der Anzeige von Ergebnissen und wird bei Mangel an Puffern auch
als Zwischenspeicher benutzt.
• AUX0 erhält jeweils frisch acquirierte Bilder, die z.B. vom Startbild abgezogen
werden, um Korrelationsstreifenbilder zu erhalten. Die meisten Routinen bearbeiten
das Bild in AUX0 und stellen das Ergebnis in DISPLAY als Graustufen dar.
• AUX1 enthält das Startbild, das als Referenz für neue, aufgenommene Bilder dient.
• AUX2 erhält beim SPS das Phasenbild des Startbildes (AUX1) - also die Startphase.
AUX2 wird außerdem von verschiedenen Routinen als Zwischenspeicher benutzt.
136 A4 Beschreibung der erweiterten Routinen in DT51.EXE
Calc. |AUX0-AUX1|
Berechnet |AUX0 - AUX1| wie oben, nimmt dabei aber DISPLAY als Zwischenspeicher,
womit AUX0 erhalten bleibt.
Abb. A4.3: Menüpunkt ESPI_PixOp enthält Funktionen mit pixelweisen Operationen für SPS
4-Pixel-Operations (PopUp-Menü)
Diese Routinen dienen der Arbeit beim SPS mit einem Phasenvorschub ∆α = 90°. Sie finden
ihre Entsprechung in den nachfolgend beschriebenen Menüpunkten für ∆α = 120° und werden
deshalb nicht gesondert beschrieben. Zur Berechnung der Objektphase wird der Algorithmus
für αi = (45°, 135°, 225°) benutzt.
A4 Beschreibung der erweiterten Routinen in DT51.EXE 137
Separate 3 Pics
Sortiert die Spalten aus AUX0 nach DISPLAY: Je drei Spalten aus AUX0 werden auf drei
getrennte Bereiche von DISPLAY verteilt, womit die neue Reihenfolge der Spalten 1, 4, 7,…;
2, 5, 8…; 3, 6, 9… ist. Da bei ∆α = 120° alle drei Spalten derselbe Phasenvorschub αi
vorliegt, entspricht die Umordnung einer Sortierung nach gleichen Phasenvorschüben. Als
Ergebnis erhält man 3 zueinander phasengeschobene Interferogramme mit 1/3 der
Ursprungsbreite.
De-Separate 3 Pics
Macht den obigen Vorgang rückgängig (verschachtelt von AUX0 nach DISPLAY).
Ground Intensity
Berechnet nach den in Kapitel 3.4.3.1 angegebenen Algorithmen den Hintergrund I0 für das
Interferogramm in AUX0 und stellt die Werte in DISPLAY dar.
Modulation Shift
Berechnet nach den in Kapitel 3.4.3.1 angegebenen Algorithmen den Modulationshub γ⋅I0 aus
dem Interferogramm in AUX0 und stellt die Werte in DISPLAY mit dem Faktor 2 skaliert
dar.
Modulation
Berechnet nach den in Kapitel 3.4.3.1 angegebenen Algorithmen den Modulationsgrad γ aus
dem Interferogramm in AUX0 und stellt die Werte in DISPLAY als Graustufen dar. Dafür
wird γ mit 255 multipliziert, so daß ein Grauwert von 255 einer Modulation γ = 1 entspricht.
Phase Shift
Mit dem Interferogramm in AUX0 wird über je vier benachbarte Pixel der Phasenvorschub
∆α bestimmt mit der vom Carré-Verfahren bekannten Formel:
3 ⋅ ( I 2 − I 3 ) − ( I1 − I 4 )
∆α = 2 ⋅ arctan . Das Intervall ∆α ∈ [0,180°) wird dabei in
( I 2 − I 3 ) + ( I1 − I 4 )
DISPLAY als Graustufen von 0 bis 255 abgebildet. Für Specklemuster mit einer mittleren
Specklegröße von drei oder weniger Pixeln ist die Genauigkeit allerdings eingeschränkt, da
die Berechnungsformel vier nebeneinanderliegende Pixel benutzt.
Abb. A4.4: Menü zum schnellen Testen neuer Funktionen, ohne den Dialog-Editor zu bemühen
Unser Dank für Rat, Anregungen und Hilfe bei der Anfertigung dieser Diplomarbeit gilt Heinz
Helmers für sein reges Interesse, viele Hinweise und eine ausgewogene Betreuung, den anderen
Mitgliedern der Arbeitsgruppe Angewandte Optik, die uns oft weitergeholfen haben, und ganz
besonders Peter Meinlschmidt für seine unermüdliche Geduld und seine Hilfe bei mancher
Materialsuche; Henry Neumann (PKC), Herrn Schaarschmidt (Stemmer PC-Systeme), Herrn
Wege (Philips), Herrn Kreuzer (PCO) und J. Schmit (Tucson, Arizona).
Erklärung nach Prüfungsordnung
und
Hiermit versichere ich, daß ich meinen Anteil an dieser Arbeit selbständig verfaßt und keine
anderen als die angegebenen Quellen und Hilfsmittel benutzt habe.