Finden Sie Ihren nächsten buch Favoriten

Werden Sie noch heute Mitglied und lesen Sie 30 Tage kostenlos
Das Affinity Photo-Praxisbuch: Von den Grundlagen bis zur professionellen Bildbearbeitung

Das Affinity Photo-Praxisbuch: Von den Grundlagen bis zur professionellen Bildbearbeitung

Vorschau lesen

Das Affinity Photo-Praxisbuch: Von den Grundlagen bis zur professionellen Bildbearbeitung

Länge:
841 Seiten
3 Stunden
Herausgeber:
Freigegeben:
Feb 1, 2018
ISBN:
9783960883708
Format:
Buch

Beschreibung

Das preisgekrönte Affinity Photo hat alles, was eine moderne, professionelle Bildbearbeitung braucht – und das ganz ohne Abo, zu einem sehr günstigen Preis, bei umfassender Photoshop-Kompatibilität und auf macOS wie Windows.

Mit diesem Buch arbeiten Sie sich detailliert und praxisnah in die macOS- oder Windows-Version von Affinity Photo ein – von den Grundlagen der Bildbearbeitung über die professionelle Entwicklung Ihrer RAWs bis hin zur kreativen Nachbearbeitung. Sie verstehen, wie Sie mit Werkzeugen wie Pinsel und Auswahlen, mit Ebenen, Mischmodi, Anpassungen und Filtern zu beeindruckenden Bildresultaten gelangen. Sie lernen, professionelle Retuschetechniken (Frequenztrennung, Dodge & Burn und andere) anzuwenden und erstellen Panoramen und HDRs. Sie verrechnen Ihre Fokus-Stacking-Serien zu faszinierenden Bildern, gestalten mit Bildern und Texten kleine Layouts und automatisieren häufig wiederkehrende Bearbeitungsschritte mit Affinity Photos Makro-Funktion.

Der auf die Software abgestimmte Aufbau des Buches sorgt für eine optimale Orientierung, sodass Sie es auch als Nachschlagewerk bei der Arbeit mit Affinity Photo nutzen können.
Herausgeber:
Freigegeben:
Feb 1, 2018
ISBN:
9783960883708
Format:
Buch

Über den Autor


Ähnlich wie Das Affinity Photo-Praxisbuch

Ähnliche Bücher

Ähnliche Artikel

Buchvorschau

Das Affinity Photo-Praxisbuch - Rüdiger Schestag

möchten.

Teil I

Einführung

1

Grundlagen der Bildbearbeitung

Wenn Sie sich intensiver mit der Bildbearbeitung beschäftigen wollen, kommen Sie nicht umhin, ein wenig genauer hinzuschauen, wie Bilder tatsächlich aufgebaut sind, was dahinter steckt und wo die Möglichkeiten und Grenzen der Bildmanipulation stecken.

Vereinfacht gesagt besteht ein Bild aus Helligkeitsinformationen, Farbinformationen und Detailinformationen (Auflösung und Schärfe). Je nach Größe der Darstellung des Bildes – also so, wie Sie es momentan ausgedruckt oder am Bildschirm sehen – können Sie nicht unbedingt feststellen, wie viele der oben genannten Parameter tatsächlich im Bild vorhanden sind und welche Qualität diese haben.

In Abbildung 1.1 zeige ich das an einem Beispiel. Dieselbe Szene wurde einmal mit dem Smartphone (links) und das andere Mal mit einer modernen Digitalkamera (rechts) aufgenommen. Zunächst sieht man keine allzu extremen Unterschiede, abgesehen von der leicht unterschiedlichen Farbeinstellung und der Tatsache, dass das Smartphone den Himmel dunkler belichtet und für eine ausgeglichenere Bildstimmung sorgt als die Digitalkamera. Oberflächlich betrachtet, ist das Bild der Smartphone-Kamera nicht unbedingt schlechter als das der Digitalkamera.

Abb. 1.1Vor der Aufhellung: wenige Qualitätsunterschiede zwischen Smartphone- und Digitalkamera-Bild

Wenn Sie aber mit diesen Bildern eine Bildbearbeitung durchführen, werden Sie sehr schnell merken, dass die Grenzen der Bearbeitung bei diesen beiden Bildern extrem unterschiedlich gesteckt sind. Im Beispiel aus Abbildung 1.2 habe ich nichts weiter gemacht, als beide Bilder so weit aufzuhellen, dass man das Graffito unter der Brücke gut erkennen kann und es hell genug wiedergegeben wird.

Sie sehen, dass die Aufnahme des Smartphones sehr schnell starkes Bildrauschen zeigt, was Sie in Abbildung 1.2 an einem grauen Schleier über den dunklen Bildbereichen erkennen. Wir haben also bereits unterschiedliche Grenzen bei der Veränderung der Bildhelligkeit. Ähnliches können Sie auch bei starken Farbkorrekturen (Weißabgleich) und anderen Bearbeitungen feststellen. Die Parameter, die die jeweilige Qualität eines Bildes bestimmen, werden im folgenden Abschnitt ausführlich beschrieben.

Abb. 1.2Nach der Aufhellung: Das Digitalkamera-Bild bietet deutlich mehr Spielraum für die Bearbeitung

1.1Wie sind Bilder aufgebaut?

Um die Parameter zu erläutern, die ein Bild ausmachen, müssen wir uns ein digitales Bild zunächst einmal aus der Nähe anschauen. Sicher haben Sie auch schon einmal in ein Bild »hineingezoomt« und gesehen, dass irgendwann sehr unansehnliche Pixel zum Vorschein kommen, so wie in Abbildung 1.3 gezeigt.

Abb. 1.3Bei zunehmender Vergrößerung werden die Pixel sichtbar

Im Bildbearbeitungsprogramm werden die kleinsten Einheiten eines Fotos (die Pixel) quadratisch dargestellt (siehe Abbildung 1.3 unten rechts). Diese Pixel sind also die »Bausteine« eines jeden Fotos. Details, die kleiner als diese Pixel sind, können nicht dargestellt werden. Je kleiner diese Pixel sind bzw. je mehr Pixel in der Breite und Höhe in einem Bild enthalten sind, umso größer ist die Auflösung des Bildes.

Auflösung bedeutet also: Wie viele Details pro Flächeneinheit kann ich in einem Bild darstellen? Ein 6-Megapixel-Foto stellt zum Beispiel im Querformat 3000 Pixel in der Breite und 2000 Pixel in der Höhe dar (2000 × 3000 = 6 Millionen). Man kann mit einem solchen Bild also 3000 Punkte in der Breite darstellen und hat auf diese Weise einen Wert für die Auflösung des Fotos. Natürlich kann die Auflösung durch andere Parameter beeinflusst werden. Dazu gehören zum Beispiel die Abbildungsgüte des Objektivs oder der Kontrast des Bildes. An dieser Stelle interessiert uns aber lediglich die grundlegende Bildinformation.

Ihr Computer muss also bei einem solchen Bild (6 Megapixel) in seinem Speicher 6 Millionen digitale Werte abspeichern. Das ist aber noch nicht alles. Die Anzahl der Pixel eines Bildes sagt noch nichts über die Farbinformationen aus. Um diese zu verstehen, müssen Sie wissen, wie ein digitales Bild grundsätzlich aufgebaut ist.

1.1.1Was sind RGB-Farben?

Bei der Darstellung von Bildern am Monitor oder durch einen Beamer kommen die sogenannten RGB-Farben zum Einsatz.

Ein digitales Pixel setzt sich aus drei Farbinformationen zusammen: Aus den Lichtfarben Rot, Grün und Blau lässt sich im Prinzip jede Farbe mischen.

Stellen Sie sich vor, Sie hätten eine grün leuchtende Taschenlampe, eine rot leuchtende Taschenlampe und eine blau leuchtende Taschenlampe. Nun leuchten Sie in einem dunklen Raum eine weiße Wand mit der grünen Taschenlampe an.

Die grün leuchtende Taschenlampe wird einen grünen Kreis an die Wand projizieren (in Abbildung 1.4 schematisch dargestellt). Nun schalten Sie zusätzlich die rote Taschenlampe ein und leuchten so auf die Wand, dass die beiden Kreise sich überschneiden.

Abb. 1.4

In Abbildung 1.5 sehen Sie, dass neben den beiden Farbkreisen auch eine Mischung der beiden Farben entstanden ist. In diesem Fall haben Sie mit Rot und Grün gelbes Licht erzeugt. Wenn Sie nun zusätzlich noch die blaue Taschenlampe einschalten und sie so halten, dass alle drei Farbkreise sich überlappen, erhalten Sie die Darstellung aus Abbildung 1.6.

Abb. 1.5

Abb. 1.6Bei der Überlappung von Blau und Grün entsteht Blaugrün (Cyan), bei der Überlappung von Blau und Rot entsteht Purpur (Magenta), und wenn sich alle drei Farben überlappen, entsteht Weiß.

Nun können Sie sich sehr leicht vorstellen, dass durch unterschiedliche Helligkeiten (Tonwerte) der einzelnen Farbanteile auch jede andere Mischfarbe erzeugt werden kann.

In unserem Beispiel mit der Turmuhr aus Abbildung 1.3 enthält also jedes einzelne Pixel eine rote, grüne und blaue Farbinformation. Daraus folgt, dass ein Computer für jedes Pixel nicht eine Information in Form von binären Zahlenwerten abspeichern muss, sondern jeweils drei Zahlenwerte, von denen einer die Farbe Rot repräsentiert, einer die Farbe Grün und einer die Farbe Blau (siehe Abbildung 1.7).

Abb. 1.7

Man könnte also sagen, ein Bild besteht eigentlich aus drei Bildern, die nur aus Helligkeitsabstufungen der jeweiligen Primärfarbe bestehen. Man nennt diese Farbbilder (oder auch Farbauszüge) »Kanäle« oder »Farbkanäle«.

Abbildung 1.8 zeigt die drei Farbkanäle unseres Beispielbildes (die Rot-, Grün- und Blaufärbung dient der Verständlichkeit – in Wirklichkeit sind dies Helligkeitsinformationen, also Graustufenbilder, die die jeweilige Farbe repräsentieren). Mischt man nun diese drei Bilder übereinander (das rote, das grüne und das blaue), so entsteht das farbige Foto.

Abb. 1.8

Sie können diese Zusammensetzung der Farbkanäle auch im Programm selbst sichtbar machen. Klicken Sie dazu in der Photo Persona am rechten Fensterrand oben in die Palette Farbe und doppelklicken Sie auf eines der beiden kreisrunden Felder links. Hierauf öffnet sich die Farbauswahl, in der Sie sich die Zusammensetzung einzelner Farben anzeigen lassen können. Gehen Sie mit dem kleinen Feld neben der Pipette bei gedrückter Maustaste auf Ihr Bild, und suchen Sie sich ein Pixel aus. Wenn Sie loslassen, wird das kleine runde Feld die Farbe Ihres Pixels übernehmen. Klicken Sie nun auf die Pipette, wird die Farbe in dem großen quadratischen Farbfeld angezeigt. Im Beispiel aus Abbildung 1.9 können Sie die folgende Zusammensetzung von Rot, Grün und Blau ablesen:

R = 227

G = 190

B = 110

Abb. 1.9

Sie sehen hier, dass der Wert für Rot am größten ist. Daran erkennen Sie sofort, dass das Pixel einen rötlichen Farbstich haben muss. Die Farbanteile für Grün und Blau sind geringer, aber nicht unerheblich, sodass die rote Farbe im Bild verändert wird und ein gelblichbrauner Farbton vorherrscht.

Abb. 1.10

Im Beispiel aus Abbildung 1.10 sehen Sie die Zusammensetzung für ein grünliches Pixel. Hier ist der Wert für Grün am höchsten und die anderen Werte (Rot und Blau) sind entsprechend schwächer.

Was bedeuten die Zahlen?

Damit Sie lernen, wie Sie mit den Zahlen in einem Bildbearbeitungsprogramm umgehen und wie Sie die Werte richtig einschätzen, gehen ich nun kurz auf die Entstehung dieser Werte ein. Alle Werte, die Sie in Affinity Photo für RGB-Werte eingeben können (und das gilt auch für einige Filter-Anwendungen), sind Zahlenwerte zwischen 0 und 255 – es gibt also 256 verschiedene Werte für eine Farbe oder eine Helligkeit.

Diese etwas ungewöhnliche Anzahl von Werten verdankt sich dem binären Zahlensystem, mit dem Computer arbeiten. Im Gegensatz zu unserem Zahlensystem (dem Dezimalsystem), bei dem wir mit zehn verschiedenen Ziffern (0 bis 9) arbeiten, kann ein Computer nur zwei Zustände (oder Ziffern) unterscheiden, nämlich 0 und 1.

Ein Computer speichert diese »Nullen« und »Einsen« immer in Blöcken ab, sogenannten Bytes. Ein Byte besteht aus acht Positionen, den Bits, die entweder den Wert 1 oder den Wert 0 annehmen. Jede Position eines Bits im Byte entspricht einer Zweierpotenz (binäre Zahlen liest man von rechts nach links): 2⁷, 2⁶, 2⁵, 2⁴, 2³, 2², 2¹ und 2⁰. Der erste (also rechte) Wert – 2⁰ – beträgt 1, der letzte Wert 128. Welchen Wert ein Byte nun tatsächlich hat, hängt davon ab, wie die Einsen und Nullen auf die Bits verteilt sind. Nur, wenn ein Bit gesetzt ist – also den binären Wert 1 hat –, wird es auch gerechnet.

Diese binäre Zahl könnte zum Beispiel einen Speicherplatz Ihres Computers belegen: 01011101. Ausgedrückt in Zweierpotenzen liest sich das so (rote Werte werden nicht gerechnet): 2⁷, 2⁶, 2⁵, 2⁴, 2³, 2², 2¹ und 2⁰. Der dezimale Wert entsteht dann aus der Summe der Zweierpotenzen nur der gesetzten Bits, in diesem Falle: 64 + 16 + 8 + 4 + 1 = 93. Und der Vollständigkeit halber: 00000000 ist die Binärzahl für den dezimalen Wert 0, 11111111 entspricht dem dezimalen Wert 255 (zusammen mit der 0 kann ein Byte also 256 Werte ausdrücken):

Schwarz = 0000 0000 = 0

Weiß = 1111 1111 = 255

Die Graustufen sind die Werte dazwischen. In den Farbkanälen sorgen diese Werte dann für die Intensität oder die Helligkeit der jeweiligen Farbe.

1.1.216 Bit und die Dynamik des Kamerasensors

Mit 8 Bit, also mit 256 Abstufungen, ist die Anzahl der Differenzierungen von Farb- und Helligkeitsinformationen sehr begrenzt. Das merken Sie nicht beim Betrachten eines gut aufgenommenen Fotos (so wie ich das oben mit dem Smartphone-Foto gezeigt habe). Aber Sie merken es dann sehr deutlich, wenn Sie dieses Foto mit Filtern oder Tonwertkorrekturen bearbeiten. Eine zu starke Bearbeitung kann dazu führen, dass das Bild grau wird oder rauscht (dass also Informationen verloren gehen) oder dass sich die Farben sehr ungünstig verändern oder Farbverläufe abreißen.

In Abbildung 1.11 sehen Sie einen Verlauf von Rot nach Grün. Eigentlich müssten die Farben gleichmäßig flüssig und sanft ineinander übergehen. Stattdessen sind hier aber nach der Bearbeitung treppenartige Ringe entstanden, die den Verlauf grob erscheinen lassen. Hier reichen 8 Bit Farbtiefe nicht aus, um ausreichend viele Farbabstufungen für einen glatten Verlauf zu erzeugen. Man spricht dann auch von »Posterisierung«.

Abb. 1.11Posterisierung

1.1.3Dynamikumfang

Eine moderne digitale Kamera hat auch deswegen bessere Eigenschaften in der Bildausgabe, weil sie nicht mit 8 Bit pro Kanal arbeitet, sondern mit 12, 14 oder sogar 16 Bit. Wenn Sie oben im Abschnitt zum binären Zahlensystem mitgerechnet haben, dann können Sie jetzt leicht ausrechnen, wie viele Abstufungen bzw. Farben pro Kanal ein solches Bild aus einer Kamera haben kann: Ein 12-Bit-Bild hat also 4096 (2¹²) Abstufungen pro Kanal. Bei einem 14-Bit-Bild sind es bereits 16.384 Abstufungen (2¹⁴), und besonders hochwertige Kameras, die einen Dynamikumfang von 16 Bit besitzen (also 16-Bit-Informationen speichern), zeichnen sogar 65.536 (2¹⁶) einzelne Abstufungen oder Farben pro Kanal auf. Kombiniert man nun die Farben Rot, Grün und Blau mit solch einer hohen Auflösung von 16 Bit pro Kanal, so kann man daraus mehrere Millionen Farben generieren (2¹⁶ × 2¹⁶ × 2¹⁶). Natürlich können Sie nicht so viele Farben sehen oder voneinander unterscheiden. Der große Vorteil besteht aber darin, dass Ihre Aufnahmen jetzt so viele Bildinformationen besitzen, dass Sie auch nach starker Bearbeitung keine störenden Effekte bemerken werden.

Natürlich spielen auch viele andere Parameter mit in die Bildqualität hinein. Die Qualität des Kamerasensors und seine Fähigkeit, mit wenig Licht umzugehen (ISO-Einstellungen, also die Lichtempfindlichkeit des Sensors), die kamerainterne Software und natürlich auch die Güte der verwendeten Objektive bestimmen ebenfalls maßgeblich die Qualität eines Bildes, das Sie für die Bearbeitung verwenden wollen.

Fazit

Wie gut das Datenmaterial eines Bildes tatsächlich ist, können Sie erst in der Bildbearbeitung richtig analysieren und feststellen. Insbesondere dann, wenn Sie vorhaben, Bilder stark zu bearbeiten, für Montagen zu nutzen oder für die Druckausgabe vorzubereiten, sollten Sie sich vergewissern, dass das Material, mit dem Sie arbeiten, in punkto Qualität, Daten- und Farbtiefe ausreichend ist.

Im Umkehrschluss bedeutet dies: Wenn Sie Bilder für ein Projekt mit einem Smartphone oder mit einer einfachen Kamera aufnehmen, sollten Sie darauf achten, dass später keine aufwendige Bearbeitung notwendig ist und die Bilder also so belassen werden können, wie sie aus der Kamera kommen.

1.2Das Histogramm verstehen

Der erste Schritt, um ein Bild richtig zu beurteilen, ist das Begutachten des Histogramms. Das Histogramm zeigt Ihnen, wie die Tonwerte (also die Helligkeitswerte von Schwarz bis Weiß) im Bild verteilt sind, ob es Über- oder Unterbelichtung gibt und wie hoch der Bildkontrast der Aufnahme ist.

Abb. 1.12Das Histogramm aufrufen

Sie sollten diese Analyse zu Beginn einer Bearbeitung (also wenn das Bild aus der Kamera kommt) und nochmals am fertig bearbeiteten Bild durchführen, bevor Sie es zum Druck oder für andere Zwecke weitergeben. Anhand des Histogramms können Sie beurteilen, ob das Bild für die jeweilige Wiedergabe im Internet, in der Präsentation oder im Druck geeignet ist.

Wenn Sie ein Bild in Affinity Photo geöffnet haben, können Sie sich über den Menüpunkt Ansicht Studio Histogramm das Histogramm anzeigen lassen, wenn es nicht bereits in Ihrer Palette geöffnet ist.

In Abbildung 1.13 sehen Sie das Bild mit der Histogramm-Palette.

Abb. 1.13

1.2.1Was zeigt das Histogramm an?

Das Histogramm zeigt die statistische Verteilung der Tonwerte von 0 = Schwarz über 128 = mittleres Grau bis hin zu 255 = Weiß an. Die Herleitung dieser Zahlen habe ich weiter oben erläutert.

Im Histogramm aus Abbildung 1.14 sehen Sie vier verschiedene Kurven: eine weiße, eine blaue, eine grüne und eine rote. Diese Kurven sehen so ähnlich aus wie »Berge und Täler« einer Landschaft. Schauen wir uns zunächst einmal die weiße Kurve genauer an: Sie zeigt die Luminanz des Bildes, also dessen über alle Farben gemittelte, durchschnittliche Helligkeit. Ihr wellenartiger Verlauf gibt an, wie viele Pixel des Bildes im jeweiligen Helligkeitsbereich (Tonwertbereich) liegen. Wir sehen hier, dass ganz links nur ganz wenige Pixel vorhanden sind (die Kurve fällt zum linken Rand hin ab). Das sind die schwarzen Pixel im Bild – die weiße Kurve sagt hier also aus, dass nur sehr wenige Pixel rein schwarz sind. Auf Ihrem Weg zum rechten Rand des Histogramms steigt die Kurve zunächst an. Das sind in Abbildung 1.13 die dunklen Bereiche in den Blättern und an den Fassaden. Im mittleren Bereich lässt die Kurve wieder nach, es gibt also nur wenige Pixel mittlerer Helligkeit. Erst ganz rechts gibt es wieder einen starken Anstieg. Das ist die Fläche des Himmels, der sehr hell ist und einen großen Anteil des Bildes ausmacht. Man sieht auch, dass kurz vor dem reinen Weiß die Kurve wieder auf null zurückgeht, dass also kaum rein weiße Pixel vorhanden sind. Daraus läßt sich schließen, dass es im Bild keine Überbelichtung gibt.

Abb. 1.14

Überbelichtung und Unterbelichtung

Überbelichtung bedeutet immer, dass viele bildwichtige Pixel rein weiß sind (also den Wert 255 haben) und keine Bildinformationen enthalten.

Unterbelichtung bedeutet immer, dass viele bildwichtige Pixel rein schwarz sind (also den Wert 0 haben) und ebenfalls keine Bildinformationen enthalten.

Sie erkennen im Histogramm eine Über- bzw. Unterbelichtung daran, dass sich rechts bzw. links am Ende der Kurve die Pixel stark aufhäufen und diese Anhäufung direkt mit dem Rand des Histogramms abschließt. Im Beispiel aus Abbildung 1.15 passiert das nur am linken Ende der blauen Kurve (dass das problematisch sein könnte, erkläre ich gleich bei Abbildung 1.17).

Abb. 1.15

Wenn wir nur die Helligkeitsverteilung betrachten, dann ist das Bild perfekt belichtet, weil alle Tonwerte (weiße Kurve) sich im »normalen« Bereich der Tonwertskala befinden.

Im Bedienfeld Histogramm finden Sie noch einige zusätzliche Informationen, zum Beispiel die Anzahl der Pixel und den Mittelwert der Tonwerte. Idealerweise liegt der Mittelwert ja bei 128; hier beträgt er 146, ist also etwas heller. Ein Durchschnittswert und eine Standardabweichung werden ebenfalls berechnet.

Was wir soeben für die Helligkeitsverteilung (Luminanz) besprochen haben, gilt selbstverständlich auch für jeden einzelnen der drei Farbkanäle (Rot, Grün, Blau). Die Ansicht Alle Kanäle zeigt uns alle drei Farbkanäle übereinandergelegt.

Abb. 1.16

Sie können sich (wie in Abbildung 1.17) die Kanäle auch einzeln anschauen. Hier sehen Sie dann die Helligkeitsverteilung der roten, der grünen und der blauen Bildpunkte. In der Regel genügt es, die Luminanz (weiße Kurve) zu betrachten, Sie können aber die Kanäle daraufhin untersuchen, ob es bei einer oder mehreren Farben ein potenzielles Problem gibt.

Wenn wir uns in diesem Beispiel die drei Kanäle anschauen, sehen wir, dass der Rotkanal und der Grünkanal sehr ähnlich dem Luminanzkanal gleichmäßig verteilt sind und an den beiden Enden (Schwarz und Weiß) nicht besonders auffällig sind. Im Blaukanal hingegen gibt es im Bereich »Schwarz« ein potenzielles Problem. Hier fällt auf, dass sich die blauen Bildinformationen am linken Rand des Histogramms aufhäufen. Das bedeutet, dass der Blaukanal hier etwas unterbelichtet ist bzw. unterbelichtete Bereiche enthält, dass hier also Bildinformationen verloren gehen (man spricht hier bzw. bei Überbelichtung auch von »Clipping«, da die Informationen am linken bzw. rechten Rand des Histogramms »abgeschnitten« werden). Das muss nicht unbedingt ein Problem sein, kann aber, wenn man das Bild stark aufhellt (zum Beispiel in den Schatten), zu einem verstärkten Bildrauschen in diesen Bereichen führen. Tendenziell ist das Rauschen eines Kamerasensors im Blaukanal am stärksten (das variiert von Kamera zu Kamera). Seien Sie also generell mit dem Aufhellen im Blaukanal vorsichtig, weil hier tendenziell Rauschen zu erwarten ist.

Abb. 1.17

1.2.2Die Tonwerte in den kritischen Bereichen beurteilen

Sie können nun mithilfe des Histogramms beurteilen, wie gut ein Foto belichtet ist und wie seine Tonwerte verteilt sind. Damit erkennen Sie auch kritische Bereiche am linken und am rechten Rand der Tonwertskala. Im Folgenden möchte ich Ihnen ein Affinity Photo-eigenes Tool an die Hand geben, mit dem Sie diese eventuell kritischen Bereiche visuell darstellen können und so auf dem Foto sofort erkennen, wo sich diese Bereiche befinden.

Wir hatten in dem Beispiel oben gesehen, dass im Bereich der dunklen Tonwerte unter Umständen ein Problem im Blaukanal besteht. Wenn Sie nun in der Photo Personaüber die Palette Anpassung am rechten Fensterrand die Tonwertkorrektur -Taste gedrückt halten, können Sie sich diese Bereiche genauer anschauen, indem Sie mit der Maus auf den Regler Schwarzstufe klicken (wenn Ihnen die Palette Anpassung nicht angezeigt wird, lassen Sie sie über Ansicht Studio Anpassung anzeigen).

Sofort schaltet das Bild um und zeigt ein schwarzes Bild. Wenn Sie nun den Regler minimal nach rechts ziehen (auf 1 %), erscheinen die Bereiche der Blätter in Blau (Abbildung 1.18). Was passiert hier? Durch das Verschieben des Schwarzstufe-Reglers dunkeln Sie das Bild ab – und diese Darstellung zeigt Ihnen, welche Teile des Bildes dabei in zeichnungsloses, reines Schwarz fallen. Im Umkehrschluss sind dies die Teile des Bildes, die bei einer Aufhellung in der Nachbearbeitung grau erscheinen und rauschen könnten-Taste muss weiter gedrückt bleiben), welcher Kanal in welchem Bereich des Bildes untersteuert (also komplett schwarz) ist. Das ist hier der Blaukanal (deshalb die blaue Darstellung). Die anderen Kanäle sind noch nicht betroffen.

Abb. 1.18

-Taste weiter auf ca. 15 %. Sie sehen nun anhand der sich heller bis weiß abzeichnenden Bereiche, dass diese bei diesem Grad der Abdunkelung des Bildes nur noch wenig bis gar keine Zeichnung mehr enthalten würden, welche Bereiche und welche Kanäle ganz schwarz werden und wo Informationen verloren gehen.

Abb. 1.19

In Abbildung 1.19 sehen wir oben links zum Beispiel auch magentafarbene Bereiche. Nun gibt es ja im RGB-Modell zunächst kein Magenta. Wenn wir das Farbschema noch einmal betrachten (siehe Abbildung 1.20), sehen wir aber, dass Magenta eine Mischfarbe aus Rot und Blau ist. Die magentagefärbten Stellen sind also die Stellen, an denen sowohl der Blau- als auch der Rotkanal betroffen sind.

Abb. 1.20

Ähnlich verhält es sich bei den cyanfarbenen Bereichen an den Dächern in Abbildung 1.19. Dort sind dann entsprechend der Blaukanal und der Grünkanal betroffen.

Abb. 1.21

Äquivalent dazu können Sie auch die Weißstufe -Taste analysieren. Hier sehen wir, dass zunächst keine Pixel von Übersteuerung betroffen sind. Das erschließt sich auch aus der Lücke ganz rechts im Histogramm. Wenn wir nun den Regler Weißstufe nach links ziehen, erscheinen die ersten Bereiche in der Übersteuerung (das Ziehen des Reglers hellt das Bild also auf). In Abbildung 1.21 sehen wir, dass der Grünkanal betroffen ist und (durch Gelb markiert) der Grün- und der Rotkanal. Die schwarzen Bereiche sind Bereiche, in denen alle drei Kanäle übersteuert sind.

Fazit

An diesem Beispiel erkennen Sie, wie wichtig es ist, das Histogramm zu verstehen und ein Bild vor der Bearbeitung zu analysieren. Das Histogramm gibt Ihnen den ersten Überblick über die Tonwertverteilung Ihres Bildes und zeigt Ihnen schnell und sicher eventuelle Über- oder Unterbelichtungen und andere »Problemzonen« auf. Wie Sie dieses Wissen konkret in der Bearbeitung Ihrer Bilder einsetzen erfahren Sie später im Kapitel 3 zur Developer Persona, wenn es in der RAW-Entwicklung um die Optimierung der Tonwerte eines Bildes geht.

1.3Was sind RAW-Dateien?

Die Sensoren digitaler Kameras sind prinzipiell sehr ähnlich aufgebaut. Lichtempfindliche Elemente, die die Helligkeit des einfallenden Lichtes in elektrische Ladung umwandeln, werden mit farbigen Filterchen beschichtet. Bei einem Standardsensor (Bayer-Sensor, siehe Abbildung 1.22) ist ein Viertel der Sensoren rot beschichtet, ein Viertel blau und die andere Hälfte grün. Diese ungleiche Verteilung ahmt die Farbempfindlichkeit des menschlichen Auges im Sensor nach. Es gibt auch andere Verteilungen bei unterschiedlichen Herstellern, zum Beispiel bei Fuji (X-Trans-Sensor, siehe Abbildung 1.23).

Abb. 1.22Bayer-Muster

Abb. 1.23X-Trans-Muster

Andere Muster sind möglich. Die Hersteller versuchen mit ungleichmäßigen Verteilungen bestimmte Probleme ihrer Sensoren, wie das Moiré, zu beheben oder zumindest zu unterdrücken.

Moiré

Das Moiré ist ein Interferenzmuster, das immer dann entsteht, wenn die Strukturen der Abbildung eine ähnlich große Auflösung haben wie die Muster der Sensoroberfläche. Wenn Sie beispielsweise eine Person

Sie haben das Ende dieser Vorschau erreicht. Registrieren Sie sich, um mehr zu lesen!
Seite 1 von 1

Rezensionen

Was die anderen über Das Affinity Photo-Praxisbuch denken

0
0 Bewertungen / 0 Rezensionen
Wie hat es Ihnen gefallen?
Bewertung: 0 von 5 Sternen

Leser-Rezensionen