30/59/11: Die perfekte Graustufen-Umwandlung als visuelle Dodge-&-Burn-Hilfe

Ein Bild in Graustufen umzuwandeln, kann in vieler Hinsicht wertvoll sein. Lässt man den kreativen Aspekt jedoch mal außer Acht, kann die Graustufen-Repräsentation eines Bildes vor allem als visuelle Hilfestellung in der Retusche dienen. Denn durch das Ausblenden der Farbinformationen kann man sich voll und ganz auf die Formen und die Luminanzverteilung im Bild konzentrieren. Vor allem für das Dodging & Burning kann diese Hilfe sehr wertvoll sein, denn gerade als Anfänger hat man oft Schwierigkeiten damit, herauszufinden, wo denn eigentlich aufgehellt bzw. abgedunkelt werden muss.

Die Idee ist also, das Bild mittels Hilfsebene temporär in Graustufen umzuwandeln. Darüber hinaus soll eine zusätzliche kontraststeigernde Hilfsebene die Unterschiede in der Luminanzverteilung (=Hautunreinheiten) noch deutlicher machen.

db-helper-visualisierung


Soviel zur Theorie. Für die Praxis wird in vielen Tutorials dazu geraten, dies mit dem Kanalmixer umzusetzen. Das ist auch durchaus verlockend, denn damit lassen sich beide Korrekturen in einer Einstellungsebene vereinen: Mit dem Modus »Monochrom« erhält man die Graustufen-Umwandlung und mit der klassischen Korrektur »weniger Rot, mehr Blau« steigert man den Kontrast in den Hautpartien.

Das Problem ist aber, dass man mit dieser Variante die Wirklichkeit verzerrt, denn man verschiebt hiermit das Verhältnis zwischen den einzelnen Farben. Wer also auf Basis dieser Kanalmixer-Ebene eine Dodge-&-Burn-Korrektur durchführt, erhält bei ausgeblendeter Hilfsebene eventuell ein falsches Ergebnis. Man korrigiert quasi Probleme, die gar nicht existieren. (Zumindest nicht in der Intensität.)

Aus dem selben Grund fallen auch andere Varianten flach. Beispielsweise die Umwandlung per Schwarz-Weiß-Einstellungsebene. Denn so praktisch, dieser Dialog aus kreativer Sicht ist, auch damit kann man sehr einfach die ursprünglichen Farbverhältnisse verschieben.

Ebenso schlecht ist die Umwandlung mittels Farbton/Sättigung. Warum, wird klar, wenn man die Kanäle im folgenden Beispiel betrachtet:

vergleich-farbton-saettigung

Innerhalb der einzelnen Kanäle wird beim Reduzieren der Sättigung lediglich der Durchschnitt gebildet, was bei durchgängig hochgesättigten Farben, wie hier, zu einem einheitlichen Grau führt. Und das ist natürlich nicht das Ziel, denn so nehmen wir die Welt in Graustufen nicht wahr. Beispielsweise erscheint uns ein Gelb natürlich heller als ein Blau und genau das muss bei der Umwandlung berücksichtigt werden. Mittels Farbton/Sättigung ist das leider nicht der Fall. Wir benötigen also eine Formel, die die Kanäle unterschiedlich gewichtet, sodass das Resultat dem menschlichen Sehverhalten so gut wie möglich entspricht.

Die Lösung
Wie sich herausgestellt hat, wurde dieses Problem schon lange vor Photoshop, nämlich 1953, vom National Television Systems Committee gelöst. Die für uns relevanten Angaben dazu befinden sich in den NTSC Signal Specifications:

ntsc-auszug


Konkret geht es um diese Zahlen: 30/59/11. So müssen die Kanäle für die Umwandlung in Graustufen gewichtet werden: 30 % Rot, 59 % Grün und 11 % Blau. Mithilfe dieser Verteilung entspricht das Graustufenbild am ehesten dem, wie wir die Welt in Graustufen wahrnehmen.

Kommen wir daher nochmal zum Kanalmixer zurück. Wenn wir ihn nämlich mit diesen Zahlen füttern, spuckt er sehr wohl ein brauchbares Ergebnis aus. Das Resultat entspricht auch ziemlich genau der Umwandlung in Graustufen über Bild > Modus > Graustufen. Photoshop nutzt diese Werte aber auch für die Füllmethode »Farbe«, was uns zur zweiten Möglichkeit bringt: Anstatt des Kanalmixers kann man ebenso eine neutralgrau gefüllte Ebene nutzen. Diese muss man, wie hier unten zu sehen, lediglich auf die Füllmethode »Farbe« setzen:

vergleich-varianten


Das Ergebnis ist wie bei der Kanalmixer-Methode ein perfektes Graustufenbild.

Weiterführendes
Mehr zu Dodge & Burn erfährst du hier: Dodge & Burn – Hautretusche vom Feinsten

Comments

Dodge & Burn – Hautretusche vom Feinsten

Was ist Dodge & Burn?
Dodge & Burn ist ein wahrer Klassiker unter den Retuschetechniken und stammt aus Zeiten der analogen Fotografie. Auf Deutsch heißt die Technik »Abwedeln und Nachbelichten«. Heute ist Dodge & Burn nur eine von vielen Retuschetechniken. Sicherlich jedoch eine der Besten. Für mich persönlich sogar die Beste. Konkret versteht man darunter das partielle Aufhellen und Abdunkeln, um damit »Unreinheiten« in der Luminanzverteilung auszubügeln.

dodge-and-burn-example
Hautunreinheiten werden durch partielles Aufhellen und Abdunkeln ausgebügelt – ohne dass dabei die Struktur verändert wird.


Man unterscheidet zwei Varianten:

lokales (oder mikro) Dodge & Burn und
globales (oder makro) Dodge & Burn.

Mit dem lokalen Dodge & Burn werden vorwiegend kleine Fehler im Hautbild ausgebessert, so wie im Beispiel oben. Die globale Variante ist eher fürs Shaping/Contouring gedacht. Beispielsweise um bestimmte Merkmale, wie Wangenknochen oder Muskel zu betonen. Wie gut das funktioniert, verdeutlicht das folgende Beispiel. Durch simples Aufhellen und Abdunkeln kann ein einfacher Kreis in eine plastische Kugel verwandelt werden:

db-global-example-630px


Der Vorteil gegenüber anderen Retuschetechniken (Reparaturpinsel, Frequenztrennung) ist, dass hiermit die Struktur nicht verändert wird. Und obwohl Dodge & Burn gerade deshalb vor allem in der Beauty- bzw. Haut-Retusche Verwendung findet, sollte man sich keinesfalls darauf beschränken. Hervorragend funktioniert die Technik beispielsweise auch für das Entfernen von Falten auf Kleidungsstücken.

Wie funktioniert Dodge & Burn in Photoshop?
Variante 1: Abwedeln und Nachbelichten
Die älteste und simpleste Variante beruht auf der Verwendung der gleichnamigen Werkzeuge Abwedeln und Nachbelichten. Diese Variante hat jedoch den Nachteil, dass sie destruktiv ist, da die Werkzeuge nur auf der Bild- bzw. Pixelebene funktionieren. Weiters tendiert diese Methode auch dazu, dass die Resultate viel zu gesättigt werden. Das liegt ganz einfach daran, dass die beiden Werkzeuge auf den »Color Burn« und »Color Dodge«-Algorithmen basieren und diese generell sehr drastische Änderungen vornehmen.

Diese Umstände führten dazu, dass sich sehr bald eine abgewandelte Variante durchsetzte. Hierzu erstellt man eine neutralgrau gefüllte Ebene und setzt diese auf die Füllmethode »Weiches Licht« bzw. »Ineinanderkopieren«.

neue-ebene-db

Auf diese Ebene kann man nun das Abwedler- bzw. Nachbelichten-Werkzeug anwenden, ohne dass die Pixelebene verändert wird. Die Methode hat also den großen Vorteil, dass sie non-destruktiv ist und die Tendenz zu Farbverschiebungen reduziert. Allerdings führt das nicht automatisch zu besseren Ergebnissen, denn vor allem die aufgehellten Bildstellen wirken damit meist etwas fahl.

Im Grunde macht diese Variante jedoch nichts anderes, als die neutralgraue Farbe aufzuhellen bzw. abzudunkeln, was soviel heißt wie, dass man auch einfach mit einem schwarzen bzw. weißen Pinsel arbeiten kann. Hiermit ist dann aber auch das Füllen mit Neutralgrau überflüssig, denn im Gegensatz zum Abwedeln- oder Nachbelichten-Werkzeug funktioniert der Pinsel natürlich auch auf einer leeren Ebene. Die Füllmethode bleibt weiterhin »Weiches Licht« oder »Ineinanderkopieren«.

Variante 2: Gradationskurven
Eine weitere Methode beruht auf der Verwendung von Gradationskurven für das Aufhellen und Abdunkeln. Der Vorteil an dieser Variante ist, dass man die Gradationskurven mit der Füllmethode »Luminanz« kombinieren kann. Somit sind Farbverschiebungen ausgeschlossen. Der Nachteil: Man benötigt zwei Ebenen und muss somit zwischen diesen beiden hin- und herschalten. Hierfür gibt es aber eine (kostenpflichtige) Lösung: Der »XX-Shortcut« des Dodge-&-Burn-Panels von photoshopchef.com
Ein weiterer Vorteil dieser Variante ist, dass die aufgehellten und abgedunkelten Bereiche getrennt voneinander farbkorrigiert werden können. Das ist deshalb wichtig, weil aufgehellte Stellen in der Regel eher zu wenig gesättigt wirken und abgedunkelte zu viel. Wer Kontrolle mag, ist mit dieser Methode am besten beraten.

ebenenaufbau-db-curves
Ebenenaufbau: jeweils eine Kurve zum Aufhellen und Abdunkeln. Auf beiden ist per Schnittmaske eine Farbton/Sättigungs-Einstellungsebene angewandt, um etwaige Sättigungsprobleme in den Griff zu bekommen.

Variante 3: Raw
Liegt das zu bearbeitende Bild als Raw-File vor, besteht auch die Möglichkeit, eine über- und eine unterbelichtete Kopie für das Aufhellen und Abdunkeln zu verwenden. Diese Methode hat allerdings nur noch in ihrem Grundgedanken mit Dodge & Burn zu tun.

Zusammenfassung:
In der professionellen Retusche findet vor allem die Pinsel- und Gradationskurven-Variante Verwendung. Mit beiden kann man hervorragende Ergebnisse erzielen. Wichtig ist nur, dass man eventuelle Farb- und Sättigungverschiebungen im Anschluss korrigiert. Eine Möglichkeit dazu bieten nicht nur simple Einstellungsebenen sondern auch Gradient Maps. Wie das funktioniert, erfährst du in meinem Artikel Beauty-Retusche: Farbkorrekturen mit Gradient Maps

Visuelle Hilfe

db-helper-visualisierung

Vor allem Anfänger haben oft Schwierigkeiten, herauszufinden, wo den eigentlich aufgehellt bzw. abgedunkelt werden muss. Etwas einfacher wird diese Entscheidung, wenn man das Bild temporär in Graustufen betrachtet. Wie man das am besten macht, habe ich hier erklärt: 30/59/11: Die perfekte Graustufen-Umwandlung als visuelle Dodge-&-Burn-Hilfe

Tipps

  • Grundsätzlich gilt, dass vor dem Dodging & Burning die groben Korrekturen mittels Kopierstempel bzw. Reperaturpinsel gemacht werden sollten.
  • Beim globalen Makro-Dodge-&-Burn verliert man schnell mal den Überblick über die Stärke des Effekts. Es macht daher Sinn, die Korrektur am Schluss wieder etwas zu verringern, denn meist schießt man über das Ziel hinaus.
  • Ebenso wichtig ist, dass man die lokalen und globalen Korrekturen auf unterschiedlichen Ebenen macht. Spätere Korrekturen werden sonst zur Qual.
  • Speziell für die Beauty-Retusche macht es Sinn, von klassischen Make-Up-Techniken (Stichwort: Contouring) zu lernen. Vieles lässt sich hier wunderbar mittels Dodge & Burn umsetzen.
Fazit
Dodge & Burn bietet großartige Ergebnisse, da – im Gegensatz zu Kopierstempel oder Reperaturpinsel – die Hautstruktur nicht verändert wird. Coverbilder in Hochglanzmagazinen wie der Vogue oder ähnlichem werden daher fast ausschließlich mit Dodge & Burn bearbeitet. Vor allem die Bildbearbeitungshäuser in den USA setzen sehr stark auf diese Technik. Abgesehen von den tollen Ergebnissen ist Dodge & Burn meist auch einfacher im Ebenenaufbau zu integrieren als beispielsweise eine Frequenztrennung. Die Kehrseite der Technik ist aber, dass sie sehr viel Zeit in Anspruch nimmt und somit auch sehr teuer ist. Für eine Portrait-Aufnahme (Coverbild) kann man schon mal mehrere Stunden nur mit Dodge und Burn beschäftigt sein. Der Aufwand ist es aber allemal wert.

Weiterführendes
Wer mehr über die praktische Anwendung von Dodge & Burn lernen will, findet vielleicht an dem Video-Tutorial »Master Dodge & Burn« von retouchingacademy.com Gefallen.

Comments

Filter in der digitalen Bildverarbeitung

filter-header


Was sind eigentlich Filter? Und wie funktionieren sie?
Photoshop bietet über 100 Filter an. Doch die Bezeichnung »Filter« ist etwas irreführend, denn Filter im klassischen Sinn sind davon nur wenige. Die meisten in Photoshop vorhandenen Filter würde ich eher als Effekte bezeichnen. Ein Blick in Adobes Hilfe-Dokument erhärtet diesen Gedanken:

Mit Filtern können Sie Fotos korrigieren oder retuschieren und spezielle künstlerische Effekte anwenden, die Ihrem Bild das Aussehen einer Skizze oder eines impressionistischen Gemäldes verleihen.


Um zu verstehen, was klassische Filter sind, müssen wir diese zunächst richtig einordnen. Dazu lohnt sich ein Blick auf die verschiedenen Operationen in der digitalen Bildverarbeitung.

Man unterscheidet hier zwischen Punktoperationen, Nachbarschaftsoperationen und globalen Operationen.

Punktoperationen verwenden als Eingabe die Farb- bzw. Luminanzwerte eines einzelnen Pixels, berechnen damit einen neuen Wert und tragen das Resultat wieder in den Ursprungspixel ein. In Photoshop wäre so eine Operation beispielsweise die Korrektur mittels Gradationskurve, Farbbalance etc.

Nachbarschaftsoperationen nutzen als Eingabe nicht nur einen einzelnen Pixel, sondern verwenden für die Berechnung noch zusätzlich eine bestimmte Menge der umliegenden Pixel. Das Ergebnis der Operation wird dann wie bei den Punktoperationen in den einen Ursprungspixel geschrieben. Zu diesen Operationen kommen wir gleich nochmal, denn hier verstecken sich die klassischen Filter.

Unter globalen Operationen versteht man allen voran geometrische Operationen wie das Skalieren, Drehen oder Spiegeln eines Bildes. Im Gegensatz zu Punkt- oder Nachbarschaftsoperationen wird hier das komplette Bild als Eingabe verwendet und das Bild in Größe und Form verändert. Die Farb- und Luminanzwerte hingegen werden nicht verändert. Zu den globalen Operationen zählt aber auch die Fourier-Transformation.

Nachbarschaftsopertionen
Wie vorher schon beschrieben, handelt es sich bei den Nachbarschaftsoperationen um Operationen, die das Umfeld – also Nachbarschaft – eines Pixels in die Berechnung miteinbeziehen. Dabei filtern (!) sie gewisse Merkmale wie Kanten oder Störungen im Bild.

Man kann also sagen ein Filter ist eine lokale Bildoperation, die die Geometrie des Bildes nicht verändert. Diese Definition schließt zwar keine der Photoshop-Filter wirklich aus, dennoch ist soetwas wie »Ozeanwellen«, »Buntglas-Mosaik« oder »Blendenflecke« nicht die Art von Filter, um die es hier geht. Hier geht’s ums Weich- oder Scharfzeichnen. Oder Kanten betonen. Doch dazu später mehr. Zunächst möchte ich hier nochmal auf die Gliederung von Filtern eingehen.

Durchgesetzt hat sich die Einteilung in lineare und nicht-lineare Filter auf Basis deren mathematischen Eigenschaften. Bei linearen Filtern wird jeder Pixelwert durch die linear gewichtete Summe der Quellpixel berechnet. Was das heißt, sehen wir gleich. Vorerst ist nur wichtig, dass zum Beispiel der Gaußsche Weichzeichner zu dieser Gruppe zählt.
Bei nicht-linearen Filtern werden die Pixelwerte des Quellbildes durch eine nicht-lineare Funktion verknüpft. Beispiele hierfür sind »Helligkeit interpolieren« oder »Helle/Dunkle Bereiche vergrößern«.

Nachdem wir jetzt schon ein ungefähres Verständnis davon haben, was Filter sind, sollten wir uns nun damit beschäftigen, wie sie funktionieren.

Wie funktionieren lineare Filter?
Um es einfach zu machen, stellen wir uns dazu zunächst ein Bild mit 5 x 5 Pixel vor. Um das ganze noch weiter zu vereinfachen, gehen wir zudem von einem Graustufenbild aus. Dieses Graustufenbild wollen wir weichzeichnen. Die einfachste Art hierfür ist die Anwendung des sogenannten Box-Weichzeichnungs-Filters. Dieser Filter sieht sich einen Pixel an und bildet mit den umliegenden Pixeln (Nachbarschaft) einen Durchschnittswert. Das Resultat wird dann in den Ursprungspixel (Koordinatenursprung oder Hotspot genannt) eingetragen. Es ist wichtig, zu beachten, dass obwohl mehrere Pixel verwendet werden, immer nur der Wert eines Pixels berechnet wird. Wiederholt man diesen Vorgang für alle Pixel in einem Bild, werden die Werte geglättet und das Bild somit weichgezeichnet. (Anders ausgedrückt: Die hohen Frequenzen werden eliminiert. Mehr über die Frequenzfilter erfährst du im Artikel Der Hochpass-Filter und seine Geschwister )

Die folgende Abbildung verdeutlicht das Prinzip nochmal:

visualisierung

Das zu verarbeitende Pixel (26) und dessen Nachbarschaft wird mit den Filterkoeffizienten multipliziert und anschließend werden die Werte addiert:

1x32 + 1x25 + 1x42 + 1x25 + 1x26 + 1x37 + 1x16 + 1x39 + 1x55 = 297

Das Ergebnis muss – wie bei jeder Durchschnittsberechnung – noch durch die Anzahl der Werte dividiert werden:

297/9 = 33 – Fertig.

Die Filtermatrix fährt dabei Pixel für Pixel über das Bild. An den Rändern gibt es natürlich ein Problem, denn hier fehlen einige Werte. Hierfür gibt es mehrere Lösungen, auf die ich hier aber nicht näher eingehe.

moving-filtermatrix


Wie groß diese Filtermatrix (auch Filtermaske, Faltungsmatrix oder Kernel genannt) ist, hängt vom gewählten Radius ab.

box-blur-filter-radius


Das besondere an dem Box-Weichzeichnungs-Filter ist, dass alle Pixel gleich gewichtet werden.

Der Gaußsche Weichzeichner funktioniert nach einem ähnlichen Prinzip, allerdings wird nicht einfach der Durchschnitt aller umliegenden Pixel berechnet, sondern ein gewichteter Durchschnitt. Dafür verwendet Photoshop eine Filtermatrix, die der Form einer Gaußschen Glocke entspricht. Die Filterkoeffizienten werden daher auch Gewichte genannt.

gaussian-kernel


Diese Operation, also das Wichten und Summieren, wurde übrigens nicht extra für die Bildverarbeitung erfunden, sondern existiert in der Mathematik schon lange und ist als »Faltung« oder »Konvolution« bekannt.

Im Gegensatz zu den Punktoperationen (Gradationskurve etc.) kann das Ergebnis dieser Faltung nicht direkt in das Ausgangsbild zurückgegeben werden. Denn die Ausgangspixel werden ja mehrfach benötigt. Würde man die neuen Werte sofort eintragen, hätte das zur Folge, dass die Filtermatrix beim Berrechnen des nächsten Pixels nicht nur von den Originalwerten ausgeht, sondern den zuvor bearbeiteten Pixel in die Berechnung miteinbezieht. Um das zu verhindern, wird das Ergebnis zunächst in einen »Zwischenspeicher« geschrieben und erst wenn alle Pixel berechnet wurden, werden die Ergebnisse in das Ausgangsbild zurückgegeben. Man nennt diese Vorgehensweise parallele Verarbeitung. Demgegenüber steht die sequentielle Verarbeitung, bei der die neu berechneten Pixel eben sofort in das Ausgangsbild zurückgegeben werden. (Die genaue Bezeichnung für solche Filter lautet »Infinite Impulse Response Filter«.)

Wie funktionieren nicht-lineare Filter?
Nicht-lineare Filter sind im Gegensatz zu den linearen Filter etwas schwieriger zu gliedern bzw. zu beschreiben. Ich möchte daher nur über die sogenannten Rangordnungsfilter (morphologische Operatoren) sprechen.

Doch noch einmal zurück zu den linearen Filtern. Diese haben nämlich einen Nachteil: Sie entfernen beim Weichzeichnen auch wichtige »formgebende« Bildbestandteile wie Kanten oder Linien. Daher eignen sie sich nur bedingt für das Entfernen von Störungen. Anders sieht es bei den Rangordnungsfiltern aus. Wie der Name schon andeutet, ordnen und selektieren diese Filter – im Gegensatz zu den linearen Filtern, die gewichten und addieren.

Im folgenden Vergleich ist zu sehen, dass der Rangordnungsfilter »Helligkeit interpolieren« das Bild weichzeichnet, die Kanten im Bild aber wesentlich besser beibehält als der Gaußsche Weichzeichner.

filter-vergleich


Ein Rangordnungsfilter sortiert alle Luminanzwerte eines Bild in aufsteigender Reihenfolge. Welcher Pixel nun selektiert und in den Ursprungspixel zurückgegeben wird, hängt vom genauen Filter ab. Wie die Grafik unten zeigt, werden Filter, die den mittleren Wert verwenden Medianfilter genannt. Entsprechend werden die anderen beiden Varianten Minimum- bzw. Maximumfilter genannt.

Medianfilter-alternative-630px


Alle drei Rangordnungsfilter haben in Photoshop andere Namen als in der Literatur verwendet werden:
Dunkle Bereiche vergrößern = Erosion = Maximum = Erode
Helle Bereiche vergrößern = Dilatation = Minimum = Dilate
Helligkeit interpolieren = Median

Weiterführendes
Auch wenn diese Grundlagen für die Anwendung der Filter nicht zwingend notwendig sind, so helfen sie doch bessere Entscheidungen bei der Filterwahl bzw. der Wahl der dazugehörigen Parameter zu treffen. Darüber hinaus sind sie für einen speziellen Filter dann doch von großer Bedeutung: dem Filter »Eigener Filter«. Mit diesem können nämlich lineare Filter erstellt werden. Wie das funktioniert, erfährst du im kommenden Artikel.

Comments

Der Hochpass-Filter und seine Geschwister

Der Hochpass-Filter zählt sicherlich nicht zu den populärsten Filtern in Photoshop. Trotzdem haben ihn einige Anwender wahrscheinlich schon das ein oder andere Mal benutzt – beispielsweise zum Schärfen. Doch was genau macht dieser Filter und wieso eignet er sich gerade zum Schärfen?

Grundlagen
Wie der Titel dieses Artikels schon verrät, ist der Hochpass-Filter nicht der einzige seiner Gattung. Zu ihm gesellen sich noch der Tiefpass-, Bandpass- und Bandstop-Filter. All diese Filter gehören zu den sogenannten Passfiltern. In der Regel begegnet man diese vor allem in der Audiotechnik. Eingesetzt werden sie immer dann, wenn Frequenzen getrennt werden sollen. Und das bringt uns zurück zur Bildbearbeitung: Denn obwohl wir das im Alltag kaum wahrnehmen, besitzen auch Bilder unterschiedliche Frequenzen. Vielen ist das vielleicht aufgrund der Unmengen an Tutorials zur Frequenztrennung bekannt. Bevor wir uns die Filter aber im Detail ansehen, noch etwas zur Implementierung dieser Filter in Photoshop:

Der Hochpass-Filter ist am einfachsten zu finden, da er eben als »Hochpass-Filter« unter Filter > Sonstige Filter bereitsteht. Ein Tiefpass-Filter ist unter diesem Namen zwar nicht zu finden, allerdings handelt es sich beim Gaußschen Weichzeichner um einen waschechten Tiefpass-Filter. Das hätten wir also auch. Bandpass- und Bandstop-Filter stehen in Photoshop von Haus aus nicht zur Verfügung. Diese können wir aber mit den in Photoshop vorhandenen Mitteln selbst erzeugen.

Was machen diese Filter nun im Detail? Sehen wir uns dazu zunächst den Tiefpass-Filter an.

Tiefpass-Filter
Wie schon erwähnt, begegnen wir den Tiefpass-Filter in Form des Gaußschen Weichzeichners. Ein Tiefpass-Filter lässt alle tiefen Frequenzen passieren und blockiert die hohen Frequenzen. (Hohe Frequenzen repräsentieren in einem Bild die feinen Details.) Wie macht der Filter das? Am einfachsten ist das anhand eines etwas simpleren Weichzeichners erklärt, dem sogenannten Box-Weichzeichner (in Photoshop ebenfalls bei den Weichzeichnungsfiltern vorhanden).

Der Box-Weichzeichnungs-Filter sieht sich einen Pixel an und bildet mit den umliegenden Pixel in einem 3x3-Gitter (= Radius: 1px) einen Durchschnittswert. Anschließend wird der Farbwert des Ursprungs-Pixels mit dem Durchschnittswert ersetzt. (Das ganze geschieht natürlich für jeden Kanal einzeln.) Der Radius bestimmt dabei wieviele umliegende Pixel in die Berechnung miteinbezogen werden:

box-blur-filter-radius

Das besondere an dem Filter ist, dass alle Pixel gleich gewichtet werden.

Der Gaußsche Weichzeichner funktioniert nach einem ähnlichen Prinzip, allerdings wird nicht einfach der Durchschnitt aller umliegenden Pixel berechnet, sondern ein gewichteter Durchschnitt. Dafür verwendet Photoshop eine Faltungsmatrix, die der Form einer Gaußschen Glocke entspricht.

gaussian-blur-kernel


Egal, welcher der beiden Filter zum Einsatz kommt, durch das Bilden eines Durchschnitts werden die Werte geglättet und somit Details vernichtet – oder eben anders ausgedrückt: die hohen Frequenzen eliminiert.

Hochpass-Filter
Im Gegensatz zum Tiefpass-Filter blockiert ein Hochpass-Filter alle tiefen Frequenzen und lässt die hohen Frequenzen passieren. Visuell lässt sich das so darstellen:

hochpass-ergebnis-v3
Im Ergebnis ist zu sehen, dass die hohen Frequenzen (feine Details) erhalten bleiben.


Aus mathematischer Sicht, handelt es sich bei Hochpassfiltern oft um eine sogenannte Fouriertransformation. Photoshop nutzt jedoch eine andere Herangehensweise. Im Prinzip wird vom Originalbild bloß eine weichgezeichnete Version abgezogen. Anders ausgedrückt: Originalbild minus Tiefpass (Gaußscher Weichzeichner) = Hochpass

Diese Herangehensweise – also das Subtrahieren – führt allerdings dazu, dass Pixel mit negativen Werten entstehen, was in Photoshop nicht möglich ist. Daher wird das Ergebnis um 127 Tonwerte »versetzt«. (So wie man das auch in den Dialogen »Bildberechnungen« und »Kanalberechnungen« machen kann.) Durch diesen Versatz entsteht der typisch graue Look von Hochpassebenen.

highpass-sample


Wer Photoshops Arbeitsweise selbst nachvollziehen mag, kopiert sich die Ebene in meinem Beispielbild, zeichnet sie bei 3 Pixel mit dem Gaußschen Weichzeichner weich, invertiert die Ebene und stellt sie dann auf 50 % Deckkraft. Das Ergebnis entspricht nicht exakt dem Hochpass-Filter, aber es verdeutlicht die internen Arbeitsschritte.

Bandpass-Filter
Wie schon erwähnt, besitzt Photoshop keinen Bandpass-Filter. So ein Filter ist jedoch nichts anderes wie die Kombination aus Hoch- und Tiefpass-Filter. D.h. er lässt ein bestimmtes Frequenzband passieren. Mit ein paar einfachen Schritten lässt sich das bequem in Photoshop »nachbauen«:

  1. Dokument auf eine Ebene reduzieren (falls notwendig) und die reduzierte Ebene duplizieren
  2. Auf das Duplikat Bild > Korrekturen > Helligkeit/Kontrast mit folgenden Einstellungen anwenden: Helligkeit: 0, Kontrast: -50, »Früheren Wert verwenden« aktivieren.
  3. Hochpass-Filter mit dem Radius für die niedrigste Frequenz, die noch sichtbar sein soll, anwenden
  4. Gaußschen Weichzeichner mit dem Radius für die höchste Frequenz, die noch sichtbar sein soll, anwenden
  5. Da das Ergebnis von Haus aus sehr kontrastarm ist, lohnt es sich, zuletzt noch eine kontraststeigende Tonwertkorrektur/Gradationskurve darauf anzuwenden
  6. Fertig
Damit hat man nur noch jene Frequenzen im Bild, die zwischen den beiden gewählten Pixelwerten liegen.

Bandstop-Filter
Ein Bandstop-Filter ist das Gegenteil des Bandpass-Filters, d.h. anders als beim Bandpass-Filter, der einen bestimmten Bereich der Frequenzen durchlässt, lässt ein Bandstop alle außer die selektierten Frequenzen passieren. In Photoshop erzeugen wir diesen Effekt so:

  1. Dokument auf eine Ebene reduzieren (falls notwendig) und die reduzierte Ebene duplizieren
  2. Das Duplikat auf die Füllmethode »Lineares Licht« stellen
  3. Ebene invertieren
  4. Hochpass-Filter mit dem Radius für die niedrigste Frequenz, die geblockt werden soll, anwenden
  5. Gaußschen Weichzeichner mit dem Radius für die höchste Frequenz, die geblockt werden soll, anwenden
  6. Fertig
Ein paar Bemerkungen zu Bandpass und Bandstop:
  • Beide Methoden sind nur im 16-Bit-Modus mathematisch korrekt. Die Abweichungen in 8 Bit sind aber gering, sodass man diese Techniken ohne Bedenken verwenden kann.
  • Nicht vergessen: In den Photoshop-Dialogen sind hohe Frequenzen kleine Radien und niedrige Frequenzen große Radien.
Hier nochmal eine kurze Übersicht über die Passfilter:

  • Hochpass-Filter: Lässt nur Frequenzen, die höher sind als der eingestellte Wert, passieren.
  • Tiefpass-Filter: Lässt nur Frequenzen passieren, die niedriger sind als der eingestellte Wert.
  • Bandpass-Filter: Lässt nur ein bestimmtes – vom Anwender definiertes – Frequenzband passieren.
  • Bandstop-Filter: Lässt ein bestimmtes Frequenzband nicht passieren.
Anwendungsbereich:
Die Anwendungsbereiche der Passfilter sind sehr vielfältig. Beispielsweise beruhen die beiden Retuschetechniken »Frequenztrennung« und »Abpudern« darauf. Gerne wird der Hochpassfilter (neben dem USM-Filter) auch zum Verstärken des Bildkontrastes benutzt. Calvin Hollywood hat diesen Bildstil häufig verwendet. Im englisch-sprachigen Raum wird dieser Effekt als »HiRaLoAm« bezeichnet. (Der Name bezieht sich auf die Einstellungen des Unscharf-Maskieren-Filters: High Radius, Low Amount.)

Darüberhinaus wird der Hochpass-Filter eben auch gerne zum klassischen Schärfen verwendet. Warum?

Nun, wie wir gesehen haben, lässt der Hochpassfilter nur hohe Frequenzen passieren. Hohe Frequenzen sind aber nichts anderes als kleine, kontrastige Bildpartien. Und wenn man in der Bildbearbeitung vom Schärfen spricht, meint man damit, dass Mikro-Kontraste verstärkt werden. Wenn wir also den Hochpassfilter anwenden und auf einen passenden Blendmodus (Ineinanderkopieren, Weiches Licht etc.) setzen, verstärken wir die Mikro-Kontraste und Schärfen somit das Bild. All das macht aber auch der Unscharf-Maskieren-Filter. Die Hochpass-Variante hat den Vorteil, das sie etwas flexibler ist. Man kann sie mit mehreren Füllmethoden kombinieren, die Deckkraft verändern oder Masken hinzufügen (luminosity mask). Der für mich größte Vorteil ist aber, dass ich den Hochpass auf einer eigenen Ebene habe. Klar, auch den USM-Filter kann ich auf einer eigenen Ebene anwenden. Allerdings nur auf einer reduzierten. Wenn ich unter dieser Ebene noch schnell eine Einstellungsebene ändere, sehe ich klarerweise keine Veränderung. Mit der Hochpass-Methode erhalte ich diese Bearbeitungsmöglichkeit.

Das heißt aber, dass man nur dann vom Hochpass-Schärfen profitiert, wenn man die Flexibilität nutzt. Anderenfalls kann man auch den USM-Filter verwenden. In dieser Hinsicht sind jegliche Diskussionen darüber, welche Variante besser ist reine Zeitverschwendung.

In einem zukünftigen Artikel werde ich etwas näher auf die beiden Anwendungsbereiche »Frequenztrennung« und »Abpudern« eingehen. Bis dahin, sei aber gesagt: Beide sind nur mit äußerster Vorsicht zu verwenden!

Comments

Banding (Tonwertabrisse) im 16-Bit-Modus

Im 16-Bit-Modus sollte Banding eigentlich kein Problem darstellen. Dennoch kommt es in Photoshop immer wieder zu solchen Darstellungen:

banding

Der Grund dafür ist die Cache-Stufen-Einstellung. (Natürlich können solche Tonwertabrisse auch durch die Darstellung des Monitors hervorgerufen werden, doch dazu muss man schon einen sehr schlechten oder sehr falsch eingestellten Monitor besitzen.)

Technischer Hintergrund
Photoshop speichert je nach konfigurierter Cache-Stufe eine gewisse Anzahl an Bild-Caches. Hat man beispielsweise 4 Cache-Stufen eingestellt, werden 4 Bild-Caches generiert, sodass beispielsweise das Zoomen bei Bedarf schneller funktioniert. Generell verbessert die Erhöhung der Cache-Stufen die Reaktionsfähigkeit von Photoshop.

cache-stufen-einstellung


Aus Performancegründen werden allerdings nur die Zoomstufen über 63,75 % im 16-Bit-Modus generiert. Alles darunter ist auch innerhalb eines 16-Bit-Files nur in 8-Bit gecacht.

Das führt in 16-Bit-Dokumenten dazu, dass solche Tonwertabrisse je nach Zoom-Stufe erscheinen oder eben nicht. Da das unter Umständen etwas lästig ist, kann man die Cache-Stufe auch auf 1 stellen. Das heißt zwar das Photoshop keine Bild-Caches im Voraus generiert und die Performance etwas träger ist, allerdings wird auch bei jeder Zoomstufe die korrekte 16-Bit-Darstellung gewählt. Dennoch sollte man diese Einstellung nur für solche Fälle verwenden und nicht immer mit so niedriger Cache-Stufe arbeiten.

Fazit
Selbst unter idealen Voraussetzungen (Hardware-kalibrierbarer Monitor, 30-Bit-Workflow, 16-Bit-Daten etc.) kann es also zu durchaus heftigen Tonwertabrissen kommen. Und schuld daran ist eine Einstellung, die das Zoomen beschleunigt. Man muss aber immer daran denken, dass dies lediglich ein Darstellungsproblem ist.

Comments

Beauty-Retusche: Farbkorrekturen mit Gradient Maps

Gradient Maps – also Verlaufsumsetzungen – sind eine sehr wirksame Methode, um Farbunterschiede in den Hauttönen in den Griff zu bekommen. Häufig wird so eine Korrektur angewandt, um beispielsweise die »Farbflecken«, die beim Korrigieren mittels Dodge & Burn entstehen, zu entfernen. Aber auch die ganz natürlichen Unregelmäßigkeiten der Haut lassen sich mit dieser Technik sauber korrigieren.

Wie am Namen der Technik schon zu erkennen, basiert das Prinzip auf der Nutzung einer Verlaufsumsetzungsebene. Mit so einer Ebene werden die Farben des vom Nutzer definierten Verlaufs den entsprechenden Tonwertstufen eines Bildes zugeordnet. Das klingt kompliziert, ist aber ganz simpel:

Verlaufsumsetzung


Das Prinzip basiert also auf der Idee, die Hautfarben mittels der Farben eines Verlaufs wiederzugeben. Dadurch dass der Verlauf aber nur ein definiertes Set an Farben zur Verfügung hat, werden sämtliche Farbunreinheiten ausgebügelt. Im folgenden Beispiel kann man sehen, dass durch die Verlaufsumsetzung, der Rotstich an der Wange und den Nasenflügeln entfernt wurde.

vergleich-haut


Das »Retouching Toolkit« von Conny Wallström bietet mit dem »Gradient Map Maker« ein praktisches Werkzeug, um halb-automatisch solche Verlaufsumsetzungen zu generieren. Man kann diese Gradient Maps aber ebenso gut selbst erstellen:

Gradient Maps erstellen
1. Zunächst muss man die Farben für den Verlauf definieren. Dazu wählt man mit dem Farbaufnahmewerkzeug jeweils einen neutralen Farbton in den hellen, mittleren und dunklen Tönen der Haut. (Je nach Motiv können auch mehr als 3 Farbtöne notwendig sein.) Sinnvoll ist es, sich diese Farben als HSB-Werte zu notieren.

2. Nun erstellt man die Verlaufsumsetzung-Ebene.

Bildschirmfoto 2017-07-07 um 11.51.52


3. In den Eigenschaften der Verlaufsumsetzung definiert man nun den Verlauf anhand der notierten Farbwerte. Da Photoshop standardmäßig den linken Teil des Verlaufs den Tiefen und den rechten Teil den Lichtern zuordnet, bietet es sich an, auch nach dieser Regel zu arbeiten. Da wir vorher die HSB-Werte notiert haben, können wir damit jedoch nicht nur die Farbe definieren, sondern auch den Brightness-Wert auslesen. Dieser ist wichtig, da er bestimmt auf welcher Position der Verlaufsmarker gesetzt werden sollte. Lautet der B-Wert z.B. 29, muss auch der Marker auf die Position 29 %.

Bildschirmfoto 2017-11-12 um 15.01.33

4. Damit später die Tiefen und Lichter keinen Farbstich bekommen, sollte der Farbverlauf auf beiden Seiten noch transparent auslaufen.

Bildschirmfoto 2017-07-07 um 12.04.05

5. Zuletzt kann man, bei Bedarf, noch die Deckkraft der Ebene anpassen. Ich bewege mich da meist zwischen 60 und 80 %. Wer sicherstellen will, dass diese Korrektur nur die Farben und nicht die Luminanz eines Bildes ändert, kann die Ebene auf die Füllmethode »Farbe« stellen.

6. Die Verlaufsumsetzung ist somit fertig. Im Anschluss muss sie nur noch in das Bild einmaskiert werden.

Comments

Photoshops Histogramm als Qualitätskontrolle?

Immer wieder liest man, dass die Qualität eines Bildes mit dem Histogramm beurteilt werden kann. Dabei ist natürlich vor allem die Rede davon, ob das Histogramm Löcher aufweist – die Tonwerte also gespreizt wurden. Das passiert zum Beispiel immer dann, wenn der Kontrast erhöht wird. Und tatsächlich ist das nicht wünschenswert, aber:
Das Histogramm sagt leider nicht zwangsweise etwas über die Qualität aus. Denn es kann irrsinnig einfach manipuliert werden. Oder besser gesagt, das Bild kann irrsinnig einfach manipuliert werden, so dass das Histogramm O.K. aussieht.

Ein Beispiel: So sieht ein typisches Histogramm von einem kontrastverstärkten Bild aus:

histogramm-before
Die Löcher deuten auf die Spreizung hin.


Es reicht aber, wenn man auf das Bild eine Bewegungsunschärfe mit 1 Pixel anwendet, um das Histogramm wieder zu glätten. Ebenso könnte man den Gaußschen Weichzeichner (mit 0,3 Pixel) darauf anwenden oder das Bild leicht drehen. All das lässt das Histogramm besser aussehen (siehe unten), obwohl die eigentlichen Daten dabei verschlechtert werden.

histogramm-after

Das soll jedoch keinesfalls heißen, dass das Histogramm nur wertlose Informationen zeigt. Im Gegenteil, es lassen sich damit sehr vielfältige Informationen ablesen: Wie sind die Tonwerte verteilt? Wird die Tonwertbreite komplett genutzt oder ist eine Tonwertkorrektur angebracht? Darüber hinaus lassen sich in der erweiterten Ansicht auch viele statistische Angaben ablesen:

histogramm-statistik

Man muss aber daran denken, dass das Histogramm nicht immer die ganze Wahrheit über ein Bild verrät.


Adobe bietet auf der Hilfeseite übrigens einen guten Artikel über die Funktionen des Histogramms in Photoshop.


Comments

Wie ändert man die Farbtemperatur eines Bildes?

Die einzig akkurate Möglichkeit die Farbtemperatur eines Bildes zu ändern, ist nur dann gegeben, wenn das Bild als Raw-Datei vorliegt. Diese Datei enthält die notwendigen Metadaten, um absolute Farbtemperaturkorrekturen vorzunehmen. Der technische Hintergrund: Aufgrund der mitgespeicherten Metadaten weiß Adobe Camera Raw (oder auch Lightroom), mit welchem Weißabgleich das Bild aufgenommen wurde. Da dem Programm somit die Quelle bekannt ist, kann auch ein absolutes Ziel angegeben werden (z.B. 5600 K):

temp_kelvin


Darüber hinaus verfügt Adobe Camera Raw über die Möglichkeit auf die linearen (Gamma 1,0) Daten zuzugreifen. Damit können Weißpunktanpassungen viel genauer vorgenommen werden.

Es besteht zwar auch die Möglichkeit, ein Nicht-RAW-File in ACR zu öffnen, allerdings sind damit nur relative Farbtemperaturkorrekturen möglich. Die Kelvin-Skala wird dann zu einer relativen Skala mit den Werten von –100 bis +100.

temp_relativ


Darüber hinaus können auch andere Werkzeuge für Farbtemperaturänderungen benutzt werden. Die Fotofilter-Einstellungsebene bietet dafür eine simple Möglichkeit. Zu beachten ist dabei jedoch, dass hiermit nur analoge, optische Filter reproduziert werden, ohne dass dabei ein direkter Bezug zur Farbtemperatur (in Kelvin) hergestellt wird.

Die ersten sechs Filter basieren übrigens auf echten Fotofiltern.

fotofilter


Die Warmfilter (85) und (81) und Kaltfilter (80) und (82) sind das digitale Equivalent der Wratten-Filter. Und die LBA- und LBB-Filter basieren auf Fuji-Filtern.

Der Warmfilter 85 und LBA kann dafür verwendet werden, wenn ein Bild außen aufgenommen wurde, die Kamera aber auf Innen oder Kunstlicht konfiguriert war. Der Kaltfilter 82 und LBB kann dann für den umgekehrten Fall benutzt werden.

Comments

»Der Gradationskurven-Streit« oder Dan Margulis, Thomas Knoll und die Sättigung

Photoshop
Eine kontraststeigernde Master-Curve-Gradationskurve führt in Photoshop zwangsweise zu einem gesättigteren Bild. Das ist nicht immer gewünscht und viele Anweder wundern sich darüber. Die Frage ist daher: Soll das so sein? Die Anwort darauf lautet: Ja!

s-kurve
»Master-Curve« nennt man die Kurve, die alle drei bzw. vier Kanäle gleichzeitig bearbeitet.


Allerdings waren sich zu diesem Thema zwei prominente Photoshopper uneins. Die Rede ist von Autor Dan Margulis und niemand geringerem als Photoshop-Erfinder Thomas Knoll.

Dan Margulis war (oder ist) der Meinung, dass Gradationskurven im RGB-Farbraum den Farbton und die Sättigung eines Bildes zerstören. Er rät daher in diesem Zusammenhang zur Nutzung von LAB. Damit kann die Gradationskurve dann nur im L-Kanal angewandt werden, sodass Farbton und Sättigung unverändert bleiben.
Thomas Knoll meint allerdings, dass das Modifizieren des Kontrasts die Sättigung verändern soll. Dieses Thema wurde 2007 in vielen Foren wochenlang diskutiert und führt auch heute noch zu Diskussionen. Fakt ist, dass Thomas Knoll Master-Curve-Einstellungen so entwickelt hat, dass die Sättigung davon beeinflusst wird. Er sagte dazu einmal, dass es sogar einfacher wäre, Gradationskurven ohne diesen »saturation boost« zu programmieren, aber er hat sich dazu entschlossen, da dies in den meisten Fällen zu optisch ansprechenderen Ergebnissen führt.

Die Lösung
Im Grunde ist diese Diskussion aber etwas bizarr, da man dieses Verhalten auch im RGB-Modus bei Bedarf ganz leicht verändern kann: Man muss dazu nur die Gradationskurven-Einstellungsebene auf die Füllmethode »Luminanz« stellen bzw. die Gradationskurve über Bearbeiten > Verblassen > Luminanz dementsprechend anpassen. Somit wirkt sich die Gradationskurve eben nur noch auf die Luminanz des Bildes aus. Das Ergebnis entspricht zwar nicht exakt der von Dan Margulis empfohlenen Alternative über den LAB-Farbraum, reicht aber für den Zweck vollkommen und hat den großen Vorteil das man den RGB-Farbraum nicht verlassen muss.

Lightroom und Camera Raw
All das trifft auch auf Lightroom und Adobe Camera Raw zu. Allerdings haben beide dennoch eine Eigenheit in Bezug auf Gradationskurven, die sie von Photoshop unterscheiden. Gradationskurven sind dort nämlich »hue-protected«. D.h. der Farbton wird geschützt, während er in Photoshop eben durchaus verändert werden kann. In der Leseprobe zu dem Buch »The Adobe Photoshop Lightroom Book« von Martin Evening wird den Unterschied sehr detailliert erklärt. Hier ein kleiner Auszug:

But Lightroom/Camera Raw curves do work slightly differently from Photoshop curves and this is because Lightroom curves have a hue lock. This means that when Lightroom maps the RGB values from the before state to the Tone Curve state, it will map the minimum and maximum RGB values (in the linear Lightroom RGB workspace) allowing the hue to vary. But when mapping the middle RGB value, the hue is preserved. Photoshop curves meanwhile have no hue lock and therefore when you apply a strong curve adjustment in Photoshop the hue values can shift quite a bit from the original before values. This in turn can lead to some noticeable color shifts in the processed image. Lightroom/ACR curves do also produce hue shifts, but these are more tightly controlled so that what hue shifts there are, are usually within plus or minus 3°. As I said, Tone Curves in Lightroom that increase the contrast, will boost the saturation, but from the conclusions I draw later, Lightroom/ACR tone curves are on average about 1–2% less contrasty than curves that are applied via Photoshop in the Normal blend mode. In practice this means that Lightroom tone curve adjustments will have smaller hue shifts and the colors are represented better.



Comments

Tonwertkorrektur vs. Gradationskurven

Jede Änderung, die sich mit einer Tonwertkorrektur vornehmen lässt, kann auch mit den Gradationskurven realisiert werden. (Umgekehrt gilt das nicht.) Doch welche Regler bewirken dieselbe Änderung? Die folgende Grafik gibt darauf eine Antwort:
tonwert-vs-gradation-blog
Comments

Mischt Photoshop Farben falsch?

photoshop-80px
Einleitung
Dieses Thema setzt ein gewisses Grundwissen über die Gammacodierung voraus. Wer will, kann sein Wissen daher in meinem Artikel »Gamma und Gammakorrekturen verstehen« auffrischen.

Gammacodierung vs. lineare Codierung
Es gibt zwei Möglichkeiten, wie Photoshop RGB-Farben mischen kann: unter Berücksichtigung des im Dokument definierten Gammas oder mit einem linearen Gamma (auch Gamma 1,0).

Sehen wir uns zunächst an, wie Photoshop mit den Standardeinstellungen arbeitet, also unter Berücksichtigung des Dokument-Gammas:

Die meisten Anwender kennen wahrscheinlich solche Ergebnisse, wie sie zum Beispiel beim Weichzeichnen oder beim Malen mit weichen Pinselspitzen entstehen:

example-gamma-encoded-mixing


Ich spreche von den dunklen Stellen, die beim Mischen von zwei Farben entstehen. Diese sehen im ersten Augenblick nicht unbedingt so aus, wie wir sie erwarten würden. Doch warum ist das so?

Weiterlesen ...
Comments

Gamma und Gammakorrekturen verstehen

Der Begriff »Gamma« ist sehr vielschichtig und lässt sich kaum eindeutig definieren, da er in diversen Disziplinen unterschiedlich benutzt wird. Dieser Artikel handelt ausschließlich von Gamma als Korrekturfunktion in der digitalen Bildbearbeitung und dessen historischen Hintergrund.

In der Bildbearbeitung definiert das Gamma das Verhältnis zwischen dem numerischen Wert eines Pixels und dessen tatsächlicher Leuchtdichte. Mathematisch gesehen sprechen wir beim Gamma von einer Potenzfunktion, deren Exponent eben Gamma genannt wird.

gamma-function

Wieso brauchen wir das Gamma?
Dafür gibt es einen historischen Grund, und dieser kommt aus der Fernsehtechnik. Bereits in den 40er-Jahren wurden zum Fernsehen Röhrenmonitore benutzt. Bei diesen »Cathode Ray Tube«- oder kurz CRT-Monitoren ist das Verhältnis zwischen der Eingangsspannung und der tatsächlich am Monitor resultierenden Leuchtdichte nicht linear. So erzeugt die Hälfte der maximalen Eingangsspannung am Monitor nicht 50%, sondern nur etwa 18% der maximal möglichen Leuchtdichte. Schuld daran ist die Arbeitsweise der Elektronenkanonen, die in den Röhrenmonitoren verbaut wurden. Weiterlesen ...
Comments

Rauschen erzeugen mit Photoshop

Weichzeichner-Galerie
Es gibt in Photoshop mehrere Wege, Rauschen zu erzeugen. Es gibt aber auch mehrere Möglichkeiten, wie man dieses Rauschen hinzufügt. Einerseits kann man es direkt auf die Ebene anwenden, andererseits besteht auch die Möglichkeit, non-destruktiv zu arbeiten. Ich bevorzuge eindeutig letztere Variante. Die Vorgehensweise ist folgende:

Man erstellt eine neue Ebene, füllt diese mit 50 % Grau (Bearbeiten > Fläche füllen > 50 % Grau) und stellt die Füllmethode auf »Ineinanderkopieren« oder »Weiches Licht«. Die Filter wendet man anschließend auf diese Ebene an. Hiermit befindet sich das Rauschen auf einer separaten Ebene und kann jederzeit wieder gelöscht oder mittels Deckkraft-Regler verringert werden.Weiterlesen ...
Comments

Realistische Bewegungsunschärfe: Virtual Rig Studio vs. Bleex vs. Photoshop

Motion Blur Carl Lyttle

Eine der Königsdisziplinen in der Automobilfotografie sind sogenannte Rigshots. Dabei wird die Kamera mittels eines sogenannten Rigs an das Auto montiert. So kann das fahrende Auto aus der Bewegung heraus fotografiert werden. Die dadurch entstehende Bewegungsunschärfe erzeugt eine spannende Dynamik. Leider sind professionelle Rigshots sehr aufwändig und enorm kostspielig. Denn das Rig muss am Fahrzeug montiert werden, aus Sicherheitsgründen müssen meist ganze Straßenzüge für die Aufnahme gesperrt werden, Bewilligungen müssen eingeholt werden und noch dazu muss das Rig am Ende aus der Aufnahme wieder hinausretuschiert werden (siehe unteres Bild). Viele Gründe, warum man die Bewegungsunschärfe digital realisieren sollte.Weiterlesen ...
Comments