Diesmal geht es um Farbe. Und weil ich irgendwie zu doof bin, nachträglich Links in die Shownotes einzupflegen, gibt es die Links, die Chris mir geschickt hat nicht unten in der Liste, sondern hier: Eigenschaften von Auge und Licht, The Sky Isn’t Blue, Farben: Frauen und Männer, Elektromagnetisches Spektrum, Natrium und sein Spektrum,
Farbkreise und Farbschemata mit Kuler.
Mit Chris Marquardt und Holger Klein (Chris Marquardt — Discover the top floor — Tips from the top floor) .
Kommentare zur letzten Ausgabe — Happy Shooting — Die Fragenden werden gebeten, ihre Fragen an Happy Shooting zu wenden — "Hau' 'rein!" (Holgis Standard-Antwort auf die Frage, was man als Anfänger zum Podcasten braucht) — TFTTF 189.
Holgi war in Venedig und fragt sich, ob er seine Fotos veröffentlichen darf — Philip Lorca diCorcia (Rechtsstreit auf Wikipedia) — Panoramafreiheit — Chris würde seine Fotos einfach veröffentlichen — Leute in Venedig von Holgi — Anmerkung von Alex zur Amerikanische Einstellung — Eselsbrücke: der Revolver im Holster.
Objektivität von Farbe durch Messung des Spektrums — "Fahren Sie es ist grau!" (Holgi) — Aufbau de Auges (Stäbchen — Zäpfchen) — Makula — Psychoakustik — Metamerie — Spektrum — Farbkreis — "Es gibt kein Blau" (Chris) — Radiolab — Gladstone-Studie — In historischen Texten taucht kein Blau auf — Selektive Wahrnehmung — Joe Hallocks Studie von 2003 — Deprivation — Albrecht-Dürer-Kasten von Faber-Castell (Albrecht Dürer) — Farbtemperatur — Schwarzkörper — Kelvin Temperaturskala (Blenden- und Farbtemperatur-Bezeichnungen verhalten sich beide kontraintuitiv) — "Muss man wissen!" (Holgi zitiert Axel Stoll) (Axel Stoll) — Warme Farben wirken anziehender — Schwarz-Weiß-Fotographie (Bild von Holgi - "Giardini") .
Bayer-Array — Demosaicing — Treppeneffekt — Antialiasing (Antialiasing-Filter) — Moiré-Effekt — Microlensarray — Vignettierung — Backside Illuminated Sensor.
(Farbmanagement bei Wikipedia) — Weißabgleich — Weißabgleich über Presets — Nachträglicher Weißabgleich (RAW-Format) — Weißabgleich mit Hilfsmitteln (Papier ist nicht immer gleich weiß) — Ein Weißmacher bei Waschmittel und Papier ist immer ein Blaumacher — Gewünscht ist eine neutrale Referenz — Graukarte — Neutrale Farben sind nicht immer vorteilhaft, Bilder können langweilig wirken (Blade Runner) — Colour Matching — Matrix — Farbschema — Website des großen Ofenkäse Herstellers — Kuler — Schemen heißen Schemata — Farbkreis — Komplementärfarbe — Filmplakate mit gleichem Kontrastschema — Malen nach Zahlen (Knüpfen nach Zahlen — Ministeck) — Match Color in Photoshop — Bildschirm P (Spyder — i1) — Farbprofile (ICC Profil) — Natriumdampflampe — X-Rite ColorChecker Passport (Die Graukarte hilft beinahe genauso gut und am Ende passt man die Farbtemperatur sowieso noch an) — Tint/Farbton-Regler — Drucker-Profilierung (Papier- und Lichtfarbe haben auch Einfluss auf die Farben) — Kolorimeter — Bildschirm mischt Farben additiv (subtraktive Farbmischung) — "Alle Kameras, die in den letzten 3, 4 Jahren hergestellt wurden, haben gute Farben." (Chris) — Chromatische Aberration.
Holgis Foto "Fondamenta Nuove" — Chris empfiehlt bei der Umwandlung nach Schwarz-Weiß an den einzelnen Farbkanälen zu "zupfen" — Chris würde dem Weg "Klarheit" hinzufügen um ihn weiter hervor zu heben.
Begrüßung
00:00:00Rückblick
00:01:14Veröffentlichung ohne Einverständnis
00:05:10Wahrnehmung von Farben
00:13:31Farben in Kameras
00:39:21Farbmanagement
00:52:42Fondamenta Nuove
01:41:16Verabschiedung
01:45:54
Hellou,
wir haben doch das Internet 🙂 Um die eigene Farborientierung zu testen, empfiehlt sich folgender Link:
http://www.xrite.com/online-color-test-challenge
Kurze Antwort zur Frage mit der Kamera mit der man das meiste Altglas adaptieren kann:
Eigentlich eine Canon DSLR. Diese besitzt mit ihrem EF-Bajonett Anschluss einen der ältesten Standards, was bedeutet, dass man wirklich auf eine grosse Anzahl an Objektiven von und für Canon immer noch an aktuellen Modellen anschliessen kann. Zum anderen haben die Canons mit EF-Anschluss ein relativ niedriges Auflagemass von 44m (Abstand Sensor/Anschlussebene), was dazu führt dass man zudem mit einem einfachen Abstandsadapter auch eine stattliche Anzahl von Objektiven anderer Hersteller anschliessen kann (auch Nikon), ohne dass eine zusätzliche Optik im Adapter verbaut sein muss.
Zwar gibt es noch andere DSLRs, die ein noch niedrigeres Auflagemass haben, aber Canon ist populärer und damit sind viele Adapter einfacher zu beschaffen. Zudem könnte man mit nur einem Adapter (mit Optik) auch den noch älteren FD-Standard von Canon anschliessen.
Zum Thema Farbwahrnehmung: Was Chris zum Thema Zäpfchen sagt, ist zwar richtig. Der Rezeptor, der gelb wahrnimmt, wird jedoch auch als Rotrezeptor bezeichnet, weil er hauptsächlich für die Wahrnehmung von Rot verantwortlich ist.
So, Klugscheißermodus aus. 🙂
Danke für die tolle Sendung! Insbesondere den farbhistorischen Teil fand ich sehr interessant, auch wenn ich mich als Gestalter viel mit Farben beschäftige war viel Neues dabei!
Hallo Holgi,
mal eine Anmerkung zu Deinen Podcast an sich: in meinen Ohren ist die Vorspann/Abspannmusik zu laut, könntest Du sie bitte etwas leiser machen? Wenn ich den Podcast so höre und ich mich auf die Stimme eingepegelt habe knallt es am Ende ganz “schön” rein.
Ansonsten wieder eine sehr interessante Sendung, danke.
ein Gruß
Andreas
Hätte noch zwei vertiefende Fragen zum Thema Farbe.
Zum einen kann ich bei meiner Spiegelreflex den Farbraum einstellen (sRGB vs. Adobe-RGB). Was hat es damit konzeptionell auf sich und welche Konsequenzen hat es.
Zum anderen habe ich dank der guten Erklärung endlich verstanden was Bayering in der Prozessierung der Sensorauslesung macht. Und gleich eine Anschlussfrage. Man stößt bei der Nutzung des Videomodus aber auch in der JPEG Fotografie immer wieder mal auf eine “Farbunterabtastung” in “4:4:4”, “4:2:2”, “4:2:0” usw. werde aber aus den mir zugänglichen Erklärungen nicht wirklich schlau. Würde mich sehr freuen, wenn Chris die Unterschiede so verständlich und einfach erklären könnte wie den Bayer-Array.
Vielen Dank
Jan
Zur Farbunterabtastung (Chroma Subsampling):
Hey Jan,
vielleicht kann ich dir schon helfen 🙂 Es ist recht abstrakt, sich das vorzustellen. Daher ein paar Bilder zur Veranschaulichung und ein kurzer Ausflug durch Farbräume und Nomenklatur mit ein bisschen Mathe und Biologie. Es tut auch kaum weh!
Bei der Farbunterabtastung handelt es sich um ein Verfahren zur Kompression. Es wird also eingesetzt, um Speicher zu sparen. Die Darstellung der 3 Zahlen mit den Doppelpunkten (z.B. 4:2:2) ist tatsächlich erstmal etwas verwirrend, daher werde ich kurz ein wenig ausholen.
Unser Auge ist für Helligkeitsunterschiede deutlich empfindlicher als für Farbunterschiede. Das merkt man ganz gut daran, dass man nachts alles “schwarz/weiß” sieht. Es ist daher möglich, die Menge an Farbinformationen in einem Bild im Vergleich zu den Helligkeitsinformationen zu reduzieren, ohne dass wir in einem normalen Anwendungsfall einen großen Qualitätsverlust wahrnehmen. Der kommt meist erst zum Tragen, wenn man das Bild nachbearbeiten möchte.
Um diese Art der Kompression umzusetzen, müssen Farb- und Helligkeitsinformationen getrennt werden. Hierzu verrechnet man die roten, grünen und blauen Pixel mit einer Gewichtung – entsprechend unserer Wahrnehmung – in einen Helligkeitskanal (R+G+B), genannt Y, und zwei Farbdifferenzkanäle. Sie werden mit U und V abgekürzt. Man kann sich das wie ein dreidimensionales Koordinatensystem vorstellen. Dieses Bild macht ein solches Modell recht anschaulich: http://upload.wikimedia.org/wikipedia/commons/b/b8/YCbCr.GIF
Das s.g. YUV Farbmodell ist in der Lage, wie RGB auch, mit 3 Werten einen Farbraum abzubilden – jedoch mit dem attraktiven Vorteil, dass alle Informationen zur Helligkeit in einem getrennten Wert Y isoliert sind (Vergleiche Bild: Wenn man sich auf der Y Achse bewegt, ändert sich die Helligkeit. Bei RGB müsste man dazu alle 3 Werte verändern).
Soweit bringt das noch keinen Vorteil für die Datenmenge, da ja mit Y, U und V weiterhin für jedes Pixel 3 Werte gespeichert werden müssen – wie bei RGB auch. Da aber jetzt Farb- und Helligkeitsinformationen getrennt sind, kann man sich die Eigenschaften unseres Auges zu Nutze machen. Je nach Typ der Kompression lässt man z.B. für jedes zweite Pixel die Farbinformationen einfach weg. Es wird also nur der Y-Wert gespeichert und für die Farbe dann die U und V Werte eines benachbarten Pixels verwendet. Das spart Speicherplatz und ermöglicht weiterhin Details abzubilden, da der wichtigere Helligkeitswert ja immer vorhanden ist. Dennoch ist dieses Verfahren natürlich verlustbehaftet, es werden ja Informationen gelöscht.
Zur Schreibweise: Die drei Zahlen beschreiben, nach welchem Schemata Informationen reduziert werden. Man beschreibt einen beispielhaften Block aus Pixeln mit den 3 Werten J:a:b (4:4:4, 4:2:2, usw.). J steht für die Anzahl an Pixeln, die betrachtet werden soll. Vorausgesetzt werden immer 2 Reihen von Pixeln, die jeweils J Pixel breit sind. Es wird aber quasi immer von J = 4 gesprochen (_4_:4:4, _4_:2:0, usw.), sodass ein Block von 4 Pixeln in 2 Reihen beschrieben wird. Während jedes dieser Pixel einen Helligkeitswert Y erhält, beschreibt die zweite Zahl (a, z.B. 4:_2_:2), wie viele Pixel in der ersten Reihe des Blocks und die dritte Zahl (b, z.B. 4:2:_2_), wie viele Pixel in der zweiten Reihe des Blocks eine Farbinformation bekommen. Allen Pixeln ohne Farbinformation wird einfach die des benachbarten Pixels zugewiesen. Dieses Bild macht es sehr anschaulich: http://upload.wikimedia.org/wikipedia/commons/f/f2/Common_chroma_subsampling_ratios.svg
Die erste Zeile zeigt das 4:4:4 Sampling, bei dem jedem Pixel sowohl Helligkeits- als auch Farbinformationen zugewiesen sind. Es findet also keine Kompression statt. Bei 4:2:2 (Bild zweite Zeile) wird zwar jedem Pixel ein Helligkeitswert zugewiesen, jedoch nur jedem zweiten Pixel auch die Farbinformationen U und V. Sie sind um die Hälfte reduziert. Kombiniert mit dem Y-Wert jedes einzelnen Pixels entstehen daraus wieder Farben, die bei jedem Bildpunkt unterschiedlich sind.
Verschiedene Arten des Subsamplings haben unterschiedliche Vor- und Nachteile, vor allem bei der Ausbildung von unerwünschten Bildfehlern und der Reduktion der Datenmenge. Allgemein kann man sagen, dass 4:2:2 – vor allem für Video – ein guter Mittelweg ist, der auch bei professionellen Systemen eingesetzt wird.
Ich hoffe, dass das verständlich war, obwohl ich so viele verschiedene Teilbereiche anschneiden musste. Bei Fragen einfach fragen 🙂
Nils
tl;dr: Farbunterabtastung beschriebt ein verlustbehaftetes Verfahren zur Reduktion der Farbinformationen. Während jedem Bildpunkt eine Helligkeitsinformation zugewiesen wird, erhält nur z.B. jeder Zweite auch einen Farbwert. Dadurch kann Speicher gespart werden. 4:2:2 ist ein guter Mittelweg für Video.
FRAGE:
Beim Fotografieren mit Polfilter, Verlaufsfilter, etc. … mache ich den manuellen Weißabgleich mit oder ohne Filter?
Zu Filtern habt ihr (glaube ich) noch gar nichts gesagt.
Was genau macht der Polfilter, und wann macht es Sinn ihn zu benutzen?
(Ich gehe jetzt davon aus, dass Du den Weißabgleich mit Hilfe einer Graukarte machst.)
Verlaufsfilter gibt es in unterschiedlichen Stärken und Farben. Die neutralgrauen (Bezeichnung ND) sollten, wie der Name schon sagt, farbneutral sein. Aber beachte einmal folgenden Gedankengang:
Du willst den Verlaufsfilter ja einsetzen, um den hellen Teil des Bildes (meistens der Himmel) abzudunkeln, um ihn dem dunklen Teil des Bildes (den Boden) in Bezug auf die Helligkeit anzugleichen damit Du den Dynamikumfang der Kamera gut ausnutzen kannst.
Sollte der Filter wirklich vollkommen farbneutral sein, dann ist es egal, ob Du den Weißabgleich mit oder ohne Filter machst. Ist der Filter aber nicht ganz farbneutral, dann wären die Farben vorher und nachher anders, d.h., mach den Weißabgleich mit aufgesetztem Filter.
Extremfall: Es gibt diese Filter auch in blau oder orange (für tiefblauen Himmel oder für intensive Sonnenuntergänge). Stell Dir jetzt vor, Du machst den Weißabgleich mit so einem aufgesetzten Farbfilter. Was wird herauskommen? Du sagst ja jetzt dem Computer, dass diese Graukarte ja in Wirklichkeit grau sein soll, d.h., der “Farbstich” wird jetzt entfernt! Genau das willst Du beim Farbfilter aber nicht haben.
Fazit:
Willst Du neutrale Farben beim Neutralfilter: Weißabgleich mit Filter
Willst Du bewusst veränderte Farben bei Farbfiltern: Weißabgleich ohne Filter
Einen Polfilter verwendet man dann, wenn man Reflexionen reduzieren will. Das von der Sonne auf spiegelnden Flächen reflektierte Licht ist polarisiert und der Polfilter kann so gedreht werden, dass er diese Reflexionen zum Großteil ausblenden kann.
Anwendungsfälle:
* Fische im Teich
* Objekte hinter Glas (Fische im Aquarium, Personen hinter Fenstern)
* Landschaftsaufnahmen
Die Reflexionen auf Wasseroberflächen oder Glasplatten sollten klar sein. Du drehst den Polfilter so, dass die Lichtreflexe verschwinden.
Bei den Landschaftsaufnahmen macht man es, weil das Sonnenlicht an den kleinen Wassertröpfchen in der Luft und auf den Blättern der Bäume Reflexionen erzeugt. Das führt dann zu dem leichten Grauschleier, den Du in großer Entfernung siehst und der alles leicht abgestumpft aussehen lässt. Der Polfilter reduziert nun diese Reflexionen und das Blattwerk und der Himmel sehen danach ziemlich knackig aus.
Der Polfilter hat übrigens die größte Wirkung, wenn das Sonnenlicht im rechten Winkel auf die Szene fällt, die Sonne also links oder rechts von Dir steht.
Eine Anmerkung zur Farbtemperatur: rote Farben sind für uns deshalb wärmer als andere, weil die Strahlung, die wir direkt über die Haut als Wärme empfinden im infraroten Bereich liegt, also langwelliger ist. Für UV-Strahlung, die sozusagen am anderen Ende des für uns sichtbaren Spektrums liegt, haben wir keine Sensoren im Körper, sodass wir sie nur indirekt wahrnehmen können.
Zum Thema Farbmanagement im Kino rate ich DRINGEND davon ab, “teal and orange” zu gugeln. Das verdaut einen tatsächlich.
Eine nette Offline-Alternative zu Kuler für Linux-Nutzer ist übrigens agave:
http://home.gna.org/colorscheme/
Anscheinend ist es auch unter MacPorts verfügbar für OSX-Benutzer.
Hallo,
danke für die tolle Themenserie! Beim Thema Kalibrieren von Medien (Bildschirm, Drucker, Papier, etc.) hätte ich noch eine Sache – nämlich die menschliche Wahrnehmung. Ich mache öfters Nachbearbeitungen, z.B. von Architekturrenderings mit photoshop. Dabei ist mir schon öfter passiert, dass mir die Farben subjektiv stimmig vorkamen (z.B. einer hellen Putzfassade). Wenn ich dann einen Tag später, also mit etwas zeitlichem Abstand, nochmal draufschaue, sehe ich plötzlich einen Farbstich auf der Fläche, oder sogar auf dem ganzen Bild. Kennt ihr das, bzw. habt ihr einen Tipp dagegen? Kann man seinen Blick auch kalibrieren?
Viele Grüße von @pabibsaar
Hallo Patrick,
Beim Kalibrieren ist die Kompensierung des Umgebungslichts entscheidend. Ändert sich das Umgebungslicht, muss sich die Monitorkalibrierung auch ändern.
Im Optimalfall hast du also ein konstantes Umgebungslicht wenn du Bilder bearbeitest (Raum abdunkeln, so kannst du dein Licht kontrollieren) und kalibrierst passend dazu.
Hierzu gibt es verschiedene Geräte, mit denen man neben den Farbkurven auch den Kontrast auf dein Umgebungslicht hin anpassen kann.
Mein Spyder hat beispielsweise so einen Sensoren für das Umgebungslicht, damit kann ich das machen.
Hallo,
eine sehr schöne Serie, danke dafür. 🙂
Ich denke, es gibt viele Zuhörer, die sich gern austauschen würden, was ihre eigenen Bilder angeht.
ist es möglich, eine eigene kleine Wrint-Ecke bei Flickr oder 500pix zu gründen, wo wir virtuelles Bilderbesprechen machen? Ich hätte Spaß daran, vielleicht auch jemand Anderes?
Grüße!
Hi,
an sich sehr schöner Podcast. Sehr toll fand ich den philosophischen Aspekt mit dem Wort für Blau 🙂 großes Kino!
Aber am Schluss musste ich doch ab und an in meine Tischkante Beißen…
Dabei gehts um additive vs. subtraktive Farbmischung.
Da ist die Sache eigentlich ganz einfach: es geht um LICHT.
Also ADDITIV: wir fügen Licht dazu
SUBTRAKTIV: wir nehmen Licht weg.
Der Monitor/Beamer/etc. gibt Licht ab, mischt also Licht zusammen (und da sind die Grundkomponenten rot, GRÜN und blau (keine Ahnung was Holgi da mit Gelb anfangen will))
Wenn ich mit dem Tuschkasten/Drucker oder sonstwas Farbe auf eine weiße Fläche tue nehm ich damit Licht weg (weil nicht mehr alles reflektiert wird) und da sind die Grundfarben Cyan, Magenta und Gelb (Hier gehört das Gelb hin!)
(Also man sollte das Wissen was man da im Kunstunterricht bekommt am besten Wegwerfen, da es ganz genau genommen falsch ist… also Farben im Farbkasten mit Rot, Gelb und Blau zu mischen…)
Beim Drucken hat man also die problematische Umwandlung von RGB (Rot-Grün-Blau) zu CMY-K (Cyan-Magenta-Yello Key (Key steht hier für die Menge von schwarz)).
Also sich hier Lichkegel vorstellen (Scheinwerfen auf einer Bühne z.B.) https://upload.wikimedia.org/wikipedia/commons/thumb/e/e0/Synthese%2B.svg/220px-Synthese%2B.svg.png
und hier Druckerfarbe die geschichtet wird:
https://upload.wikimedia.org/wikipedia/commons/thumb/5/52/Synthese-.svg/220px-Synthese-.svg.png
Liebe Grüße,
Johannes
Mal ein bisschen Klugscheissen: Mein Biologielehrer hat der Klasse einst wiederholt erklärt, dass es sich bei den Rezeptoren im Auge um Stäbchen und Zapfen handelt. Zäpfchen hingegen führe man sich bedarfsweise rektal ein. Das blieb bei mir so nachhaltig hängen…
Chris sprach im Rahmen von Farb-Schemataä von Programmen, in die man Bilder reinschmeißt und die die wichtigsten Farben, bzw. ein Farbschema des Bildes ausgeben. Hat jemand dazu Links?
Hallo Holgi & Chris,
das was ihr über Bildstimmungen durch Farbschemata
oder Farbtemperatur erläutert habt, habe ich mit selbst-
geschossenen Bilder nachgestellt und auch schriftlich
nochmal erklärt.
Den Post auf meinem Blog findet ihr hier:
Würde mich freuen, wenn das irgendwem hilft
oder ihr mal vorbeischaut.
Liebe Grüße,
Franz
Hi, vielen Dank, hat mal wieder richtig Spaß gemacht.
Kleine Korrektur zu der Geschichte mit dem Kind und der Farbe des Himmels: Die Eltern haben dem Kind sehr wohl auch blaue Sachen gezeigt, nur eben NIE den Himmel farblich eingeordnet und als das Kind mit den Farben inkl. blau sicher umgehen konnte, haben sie es gefragt, welche Farbe denn der Himmel hätte und dann hatte das Kind Schwierigkeiten.
Viele Grüße