WERBUNG

RAW dateien mit +2 EV überbelichten?

Guckt mal hier.

Finde ich äußerst erhellend.
 
Das ist dann nicht richtig belichtet, weil das Bild dann oft dennoch insgesamt zu dunkel ist, aber so kann man das Bild aufhellen und in den hellsten Stellen ist noch Zeichnung drin.

Ich habe in meinem Beispiel überhaupt keine Aussage getroffen wie hoch der Dynamikumfang des Bildes ist. Wenn es sich beim zu Fotografierenden Objekt um eine weiss gestrichene Wand in der Sonne handelt ist die 2 Blendenstufen heller als Neutralgrau, Du misst mit Spot an, drehst die Belichtung auf +2EV und das Bild ist richtig belichtet. Punkt. Für Bilder deren Dynamikumfang an oder über die darstellbare Grenze des Aufnahmemediums gehen muss man von Fall zu Fall entscheiden.

Nach meiner Erfahrung eigentlich umgekehrt. Unterbelichtete Bereiche lassen sich viel besser aufhellen. Daher "nach rechts belichten" und nicht "nach links belichten". So hat man in den hellsten Stellen Zeichnung und kann die dunklen Stellen aufhellen. Das ist besser, als wenn in den dunklen Stellen noch Zeichnung drin ist und die hellen Stellen dafür ausgefressen sind.

Du hast nicht ganz verstanden über was wir uns hier unterhalten.
Wenn der Dynamikumfang größer ist als das was der Chip darstellen kann ist es immer eine Fallentscheidung pro Bild ob ich die Schatten absaufen oder die Lichter ausfressen lassen oder ein HDR machen will (falls möglich).

Ist der Dynamikumfang des Bildes kleiner als das was der Chip darstellen kann (und man arbeitet in RAW), kann man getrost die Belichtung soweit nach links schieben dass grade so keine Lichter ausfressen. Dann hat am Schluss das besser durchgezeichnete und rauschärme Ergebnis wenn man es im (guten!) RAW Konverter wieder richtig dreht.
 
Das hat mit Überbelichtung nichts zu tun.
Du hast Belichtungsmessung nicht verstanden.
Hübsch wie Du erkennst was andere hier vestanden oder nicht verstanden haben.

zu "irgendwelchen EV-Werten über neutralgrau" meinst Du
Doch, es hat nur und ausschliesslich damit zu tun...
Wie ich bereits weiter oben schrieb, gibt es "richtig" belichtete Fotos welche das ganze Tonwertspektrum umfassen und es gibt ebenso "richtig" belichtete die das nicht tun; Schneelandschaft im Nebel etwa.

Heute zeigt Dir die Kamera im Histrogramm an ...
Das heisst aber nicht dass die Basics der Belichtungsmessung nichtmehr gelten.
Ich wüßte nicht daß diese Basics der Belichtungsmessung was mit der Bildgestaltung zu tun haben.
Wir reden aneinander vorbei, solange Du den Vorgang auf ein reines Meßsystem reduzieren willst.
 
..Dort wird beschrieben, das man RAWs mit +2 EV überbelichten sollte ..


Ich habe nur gefunden: "Daneben kann es sehr hilfreich sein.." Also es kann hilfreich sein - muß es aber nicht.

Ich belichte oft +0,7ev über, weil mir ein helleres Bild besser gefällt. Außerdem macht mir ein Fleckchen rgb=(255,255,255) im Hintergrund das Motiv zu dunkel.
 
Wie ich bereits weiter oben schrieb, gibt es "richtig" belichtete Fotos welche das ganze Tonwertspektrum umfassen und es gibt ebenso "richtig" belichtete die das nicht tun; Schneelandschaft im Nebel etwa.

Richtig, das eine schliesst doch das andere nicht aus.
Du kannst entweder Deine Belichtung drüber steuern in dem Du mit der Spotmessung Dein Sujet ausmisst und dann die Belichtung möglichst optimal in den Dynamikumfang Deines Sensors packst. Dazu gehört dann zu wissen dass der Belichtungsmesser Neutralgrau erwartet, wieveiele Blendenstufen Dein Chip abbilden kann usw. usf. ODER Du benutzt dazu das Histogramm welches Dir die Helligkeitsverteilung über Deinen Chip darstellt und Dir quasi den Rest abnimmt.
ABER: Die tatsache dass es Histogramme gibt, heisst wie gesagt nicht daß die Basics nichtmehr gelten, und genau gegen Diesen Satz von Dir wehre ich mich. Es hat alles sehr wohl mit Neutralgrau, Lichtwerten etc zu tun, auch wenn Du was anderes behauptest.

Und wenn ich behaupte dass der Kollege Belichtungsmessung nicht verstanden hat, dann meine ich das auch so. Er schrub ja:

--------
aber bei meiner D50 ist es so, daß wenn ich die hellste Stelle im Bild anmesse und die Belichtung auf diese hellste Stelle mit knapp 2 Blenden überbelichte
--------

Wenn er die hellste Stelle in seinem Sujet anmisst, und das zum Beispiel eine weisse Wolke im Nachmittagshimmel ist, und er die weisse Wolke auf +2 bis +2,5 EV schiebt, dann ist das halt nicht überbelichtet, wie er schreibt, sondern genau richtig belichtet. Da die weisse Wolke 2-2,5 Lichtwerte über Neutralgrau liegt, da aber seine Spotmessung Neutralgrau erwartet muss er 2-2,5 Lichtwerte zuegeben. Er hat damit Belichtungsmessung nur so halb und nicht ganz verstanden, sonst würde er nicht schreiben er belichtet über.

wüßte nicht daß diese Basics der Belichtungsmessung was mit der Bildgestaltung zu tun haben.
Wir reden aneinander vorbei, solange Du den Vorgang auf ein reines Meßsystem reduzieren willst.

Aua, jetzt vermischst Du aber die Themenbereich sehr wild.
Bleichtungsmessung hat in der Tat gar nichts mit Bildgestaltung zu tun, das sind zwei voneinader völlig unabhängige Vorgänge die noch nichtmal mit dem selben Werkzeug gemacht werden müssen.
Meine Bildgestaltung hängt vom Kamerastandort, der verwendeten Brennweite und des Bildausschnittes ab. Zusätzlich kommt evtl. noch setzen von künstlichem Licht, verwendung von Filtern etc in Frage. Die Belichtungsmessung kann ich auch komplett asserhalb der Kamera mit einem externen Belichtungsmesser machen und weder den internen Beli der Kamera noch das Histogramm vewenden.
 
So, habe mir nun auch folgendes verlinkte Video angesehen

http://www.heintz-werner.de/showthr...o-the-Right-arbeiten-mit-dem-Histogramm/page2

Der Thread ist ja nun schon etwas älter....stimmt das den noch mit den modernen Sensoren?

Ich immer noch nicht verstanden, warum davon ausgegangen wird, das ein Bild die meisten Tonwertinformationen in den Hellen Bereichen hat? (dies These wird relativ zu Beginn des Video aufgestellt) Ist das nicht vom Motiv abhängig? Oderist gemeint, das der Sensor einer SLR eben in den hellen Bereichen empfindlicher ist?

Des weiteren finde ich ist doch auch genau das, was Traumflieger beschreibt, eben nur über das Histogramm erklärt?!
 
Über zu belichten mit Matrixmessung ist problematisch, weil schon diese Messmethode von sich aus dazu neigen kann, über zu belichten.
Ob man selbst eine Überbelichtung in der Hand hat, kommt auch auf die Messmethode an.
Ursprünglich, also seit der CLC Messmethode durch Minolta, wurde davon abgeraten, Mehrfeldmessmethoden zusätzlich zu korrigieren.
Die Mehrfeldmessmethode ist ja dazu geschaffen, problematische Lichtsituationen zu meistern und viele Köche verderben den Brei.
 
hm...ich weiß nicht ob das etwas mit der Meßmethode zu tun hat.

Letztlich würde ich es so machen: Ich gucke mir das Histogramm an und verschiebe dann eher ein wenig nach rechts, da dort eben die Sensoren empfindlicher sind und mehr Details abbilden können. In LR korrigiere ich dann wieder etwas nach. Sehr gut sieht man den Effekt dann wirklich bei hohen ISO Werten...
 
Immer wieder flammt das Thema auf. Man findet genug darüber im Web, wenn man ETTR als Suchbegriff verwendet.

Die Überbelichtung, abhängig von der Sensorgröße und Hersteller, geht grob ausgedrückt davon aus, dass ein maximal belichteter Sensor, auch das beste und vor allem rauschärmste Bild umsetzt.

+2 halte ich auch für etwas viel. Für eine VF wird meistens von +1,5 bis 1,7 ausgegangen.

Ich würde empfehlen mal die Fachliteratur zum Thema ETTR zu studieren, wenn es von persönlichen Interesse ist. Weiterhin ist es ja ein leichtes Vergleichsaufnahmen von -1 bis +2 zu machen und die Ergebnisse auf die Resultate zu vergleichen.

Man sollte sich nur davor hüten, die Moleküle wandern zu sehen. Und nur um das mal zu erwähnen, es gibt es einige Fotografen die geringfügige Überblendungen im Weiß nicht korrigieren. Auch dazu findet man genug Refarate im Netz.
 
Pauschal +2EV ist Unlogisch. Wie immer kommt es auf das Bild an!
Hintergrund ist ja der das die Informationsdichte in den Lichtern höher ist als in den Tiefen. Ein Raw ist also (entgegen weit verbreiteter Annahme) nicht linear.
Eine leichte Überbelichtung erhöht die Durchzeichnung der Tiefen. Dabei sollte ein Bild natürlich nicht ausfressen. Mit +1EV ist man daher oftmals auf der sichereren Seite.
Hier ein professionelles Video zum Thema
 
ok. In diesem Video wird das ganze schon verständlicher. Jedoch würde mir das in einer Lichtsituation wie im angehängten Bild auch nix nutzen, da hier der Dynamikumfang des Bildes wohl für EIN Foto zu hoch ist,oder? Ich habe ja hier weichitge Bilddetails (die Wolken am Himmel und vor allem in der Spiegelung) die ich behalten will. Das Hsitogramm geht hier sowieso schon von ganz recht nach ganz links...da würde wohl nur HDR helfen, oder?

habe eben mal ein paar Testaufnahme im Garten gemacht, wo das Histogramm in etwas so aussieht wie im Video...ein Foto mit Mehrfeldmessung unkorrigiert ISO 800, eins auf +1,0 korrgiert und in LR wieder auf -1,0 belichtet. Also ich sehe da 0,0 Unterschied...
 

Anhänge

Zuletzt bearbeitet:
Hm .. ob das wirklich alles so stimmt?

Eine Sache in dem Video hat mich skeptisch werden lassen: RAW = 12 Bit = 4 Bit pro Farbkanal? Wie kommt man dann zu den 8 Bit pro Kanal in JPG?:confused:

Weiterhin: Dass der Sensor für die dunklen Bereiche weniger Abstufungen zur Verfügung stellt war mir klar. Aber ich war bis jetzt der Meinung, dass genau das durch den RAW Konverter wieder gerade gezogen wird. Das müsste eigentlich doch auch so sein, sonst käme es doch bei dieser Verteilung zu ganz seltsamen Helligkeitsverteilungen.

Auch die Beispielbilder im Video haben mich nicht überzeugt. Die Unterschiede sind nicht überwältigend und mir gefällt von den Kontrasten das richtig belichtete Bild besser.

Ich hatte mal einen ähnlichen Test gemacht, bei dem es mich interessiert hat, ob ich eine Fehlbelichtung mit der RAW-Software später ausgleichen kann und wie gut das Ergebnis ist (http://zenz-home.de/belichtungskorrekturen-in-raw.html). Dabei hatte ich festgestellt, dass die Belichtungskorrektur im RAW Konverter schon relativ nahe an das von der Kamera korrekt belichtete Bild herankommt. Jedoch desto stärker die Über- und auch Unterbelichtung wird, desto schwieriger wird es und bei 2EV sieht man die Unterschiede schon ziemlich.

Und zuletzt noch der ganz naive Gedanke zu dem Thema: Wenn es tatsächlich etwas bringen würde mit +1EV bis +2EV über zu belichten und das wieder bei der Konvertierung ins RAW-Format auszugleichen, dann hätten das die Kamerahersteller längst in der internen Kameraelektronik ausgenutzt - oder vielleicht haben sie es vielleicht, was die wenigsten wissen.
 
Auch die Beispielbilder im Video haben mich nicht überzeugt. Die Unterschiede sind nicht überwältigend ...
Das ist bei der Videoqualität von youtube auch kein Wunder.

Für mich ist das schon rein mathematisch klar nachvollziehbar und im eigenen Test auch sichtbar.
Was in dem Video nicht erwähnt wird ist - warum man das nicht linear macht. Dafür gibt es natürlich einen Grund. Auch das menschliche Auge kann minimale Unterschiede in den Lichtern besser differenzieren als in den Tiefen. Daher sind Bilder mit hohen Lichteranteilen sowieso ungeeignet für diese Methode, da sie nicht nur leich ausfressen können sondern sichtbar Details verlieren. Dann lieber gleich eine Belichtungsreihe für ne HDR-Bearbeitung, was natürlich nicht immer geht.

Da die besseren Kameras sowieso eher 14-bit haben spielt es dann auch keine allzu große Rolle mehr.
 
Zuletzt bearbeitet:
Schöner Garten :top:
_MG_9897.jpg

Wir können bei nur einem Bild natürlich nicht so gut vergleichen.

DAS ist natürlich NICHT mein Garten...die Fotos habe ich nicht angehängt...werde ich aber nachher mal machen. Dieses Foto war nur ein Beispiel, das es eben dann nix bringt, wenn ich schon über dem Dynamikumfang der Kamere liege, dann kann ich eben nix mehr "nach rechts" verschieben.

Letzlich kann das doch jeder selber testen ob es was bringt oder nicht. Für mich lohnt das eben wirklich nur, wenn man ein Bild mit wenig Dynmikumfang hat und wenigen Tonwerten. Das kann ich dann maximal an den rechten Rand schieben...
 
Hintergrund ist ja der das die Informationsdichte in den Lichtern höher ist als in den Tiefen. Ein Raw ist also (entgegen weit verbreiteter Annahme) nicht linear.
Doch, ein Raw ist linear. In dem Sinne, dass die Raw-Werte proportional zur Anzahl der empfangenen Photonen pro Pixel sind. Und genau deshalb ist die Tonwertauflösung in den Lichtern höher als in den Tiefen, wenn man "Lichter" und "Tiefen" als Teile einer Blendenstufenskala betrachtet, was allgemein der Fall ist. Diese Skala ist logarithmisch aufgebaut, und da ist es eine logische Folge, dass die Tiefen weniger gut aufgelöst sind. Das ist reine Mathematik und hat nichts mit Sensortechnologie o.ä. zu tun.

Edit: Kleiner Exkurs: Die Gamma-Kodierung normaler Farbräume entschärft das Problem etwas: Normalerweise müsste man bei eine linearen Kodierung wie beim Raw eine sehr hohe Bittiefe haben, um in den Tiefen eine vernünftige Tonwertauflösung zu bekommen. Die Gamma-Kodierung bewirkt, dass eine Blende nicht mehr dem Faktor 2 wie im Raw, sondern einem kleineren Faktor entspricht, z.B. ca. 1,37 bei Gamma 2,2 (AdobeRGB). Die Lichter werden aber trotzdem weiterhin besser aufgelöst als die Tiefen. Siehe auch hier: https://www.dslr-forum.de/showpost.php?p=10862403&postcount=29.

P.S. Ich sehe gerade, die gleiche Diskussion hatten wir im verlinkten Thread auch schonmal. Ich glaube langsam, Du meinst mit "linear" etwas komplett anderes als man gemeinhin darunter versteht. Also: Linear = Raw-Werte sind proportional zur Anzahl der empfangenen Photonen und damit proportional zur Leuchtdichte des Motivabbildes auf der Bildebene am jeweiligen Punkt. Oder Du hast irgendwie übersehen, dass die Ungleichverteilung nicht durch die Kamera verursacht wird, sondern dadurch, dass Fotografen eben eine logarithmische Blendenskala benutzen (siehe erster Absatz). Dieser wichtige Punkt wird übrigens im Galileo-Video komplett unterschlagen! Wie auch immer, im anderen Thread gab es ja auch kein richiges Ergebnis dieser Diskussion, und leicht OT wird sie ja auch schon. Also belasse ich es einfach mal dabei.
 
Zuletzt bearbeitet:
Die Belichtungsmessung basiert vor allem auf den Luminanzwerten. Wenn man RAW fotografiert, kann man zur Interpretation durch die JPG-Engine entweder sRGB oder AdobeRGB in der Kamera wählen.

Diese Farbräume sind zwar unterschiedlich groß, aber in ihrer Farbverteilung von den Maximalwerten her sehr unterschiedlich um nicht zu sagen zerklüftet.

Alle hier kennen die Probleme mit hochgesättigtem Gelb oder Rot, welche zum Überstrahlen oder gar Ausbrennen neigen, wenn man strikt nach den Luminanzwerten belichtet.

Diese beinhalten aber nur einen Durchschnittswert der enthaltenen Farben und zeigen lokale Überbelichtungen bei kritischen Farben nicht an.

Deshalb kann man in solchen Fällen besser zum Live-Histogramm in der RGB-Version greifen - da sieht man das kritische Rot genauer als im farblich gemittelten Luminanzhistogramm. Der Bezugspunkt für das RGB-Histogramm ist der größere Farbraum AdobeRGB.

Es gibt bei der Belichtung kein richtig oder falsch - und vor allem keine ein für alle Mal optimale Methode. Es ist in der Tat der Bildinhalt, der sowohl über die am besten geeignete Belichtungsmessmethode, die richtige Strategie aus Aufnahme und Nachbearbeitung und das Hin- und Hermanövrieren von Tonwerten entscheidet.

Es ist überaus teuer, die menschliche Intelligenz auch nur halbwegs in Hardware und Software implementieren zu wollen. Technische Parameter sind zur Unterstützung gedacht, nicht zur Anhimmelung. Man muss wissen, was sie besagen - und wo ihre Grenzen liegen.

Ein Bild ist immer mehr als ein Histogramm.

LG Steffen
 
WERBUNG
Zurück
Oben Unten