• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Warum kein höherer Dynamikumfang

Wenn ich in einem wirklich dunklen Raum stehe, sehe ich entweder die Landschaft außerhalb des Raums (dann sehe ich im Raum nichts), oder ich adaptiere meine Augen auf die Dunkelheit, dann sehe ich im Raum gut, aber nichts von der Landschaft.

Es geht um den Helligkeitsumfang, den das Auge darstellen kann, ohne die Pupillenanpassung nutzen zu müssen. Und der Umfang ist eben deutlich höher als es die Kameras es derzeit darstellen können, wenn man nicht RAW-Bearbeitungs-, oder HDR-Spielereien betreibt.
 
Ich will 20 LW Dynamikumfang entsprechend dem des Auges. :)
Du willst 20 LW Umfang entsprechend Auge + Adaption. Du willst einen Zeitverlauf in einen Moment pressen.

Du merkst nicht, dass die Sonne blendet, weil sie "hell ist". Sondern weil sie dich vor der Adaption blendet.
Du merkst nicht, dass etwas stockfinster ist, weil es "dunkler ist". Sondern weil du vor der Adaption nichts siehst.
Feininger hat geschrieben, man könne das Strahlen von Licht nicht auf ein Foto bannen und müsse deswegen Wege finden, es dem Betrachter zu assoziieren.

Vielleicht hört man manchmal auf die Meister.
 
Es geht um den Helligkeitsumfang, den das Auge darstellen kann, ohne die Pupillenanpassung nutzen zu müssen.
"Laut [23] beträgt der Dynamikumfang des Auges (bezüglich der Helligkeit) 2.2 logarithmische Einheiten und verschiedene andere Abschätzungen (vgl. [24]) bestätigen, dass bei gegebener Hintergrundhelligkeit (für die Adaption des Auges) die Anzahl der unterscheidbaren Helligkeitsstufen im Bereich von 150 bis 250 liegt." (http://braunglobal.com/da/kapitel5.html)
 
Du willst 20 LW Umfang entsprechend Auge + Adaption. Du willst einen Zeitverlauf in einen Moment pressen.

Nein, ich will die Freiheit der Betrachtung aufrechterhalten können. Freiheit ist gut.

Der Betrachter in meiner Welt darf sich auf dem Bild umsehen. Und damit einen Zeitverlauf durchleben.

Und übrigens, ja ich will nicht nur 20 LW, sondern das ganze in Lichtfeldtechnik.:)
 
Beholder3, welches Ausgabemedium möchtest Du denn benutzen, um dieses glorreiche Bild in all seinem Dynamikumfang zu betrachten?

Es wurde doch jetzt oft genug gesagt, Auge & Gehirn & Körper machen so viel mehr als ein Fotosensor, dass der Vergleich vorne und hinten hinkt. Schon mal darauf geachtet, wie man die Augen zukneift oder die Hand drüberhält, weil es doch zuviel ist, um das Gegenüber zu erkennen?

In der Frage des fotografischen Dynamikumfangs - es hilft bei der Bearbeitung, in der Regel macht sich der "höhere Dynamikumfang" in den Tiefen bemerkbar, wie rauschfrei sehen dunkle Partien nach der Aufhellung aus - die einen machen es besser, die anderen schlechter.. Und Ja, es sind mehr - und Nein, die Hersteller halten da Nix bewusst zurück, es gibt zu Genüge Seiten, die sich mit den Umständen der Sensortechnik ausführlich befassen.
 
Es geht um den Helligkeitsumfang, den das Auge darstellen kann, ohne die Pupillenanpassung nutzen zu müssen. Und der Umfang ist eben deutlich höher als es die Kameras es derzeit darstellen können, wenn man nicht RAW-Bearbeitungs-, oder HDR-Spielereien betreibt.
Aber das Auge macht doch genau das gleiche: Selbst wenn wir mal die Anpassung der Iris außen vor lassen, werden bei wenig verfügbarem Licht die Stäbchen des Auges aktiviert, die lichtempfindlicher sind. Das dauert aber erst einen Moment, weshalb man beim Wechsel von hell zu dunkel erstmal nichts sieht (und anders herum geblendet wird, bis die Stäbchen wieder abgeschaltet worden sind). Die Kamera passt dafür halt die Auto-ISO an bzw. verlängert die Verschlusszeit (was vergleichbar sein sollte zu dem Effekt, dass man im Dunkeln manchmal länger hinsehen muss, bis das Gehirn die Szene zusammengesetzt hat).

Aber Tatsache bleibt: Das erfolgt nicht in einem Schritt, sondern Auge+Gehirn arbeiten hier mit einem "dynamischen Kontrast". Und das kann man mit der Kamera genauso machen; einfach auf den Automatikmodus umschalten und langsam von der Landschaft zum dunklen Zimmer schwenken. ;)
 
Vor allem aber: das Auge hat keine Dynamik in dem Sinne, weil es ein kontinuierliches System ist.

Das mußt Du uns aber noch genauer erklären! Was hat Dynamik mit einem "kontinuierlichem System" zu tun? Soll das Deiner Meinung nach heißen, nur ein nichtkontinuierliche System hat eine Dynamik?
Wie definierst Du ein "kontinuierliches System" und trifft diese Defintion auf das Auge zu?

Und jetzt bitte endlich Schluss mit dem sachfremden Zeugs!

Was soll den das?
Einerseits gehts Du mit deinem Post auf die Thematik ein, legst Behauptungen vor und möchtest damit diese zur nicht diskutierbaren Wahrheit erklären.
 
Was ******** meint und was ich auch so sehe ist, dass niemals ein
Foto dieselbe Dynamik aufweisen kann wie die Augen-Hirn-Kombination,
da letztere etwas hinzufügt, das ein Foto nicht haben kann.

Zeit.

Es wird immer wieder gern behauptet, dass das Auge einen so hohen
Dynamikumfang hat, dass man eben die helle Sonne und den dunklen Wald
davor sieht.

Das stimmt auch, aber man sieht es nicht in einem Moment.
Unser Schärfespot (im Gegensatz zur Schärfeebene der Kamera) ist
so klein, dass wir zwangsläufig winzige Augenbewegungen machen müssen um
vom Wald zur Sonne zu schauen.
In diesem Augenblick ändert aber das Auge schon die Parameter, so als ob
eine Kamera die Blende ändert, was zum zweiten Bild führt.

Selbst wenn eine Kamera weit mehr Dynamik als das Auge hätte, wäre
das kein natürliches Foto. Dann wäre der Wald hell und grün und
der Himmel lecuhtend blau mit klar umrissener Sonne.

Aber alles auf einem Bild und so sehen wir das real nicht.
Auf diesem Bild würden wir wenn wir die Sonne betrachten im Augenwinkel
den hellen Wald sehen. Das käme dem Hirn spanisch vor, denn in der
Realität gibt es dieses Bild nicht. Es wäre unnatürlich.

Es ginge nur, wenn das Bild sich mit der Bewegung unseres Auges ändern
würde.
Eine Kamera würde unsere Augenbewegungen scannen und das Bild
an bestimmten Stellen abdunkeln oder aufhellen, je nachdem, was wir
grad fokussieren.

Das käme dem realen Sehen am nächsten, ist aber Science-Fiction.

Eine Momentaufnahme kann niemals das zeigen was wir wirklich sehen, sobald
unser Auge sich bewegt. Denn dann kommt immer Zeit und somit ein
anderes Bild ins Spiel.
 
Moin!


Was macht denn das Auge alles? Wieviel Dynamik kann es aufnehmen, ohne die Pupille zu verändern und ohne sich, wie oben erwähnt, langsam an Dunkelheit zu adaptieren? Kann man in einem ganz primitiven Modell sagen, die gesamte Dynamik setze sich zusammen aus einer "statischen" Dynamik Ds, einer Verschiebung dieses Dynamikereichs durch Pupillenöffnung/schließung ΔDp und einer weiteren Verschiebung durch Dunkeladaption ΔDa zusammen? Bestimmt ist das Modell viel zu einfach. Aber was ich damit sagen will: Wenn die genannte Dynamik des Auges von 20LW der Summe Ds+ΔDp+ΔDa entspricht, dann wäre es schön, wenn ein Sensor Ds+ΔDp erfassen könnte. Den Anteil ΔDa müsste er nicht auch noch erfassen, denn auch das Auge kann nicht gleichzeitig mit und ohne Dunkeladaption sehen. Das Ausgabemedium bräuchte aber vielleicht nur Ds, denn auf Pupillenänderung kann man beim betrachten eines Fotos wohl verzichten.



Gruß, Matthias
 
Vielleicht käme ein gestitchtes Bild der Sache nahe, wenn wir ein ~5°-Objektiv (500mm@KB) nehmen und damit die Landschaft (mit der Automatik des Bodies) fotografieren. Zusammengestitcht würde es sehr fleckig aussehen.. Letztlich versucht man mit diesen HDRzuLDR-Varianten, diesen Umstand in einem Bild zu vereinen. Ist das nun der rechte Weg, das Auge nachzuempfinden? Wenns gefällt, von mir aus.. :D Aber, Statisch sieht das Auge so nicht, sondern es ist ein zeitlicher Prozess des Erfassens, Verarbeitens und Begreifens..
 
Zuletzt bearbeitet:
Ich hoffe, Du meinst das nicht ernst. Dabei bezieht sich meine Aussage auf die ersten vier Worte, der Rest ist mir nicht wichtig.
:lol: Du knusperst dir aus einem Satz einen Teil ohne Kontext raus und machst mir den zum Vorwurf? :lol:
Und natürlich ist Fotografie nicht die Dokumentation der Realität, denn diese hat:
- eine 3. Dimension
- eine 4. Dimension
- ein Umfeld / einen Kontext
- weitere Sinneseindrücke
- keine Subjektivität
Fotografie kann also in Bezug auf Dokumentation nie mehr als die subjektive Interpretation eines in mehrerer Hinsicht eingeschränkten Eindruckes sein.

Das mußt Du uns aber noch genauer erklären! Was hat Dynamik mit einem "kontinuierlichem System" zu tun?
Ich habe das Gegenteil geschrieben:
Der Dynamikumfang, von dem wir in Verbindung mit Fotos sprechen, ist der Quotient aus stärkstem und schwächstem Signal im betrachteten Medium. Das Auge aber nimmt Helligkeit als Frequenz (vulgo: Häufigkeit) an Impulsen wahr, und das auch noch adaptiert und durch diverse physiologische Prozesse modifiziert.

Soll das Deiner Meinung nach heißen, nur ein nichtkontinuierliche System hat eine Dynamik?
Mich nervt das immer ein wenig, wenn man erst mal interpretiert, statt zu lesen und zu überlegen.
Wenn wir von Dynamik in Fotos reden, ist das zeitlich statisch - so arbeitet das Auge aber nicht.

Wie definierst Du ein "kontinuierliches System" und trifft diese Defintion auf das Auge zu?
Siehe oben. Der Helligkeitseindruck im Auge entsteht durch die Häufigkeit der Signale und ja, das ist ein kontinuierlicher Prozess.

Was soll denn das?

Einerseits gehts Du mit deinem Post auf die Thematik ein, legst Behauptungen vor und möchtest damit diese zur nicht diskutierbaren Wahrheit erklären.
Falsch. Ich habe in diesem Thread aufgestellten Falschbehauptungen, die auch nichts zum Thema betragen, widersprochen und eine Rückkehr zum Thema verlangt. Wer dem von mir verlinkten Beiträgen gefolgt wäre, hätte das ganz schnell erkannt. Im Übrigen ist auch dein Post in Bezug auf

Dynamik von Sensoren

völlig themenfremd und hätte sich ebenfalls durch Lesen meiner Links erledigt gehabt.

chmee und Bredesign: euch beiden vielen Dank. Genau das ist es, was ich meinte! :)
 

Es bleibt das Problem, dass unser Auge nur diesen winzigen Schärfepunkt hat.
Dadurch bewegen wir eben ständig unsere Augen und es ändern sich auch
ständig die Parameter.

Deshalb finden wir schön freigestellte Portraits ja so angenehm.
Nur ein Teil des Bildes muss scharf sein (meist die Augen), der Rest
verschwimmt in Unschärfe.
Das ist recht natürlich dargestellt.

Bei einem Landschaftsbild geht das einfach nicht.
Das Haus am rechten Bildrand sehen wir unscharf, wenn der Wald links
beobachtet wird. Da uns das Haus aber auch interessiert wandert der Blick
auch mal nach rechts. Schon ist der Wald unscharf.

Und jeder Blickwechsel ändert auch die Hell-Dunkel Informationen für unser
Gehirn. Das kann ein Foto halt niemals leisten, denn die Informationen
sind fixiert.

Ein Landschaftsbild an einem leicht nebligen Tag oder mit Sonne im Rücken
wirkt deshalb ja auch natürlicher.

An dieser Diskrepanz kann ein Sensor, der dieselbe Dynamik wie das Auge
in einem Augenblick hätte, auch nichts ändern. Sie bleibt.
Verschiebt sich vieleicht etwas, bleibt aber bestehen.

Mittags mit Gegenlicht wird es nie ein natürliches Bild geben.
 
Ich möchte zwischen einem statischen Dynamikbereich ohne Bewegung des Augapfels, wie zum Zeitpunkt einer Kameraaufnahme und einem nichtstatischem Dynamikbereich unterscheiden, der sich auch über mehrere Minuten erstrecken kann.
Im Vergleich mit einem Kamerasensor ist der statische Dynamikbereich der wie er auf diversen Testseiten angegeben wird.
Den nichstatischen Dynamikbereich müßte aber man mit dem Bereich vergleichen den man mittels HDR-Nachbearbeitung aus mehreren Fotos zusammensetzen kan.
Was aber aus dem Wikipedia Artikel nicht hervorgeht, ist ob das Auge auch eine Art HDR-Funktion durchführt.
Damit meine ich folgendes:
Es wäre doch denkbar, dass wenn ich durchs Fenster schaue und auf einen Punkt draußen fixiert lasse (Beispiel von vorhin), dass das Auge bei den Pixel auf der Retina (Stäbchen und Zapfen) die ISO (Erhöhung der Empfindlichkeit der Rezeptoren) rund um das Fenster anhebt. Das aber nur in Zusammenhang mit den Nachbarn, wenn also ein gewisser Bereich dunkler ist.
Rein gefühlsmaßig würde ich sagen ja.
Wenn man diese 2 Arten von Dynamikbereichen definiert und unterscheidet, kann man mMn sehr wohl Auge und DSLR miteinander vergleichen.

Es geistern ja hier Zahlen vom (nicht statischem) Dynamikbereich des Auges von ca. 20 EV herum. Wie das Kontrastauflösungsvermögen vom Auge statisch ist habe ich noch nicht gelesen.
 
Beholder3, welches Ausgabemedium möchtest Du denn benutzen, um dieses glorreiche Bild in all seinem Dynamikumfang zu betrachten?

Das ist belanglos. Mein Wunsch bliebe derselbe, auch wenn wir Fotos nur als robotergefertigten Kupferstich mit 1 LW Dynamikumfang ausgeben könnten. Du hast die Intention meines Wunsch wahrscheinlich nicht verstanden. Siehe dazu den letzten Absatz unten.

Du knusperst dir aus einem Satz einen Teil ohne Kontext raus und machst mir den zum Vorwurf?
Und natürlich ist Fotografie nicht...

Was Fotografie "ist" oder nicht, entscheidet jeder für sich. Diese Ausführung ist halt eben auch irrelevant, weil ich beschrieben habe, was ich von einem Foto wünsche, nicht "was Fotografie ist". Erkenne den Unterschied.


Das amüsante an der Argumentation der keine Verbesserung wünschenden Dogmatiker ist, dass die eigenen Argumente ja schon alles sagen:
Wenn das Auge (wie oeben zitiert) nur 2.2 LW gleichzeitig unterscheiden könnte, müsste jeder der Dogmatiker ja auch alle seine Bilder im Histogramm so auseinanderzerren, dass nur noch 2.2 LW zwischen schwarz und weiss übrig bleiben. Alles andere ist ja sonst unnötig künstlich.

Es ist mir wirklich ein Rätsel, warum hier soviele verständnislose Nebelgranaten geworfen werden, um den Wunsch mies zu machen, dass ein Foto in RAW erstmal alle Helligkeitsinformationen aufzeichnet, die ein menschlicher Beobachter in der Szene sehen konnte und zwar auch bei längerem Umherblicken.

Ich kennen tatsächlich nur reale Personen, die bei einem groß ausbelichteten Landschaftsfoto davor stehen und ihre Augen sekundenlang schweifen lassen, wie sie es täten, wenn sie am Ort der Aufnahme wären. Und ja, 100% davon haben sich dahingehend geäußert, dass es entweder schön wäre, auch die hellen Partien (z.B. um eine Sonne) sauber texturiert auf dem Foto sehen zu können, oder auch die Texturen der dunklen Stellen, insofern sie ästhetisch bedeutsam sind.

Aus den vorhandenen Informationen dann später in der Entwicklung ein Ergebnis zu machen, das auch nach Tonwertkompression durch selektives Anheben von Schatten und Absenken von Lichtern noch schön anzuschauen ist, wird unverändert eine herausfordernde Aufgabe sein, die aber natürlich lösbar ist. das soll schon mal gelungen sein.

Nota bene: Ich sehe mein Ziel gar nicht in der zwingenden Abbildung von 20 LW nach der Entwicklung. Ich möchte aber in der Entwicklung noch die Möglichkeit haben, Bildstellen aus allen Helligkeitsbereichen in guter Qualität "einzublenden", wo es heute immer wieder nur schwarze und weisse Blobs gibt, obwohl ich da real was gesehen habe.

Möglichkeiten. Möglichkeiten. Möglichkeiten.
Nicht: "Man braucht nicht". "Es ist nicht".
 
Zuletzt bearbeitet:
Es geistern ja hier Zahlen vom (nicht statischem) Dynamikbereich des Auges von ca. 20 EV herum. Wie das Kontrastauflösungsvermögen vom Auge statisch ist habe ich noch nicht gelesen.
Diese Zahl von 20 EV halte ich auch für übertrieben - wenn es so wäre müssten wir ja abwechselnd von einer sonnenbeschienenen Schneelandsschaft in einen finsteren Kohlenkeller und wieder zurück blicken können, und das Ganze ohne dass sich das Auge erst adaptieren müsste und ohne dem Zwang blinzeln zu müssen.
(Achtung, bildhafter Vergleich - nicht wissenschaftlich untermauert, und auch nicht praktisch nachgeprüft. ;))

Praktisch nachgeprüft habe ich aber vor einiger Zeit interesse- und spaßhalber, bereits vor diesem Thread, einmal folgendes:
"Versuchsaufbau" war eine weiße Zimmerwand, die zur Hälfte von der prallen Sonne beschienen war und zur Hälte im Schatten lag. An diese Wand hängte ich, genau abschließend mit der Licht/Schattenkante ein schwarzes Sakko mit grauen Nadelstreifen.
Gemessen mit der Spotmessung der Kamera ergab sich wenn ich mich richtig erinnere dabei eine Differenz von 9 - 10 LW.
Dann habe ich mit einem Auge (um ev. unterschiedliche Adaption der Augen auszuschließen) den Rand des Sakkos anvisiert. Den Blick hab ich dabei nicht ins helle oder dunkle schweifen lassen, ebenfalls um eine Adaption dadurch zu verhindern.
Die Struktur der weißen Wand, sowie die dunkelgrauen Nadelstreifen konnte ich gerade noch so gleichzeitig erkennen, was einen "Dynamikumfang" (zumindest meines) Auges von 10 EV oder etwas darüber plausibel klingen lässt.

Etwas Interessantes ist mir dabei noch aufgefallen:
Das Auge scheint tatsächlich so etwas wie eine "lokale" Empfindlichkeitsanpassung durchzuführen. Am Rande des Sakkos waren nämlich keine Nadelstreifen zu erkennen - diese sah ich erst deutlich innerhalb des dunklen Bereichs. Der Streifen am Rand war allerdings nicht etwa hell und überstrahlt wie bei einem Blick durch eine verschmutzte oder angelaufene Brille, sondern einfach schwarz.
Das dürfte ein Verhalten sein welches sich mit herkömmlichen Sensoren kaum nachbilden lässt.
 
Kontinuierlicher Prozess.
Kontunierlicher Prozess = zeitlich kontinuierlicher Prozess.
Ok, so verstehe ich das, habe geglaubt, dass Du digitales <-> analoges Signal gemeint hast.

Mich nervt das immer ein wenig, wenn man erst mal interpretiert, statt zu lesen und zu überlegen.

Ich habe interpretiert und meine Interpretation in Frage gestellt und Dich um eine Definition Deiner Begriffe gebeten, da ich offensichtlich Deine Begriffe anders verstehe als Du.

Das Auge aber nimmt Helligkeit als Frequenz (vulgo: Häufigkeit) an Impulsen wahr, und das auch noch adaptiert und durch diverse physiologische Prozesse modifiziert.

Ich als Techniker interpretiere Impulse in diesem Zusammenhang als Photonen und damit unterscheidet es sich aber nicht prinzipiell vom Sensor der auch nachbearbeitet wird (jpg in der Kamera). Die zeitliche Komponente (Vorgeschichte) wird noch (?) nicht berücksichtigt.

Wenn wir von Dynamik in Fotos reden, ist das zeitlich statisch - so arbeitet das Auge aber nicht.
Und trotzdem verstehe ich nicht warum man nicht einen kurzen Ausschnitt aus dem Kontinuum mit einem Foto vergleichen kann.

Beholder3 schrieb:
Möglichkeiten. Möglichkeiten. Möglichkeiten.
Nicht: "Man braucht nicht". "Es ist nicht".
Du sprichst mir aus der Seele, ohne Fantasie wären wir noch Höhlenbewohner.
 
WERBUNG
Zurück
Oben Unten