• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Wann kommt HDR in der Kamera?

  • Themenersteller Themenersteller Gast_73773
  • Erstellt am Erstellt am
Es ist ja nicht Ziel mit einer Kamera das Auge zu imitieren."

Sollte sie das aber nicht eher genauso tun, damit es harmonisch wirkt?

Wenn ich bei Sonnenschein mit ner Digicam ein Landschaftsfoto mache, bei dem der Himmel weiss und die Schatten nur schwarze Flächen sind, dann siehts fürs menschliche Auge irgendwie schlecht aus!
Wenn ich aber so viel Kontrast, bzw. Detailzeichnung da reinpacke wie bei den ganzen übertriebenen HDRs, die man so kennt, dann sieht das fürs menschliche Auge auch schlecht aus! In dem Fall noch schlechter, weils noch ungewohnter ist! :D


Vielleicht gibts in Zukunft ja so ne Liveviewanalyse der Kamera, die schon vor der Aufnahme merkt, ob der Kontrastumfang vom Motiv zu stark ist und die da evtl. schon ein optimiertes RAW oder so liefert, so dass alles passt, das wär vielleicht auch nicht so schlecht! ^^
 
Vielleicht gehen wird die Sache mal anders an:
ich finde deine Argumenation und Schlüsse im wesentlichen nicht anders als meine... :)

Man könnte auch argumentieren, dass die Fuji S5pro schon HDRs liefert. Ich sehe deren Sensor als 2 konventionelle Sensoren unterschiedlicher Empfindlichkeit auf einem Chip, so dass die Kamera mit jeder Auslösung eine Belichtungsreihe aus 2 Bilder macht, die nachfolgend kameraintern zusammengebaut werden. Kommen da eigentlich schon mehr als 13 Blendenwerte raus?
Aus dem Bauch heraus würde ich sagen, dass es reichen könnte. Aber dieses Überlagerungsverfahren ist grundsätzlich ja auch zweite Wahl (allein schon wegen der ganzen Nebeneffekte mit bewegten Objekten im Motiv). Dazu kommt der hohe Bedarf an Rechenleistung, die Kamera muss außerdem noch die Raws entwickeln... oh, überhaupt ein wichtiger Punkt: Dann muss auch gleich Weißabgleich usw. festgelegt werden, man verliert also auch einige mächtige Fähigkeiten von Raw. Oder könnte man das HDR-Verfahren auch direkt auf RAWs anwenden? ich hätte da meine Zweifel. Anderenfalls müsste man dann schon drei riesen Dateien speicher (die beiden RAWs + HDR-Bild)

Die bisherige Diskussion um die Kodierung finde ich müssig. Mir scheint, da gehen Messwert und Repräsentation durcheinander.
Genau das ist ja eine Essenz meiner Ausführungen... Du hast es etwas besser auf den Punkt gebracht, danke!

Ausserdem wird immer lineare Kodierung unterstellt. Nichts erzwingt dies.
Unterstellt nicht, aber so viel ich weiß arbeiten die handelsüblichen Sensoren so. Aber warum hätte man die Diskussion damit verkomplizieren sollen? Ich halte die lineare Kodierung auch nicht für so schlecht...

In anderen technischen Systemen wird z.B. logarithmisch kodiert, wodurch für alle Wertebereiche gleich viele Bits zur Verfügung stehen.
Du meinst z.B. die A-Kennlinie aus der Sprachübertragung?
Ich bin nicht ganz sicher was du mit gleichvielen Bits meinst... Auch bei einer linearen Quantisierung erhalte ich gleichviele Bits für jeden Wert.

Dadurch würden die gefürchteten Tonwertabrisse in aufgehellten Bereichen vermieden. Auch könnte man physiologisch "richtige" Kodierungen verwenden, die eine Überforderung des menschlichen Sehapparats vermeidet.
Es wäre interessant sowas konfigurierbar zu machen. So wie mit den nachladbaren Kurven bei Nikon, was ja aber eben nicht das gleiche ist, weil sie bereits auf einer linear quantisierten Basis arbeiten.

Zur Einführung eines solchen Systems wird man am besten erst ein berühmter Fotograf, schreibt dann ein Buch darüber und nennt es Zonensystem. Oder Tonemapping.
:lol:
 
Sollte sie das aber nicht eher genauso tun, damit es harmonisch wirkt?
äh.. ich glaube, das hast du missverstanden. Was ich meinte war (das wird nur aus dem ursprünglichem Kontext deutlich), dass man das Auge technisch nicht nachahmen muss.
Es wurde hier ja bereits gesagt, dass das Auge sehr schnell die eindringende Lichtmenge verändern kann. Das kann natürlich auch zu technischen Inspirationen führen...
Das ziel ist ja aber die Bildinformation, wenn möglich mit einem Foto, zu erfassen, dazu benötigst du den Kontrastumfang im Sensor.

Wenn ich bei Sonnenschein mit ner Digicam ein Landschaftsfoto mache, bei dem der Himmel weiss und die Schatten nur schwarze Flächen sind, dann siehts fürs menschliche Auge irgendwie schlecht aus!
deswegen ja HDR...
Wenn ich aber so viel Kontrast, bzw. Detailzeichnung da reinpacke wie bei den ganzen übertriebenen HDRs, die man so kennt, dann sieht das fürs menschliche Auge auch schlecht aus! In dem Fall noch schlechter, weils noch ungewohnter ist! :D
Das ist ja eine Frage des Tonemappings... Da ist der Künstler gefragt, die richtigen Einstellungen zurecht zu frickeln.


Vielleicht gibts in Zukunft ja so ne Liveviewanalyse der Kamera, die schon vor der Aufnahme merkt, ob der Kontrastumfang vom Motiv zu stark ist und die da evtl. schon ein optimiertes RAW oder so liefert, so dass alles passt, das wär vielleicht auch nicht so schlecht! ^^
Also Live-Histogramme liefern glaube ich aktuelle Olys und aus deinem Raw kannst du wie bereits mehrfach erklärt auch nicht mehr rausholen als dein Sensor hergibt. Viel zu optimieren ist da deswegen nicht
 
Also Live-Histogramme liefern glaube ich aktuelle Olys und aus deinem Raw kannst du wie bereits mehrfach erklärt auch nicht mehr rausholen als dein Sensor hergibt. Viel zu optimieren ist da deswegen nicht


Hatte da eher an irgendsowas wirres gedacht, dass die Kamera ne Art dynamisches RAW entwickelt, wo der Sensor die Lichter ab nem gewissen Punkt gar nicht weiter belichtet und die Tiefen aber weiter mitzieht, dazu müsste er natürlich den Kontrast vom Motiv vorher kennen! Aber das würde glaub ich auch nur bei Motiven ohne Bewegungen funktionieren falls das überhaupt irgendwie möglich wäre! :D
Sozusagen dass er das Motiv kennt und bei ner 1s Belichtung die Bereiche mit den Lichtern aufm Sensor nur 0,7s belichtet weil sonst der Kontrast zu stark wäre und die Tiefen aber 1s lang belichtet, den Rest dazwischen dann angepasst! Könnte auch sein dass das dann im Endeffekt aufs selbe rauskommen würde wie bei Tonemapping...
 
ich finde deine Argumenation und Schlüsse im wesentlichen nicht anders als meine... :)
Ich hatte auch gar nicht beabsichtigt Dir zu widersprechen :p
Unterstellt nicht, aber so viel ich weiß arbeiten die handelsüblichen Sensoren so.
Kommt drauf an, was man so als handelsüblichen Sensor betrachtet. CCDs und CMOS Sensoren sind tatsächlich praktisch linear. Deswegen ja auch der nahtlose Übergang von sehr hell nach ausgebrannt. Aber chemischer Film ist ja auch (immer noch) ein handelsüblicher Sensor und alles andere als linear.

Das war aber nicht, was ich ausdrücken wollte: Die Repräsentation der Messwerte ist ebenfalls linear. Das muss aber keineswegs so sein. Stichwort FITS Format (Fließpunkt- oder Gleitkommaarithmetik) der Astrofotografie.

Bei linearer Kodierung steht vom Grundrauschen ausgehend für die erste Stufe des Helligkeitswerts nur 1 Wert zur Verfügung, für die 1. Verdopplung schon 4 Werte, ... , und für die letzte Verdoppelung schon z.B. 2^11, bei 12 Bit Kodierung, sprich mit jeder neuen Binärstelle verdoppelt sich die Zahl der darstellbaren Werte. Genauso wie es nur 10 1-stellige Zahlen im vertrauten Dezimalsystem gibt, aber 90 2-stellige, 900 3-stellige, ...

Man kann aber genau so gut sagen, man nimmt immer z.B. 10 Bits für einen Wert, teilt aber den gesamten darzustellenden Wertebereich in Teilbereiche ein, so dass der erste Teilbereich gerade die Hälfte des gesamten Wertebereichs darstellt, der zweite das nächste Viertel, der dritte das nächste 8tel, etc. Damit würde in den dunkelen Bereichen sehr viel mehr Bits zur Verfügung stehen. Der Informationsgehalt wird jedoch nicht durch die Kodierung beeinflusst, nur verschoben. Frag mich aber nicht, wieviele Schaltungsdesigner man mit der Forderung nach logarithmisch kodierenden A/D Wandlern in den Wahnsinn treiben kann.:D

Du meinst z.B. die A-Kennlinie aus der Sprachübertragung?
Ja, das ist eine physiologisch "richtigere" Darstellung eines Störsignals als das numerische Verhältnis. Ich würde aber eher mit MP3 vergleichen, weil auch da die Bits bevorzugt für die hörbaren Signale verwendet werden, als für die nicht hörbaren. Und siehe da, statt 16 Bit PCM Kodierung, reichen beispielsweise auch 2 Bit nach MP3. Wenn man statt dessen (sinngemäss) 16 Bits für MP3 Samples nutzen würde, würden sich ganz neue Audiodimensionen auftun.

Was mich, falls es nicht sowieso schon klar ist, zu meiner eigentlichen These bringt: HDR wird gar nicht gebraucht. Die verfügbaren CCDs und CMOS Sensoren liefern längst den mit Negativfilmen vergleichbare Ergebnisse. Nur leider verwenden die linearen Kodierungen diese unökonomisch. Mit nichtlinearer Kodierung hätte man viel mehr Möglichkeiten die Schatten aufzuhellen. Man könnte einfach auf die Spitzlichter belichten und den Rest hochziehen, um damit effektiv die Eingangsdynamik zu reduzieren, was ja der Kern der Darstellung von HDR Bildern ist.

Es regnet immer noch :grumble:

Edit: Sehe gerade, dass FITS Format keine Fließkommakodierung fordert, sondern nur erlaubt.
 
Zuletzt bearbeitet:
Kommt drauf an, was man so als handelsüblichen Sensor betrachtet.
Massenmarkt im weitern Sinne... Hasselblad würde ich da schon grenzwertig ansiedeln ;-)

Aber chemischer Film ist ja auch (immer noch) ein handelsüblicher Sensor und alles andere als linear.
das ist wohl wahr...

Bei linearer Kodierung steht vom Grundrauschen ausgehend für die erste Stufe des Helligkeitswerts nur 1 Wert zur Verfügung, für die 1. Verdopplung schon 4 Werte, ... , [...]Damit würde in den dunkelen Bereichen sehr viel mehr Bits zur Verfügung stehen. Der Informationsgehalt wird jedoch nicht durch die Kodierung beeinflusst, nur verschoben.
Gut, dann habe ich dich wohl richtig verstanden... Auch wenn ich deine Art Bits zu zählen etwas merkwürdig (im Sinne von ungewohnt) finde :D
Ich habe dich so verstanden, dass du den dunklen (konsequenter Weise auch den hellen) Bereichen eine größere Auflösung bei der Quantisierung geben möchtest, in den mittleren Bereichen sinkt sie dann natürlich. Das ganze eben unter der Annahme, dass uns hellen und dunklen Bereiche etwas mehr interessieren.

Dazu hätte ich ein kleines "Aber": Du sagtest ja so schön, dass Elektronen nicht in Bruchstücken vorkommen, es bringt also nichts bei der Kodierung höher aufzulösen, als es der Sensor tut. Nehmen wir eine lineare Kennlinie für die Kodierung, erhalten wir also mit AD-Wandlern, die diese Auflösung abbilden können schon die maximale Information. Das bedeutet, ich kann mit einer Kennlinie, die dunkle und helle Bereiche stärker auflöst, nicht mehr wirklich etwas rausholen. Schlimmer noch: in den mittleren Bereichen, haben wir dann ja vollkommen umsonst etwas Informationsgehalt zu Gunsten der anderen Bereiche aufgegeben.
Eigentlich müsste man dann das (Mess-)Verhalten des Sensors vom linearen wegbewegen, also ein verhalten erzeugen, dass er -- soszusagen auf Elektronenebene -- die hellen und dunklen Bereiche stärker auflöst. Das würde dann mein "aber" entkräften. Vielleicht hast du es ja auch von vornherein so gemeint, aber du sprachst noch von Kodierung.

Frag mich aber nicht, wieviele Schaltungsdesigner man mit der Forderung nach logarithmisch kodierenden A/D Wandlern in den Wahnsinn treiben kann.:D
oh... die lieben das!! :ugly:

Was mich, falls es nicht sowieso schon klar ist, zu meiner eigentlichen These bringt: HDR wird gar nicht gebraucht. Die verfügbaren CCDs und CMOS Sensoren liefern längst den mit Negativfilmen vergleichbare Ergebnisse.
Nun, offenbar wollen ja viele noch mehr Kontrastumfang als beim Negativfilm... Ich meine auch, dass HDR einen größeren Kontrastumfang verlangt, als ein Negativfilm. Aber darüber müssen wir nicht streiten...

Nur leider verwenden die linearen Kodierungen diese unökonomisch. Mit nichtlinearer Kodierung hätte man viel mehr Möglichkeiten die Schatten aufzuhellen. Man könnte einfach auf die Spitzlichter belichten und den Rest hochziehen, um damit effektiv die Eingangsdynamik zu reduzieren, was ja der Kern der Darstellung von HDR Bildern ist.
Das verstehe ich so, dass du damit im Grunde das Tonemapping mit diesem "Abwasch" erledigen willst, denn du sprichst vom Kern der Darstellung. Das könnte funktionieren, doch auch hier ein "aber": Wie weit man den Kontrastumfang reduzieren muss hängt vom Ausgabemedium ab. Es wäre daher sinnvoll, den maximalen Kontrastumfang in der Datei zu erhalten.

Das entkräftet aber natürlich nicht den "nichtlinearen Ansatz", denn wenn die Sensoren entsprechend messen würden, könnte man vielleicht unter etwas Verzicht auf einige Informationen in den mittleren Helligkeiten, zu optisch ansprechenderen Ergebnissen kommen.
 
Zuletzt bearbeitet:
Hatte da eher an irgendsowas wirres gedacht, dass die Kamera ne Art dynamisches RAW entwickelt, wo der Sensor die Lichter ab nem gewissen Punkt gar nicht weiter belichtet und die Tiefen aber weiter mitzieht, dazu müsste er natürlich den Kontrast vom Motiv vorher kennen!

Das wär mal was ganz nettes, hätte aber leider überhaupt rein garnichts mit HDR zu tun.^^

DerDude schrieb:
Nun, offenbar wollen ja viele noch mehr Kontrastumfang als beim Negativfilm... Ich meine auch, dass HDR einen größeren Kontrastumfang verlangt, als ein Negativfilm. Aber darüber müssen wir nicht streiten...

Oh ja, einen sehr viel größeren.


Auch wenn die meisten hier wahrscheinlich schon oft genug welche gesehn haben willich hier doch nochmal ein eher geeignetes Beispiel eines HDR-Bildes einstellen, bei dem man recht schön sieht, dass es eben nicht notwendig ist, alle schatten voll ausgeleuchtet zu haben, um einen netten Effekt zu erzeugen. Ob das toneMapping hier übertrieben ist oder nicht, ist wohl geschmackssache, aber ich geb nich viel drauf in meinen Bildern realitätsnah zu bleiben und Halos ham find ich was mysthisches, deswegen dreh ich den Regler meistens ziemlich hoch.
_dsc0279_5_6_7_8_small.jpg

=> in groß
(Und bevors wieder irgendjemand besser weiß, ja die Unschärfe is genauso beabsichtigt wie das unnatürliche Licht... mir gehts nich darum die Realität zu kopieren, ich will lediglich Stimmungen einfangen.)
 
braucht man dazu ein bestimmtes Anzeigeprogramm?

im Browser siehts äh .. nicht gerade beispielhaft aus.

Wie sieht sowas ohne HDR aus?
 
das bild is im jpeg format, sollte also normal im browser korrekt angezeigt werden.
Meinst du beispielhaft im sinn von nicht-hdr-typisch oder man sollte das bild besser nicht als beispiel nehmen wenn man gute bilder machen will? ^^
Ich geb zu, dass das Licht etwas unkonventionell ist, aber mit einem "normalen" bild wäre mir entweder der himmel zu hell und farblos geworden oder man hätte die farbe der wiese nicht mehr erkannt, was ich aber für die stimmung wichtig fand und deshalb im bild haben wollte.

hier mal zwei verkleinerungen der hellsten und der dunkelsten mit eingerechneten aufnahmen:

_dsc0275_small.jpg


_dsc0279_small.jpg
 
Mal ein kleiner Einwurf, weil immer wieder nach dem Dynamikumfang der Fuji S5 Pro gefragt wird.

Laut dieses Testes hier beträgt der Umfang bei der S5 bei maximal ausgenutztem Sensor fast 12 EV (genau 11.8). Schon ganz ordentlich.

Edit: 11,8 EV bei JPG, bis zu 12,1 EV bei RAW.

Nekekami schrieb:
Das wär mal was ganz nettes, hätte aber leider überhaupt rein garnichts mit HDR zu tun.^^

Äh, ist es nicht eher genau das, was man mit HDR erreichen will? Mit HDR will man ja einen extremen Kontrastumfang in ein "ansehbares" JPG zu quetschen.

Mit der beschriebenen, dynamischen, Technik, würde doch genau das gleiche entstehen. Helle Stellen würden nicht ausbrennen und dunkle würden genug Zeichnung bekommen. Ehrlich gesagt habe ich mir dieses "Konzept" auch schonmal überlegt und mich gefragt, ob das technisch möglich wäre.
 
Dazu hätte ich ein kleines "Aber": Du sagtest ja so schön, dass Elektronen nicht in Bruchstücken vorkommen, es bringt also nichts bei der Kodierung höher aufzulösen, als es der Sensor tut.

Stimmt, völlig richtig. Am A/D Wandler ist es zu spät. Der Sensor selbst muss schon eine nichtlineare Empfindlichkeit haben. Nehme alles zurück und behaupte das Gegenteil.:o
 
Bzgl. Threadfrage...

Es kommst ganz auf die Hersteller an. Wenn sie Lust haben bauen sie es ein. Möglich ist es schon.
Es gibt bereits lauffähige HDR Videotechnik und diese ist ja wohl um einiges schwieriger umzusetzen!
 
Äh, ist es nicht eher genau das, was man mit HDR erreichen will? Mit HDR will man ja einen extremen Kontrastumfang in ein "ansehbares" JPG zu quetschen.

Mit der beschriebenen, dynamischen, Technik, würde doch genau das gleiche entstehen. Helle Stellen würden nicht ausbrennen und dunkle würden genug Zeichnung bekommen. Ehrlich gesagt habe ich mir dieses "Konzept" auch schonmal überlegt und mich gefragt, ob das technisch möglich wäre.

Da verwechselt ma wieder jemand HDR und DRI :rolleyes:
Ein HDR-Bild hat 32 Bit Farbtiefe, es gibt keine HDR-Bilder im JPG-Format.
Das was dieser Sensor tun würde wäre im Prinzip das, was man mithilfe von DRI am Computer machen würde nämlich die hellen und dunklen Teile eines Bildes so zusammenrechnen, dass ein Bild entsteht, dass überall die gewünschte Ausleuchtung hat, aber das Endprodukt hat trotzdem nur 8/16 Bit Farbtiefe und keinen größeren Tonwertumfang als jedes andere JPG/Tiff, hat also mit HDR nichts zu tun.

HDR bezeichnet eben nicht den Vorgang des "in ein JPG quetschens" sondern die Datei, die ungequetscht tatsächlich den hohen Kontrastumfang hat.
Wenn die Kamera von vorn herein JPGs ausspuckt ist HDR völlig überflüssig, dann kann man gleich DRI verwenden.

Ich hab mir auch schon überlegt ob so ein Sensor nicht möglich wäre.
Man bräuchte im Prinzip Photodioden, die keine Lineare Spannungskurve besitzen, sondern eine Logarithmische, Sprich bei doppeltem lichteinfall produzieren sie nicht doppelt so viel Spannung sondernn nur 1,5 mal, bei nochmal doppeltem nur noch 1,2 mal etc, dann würden die Highlights nicht so schnell überbelichtet.

Das würde allerdings für alle Bilder recht hohe Belichtungszeiten erfordern und mann könnte mit diesem Chip vermutlich nicht mehr "normal" fotografieren.
 
Zuletzt bearbeitet:
Da verwechselt ma wieder jemand HDR und DRI :rolleyes:

Naja, nachdem das überall im Internet ständig durcheinandergeworfen wird, weiß ich ja selbst nicht, was jetzt mit was gemeint ist. Aber danke für die Aufklärung ;).

Vielleicht merkt man, daß ich damit noch nichts gemacht habe.

Aber es wurde ja schon ein paar Mal hier angemerkt, daß ein 32bit-Bild einfach nirgendwo dargestellt werden kann. Wie soll man es denn herzeigen?
 
HDR bezeichnet eben nicht den Vorgang des "in ein JPG quetschens" sondern die Datei, die ungequetscht tatsächlich den hohen Kontrastumfang hat.
Wenn die Kamera von vorn herein JPGs ausspuckt ist HDR völlig überflüssig, dann kann man gleich DRI verwenden.

Ich glaube die meisten hier meinen aber wirklich DRI als das Gewollte, zumindest wär das ein sehr brauchbarer Anfang, da das sozusagen kompatibel zu allen gebräuchlichen Geräten ist!
HDRs könnten eh die wenigsten wirklich benutzen...
 

Ok, bei allen vermutlich nicht, aber bei solchen, bei denen man Spitzlichter im Bild haben will, da diese bei so einem Sensor sehr lange bräuchten um sich auszuprägen. Wenn man bei jedem normal-lang belichteten Bild zB den Glühfaden in der Birne erkennen kann weil der Sensor dicht gemacht hat, als dieser richtig ausgeleuchtet war dürfte das ziemlich unnatürlich aussehende Bilder geben.

Knilch schrieb:
Aber es wurde ja schon ein paar Mal hier angemerkt, daß ein 32bit-Bild einfach nirgendwo dargestellt werden kann. Wie soll man es denn herzeigen?

Indem man das Bild manuell auf 16 oder 8 Bit runterkomprimiert. Das muss aber ein Mensch machen da jedes Motiv eine andere Feinabstimmung benötigt. Wenn die Kamera das einfach alles über einen Kamm schert werden da sehr bescheidene Bilder bei rauskommen.


Knilch schrieb:
Ich glaube die meisten hier meinen aber wirklich DRI als das Gewollte, zumindest wär das ein sehr brauchbarer Anfang,...

Glaubich nicht, genauso wie HDRs von Menschenhand komprimiert werden müssen muss auch die Feinabstimmung beim Mischen von DRI-Bildern für jedes Bild individuell angepasst werden, ansonsten kann man die Ergebnisse wegschmeißen.

Das meiner Meinung nach einzig Sinnvolle wäre wirklich ein Sensor, der unkomprimierte 32Bit-Bilder aufnehmen kann. Wer damit nichts anfangen kann, brauchts ja nicht zu verwenden, bis die Entwicklung soweit ist, HDR-Sensoren für den Ottonormalverbraucher verfügbar zu machen, ist es sicher auch möglich den Sensor für HDR und normal zu verwenden, so wie momentan RAW- und JPG-Aufnahmen möglich sind.
 
Meinst du beispielhaft im sinn von nicht-hdr-typisch oder man sollte das bild besser nicht als beispiel nehmen wenn man gute bilder machen will? ^^

Ehrlich gesagt ein bischen von beidem...

Wobei ich mir das Bild als CD Cover gut vorstellen könnte ;)

Nein, ich habe irgendwo nicht gesehen was HDR hier bringen sollte (wobei ich das was Du zeigst bislang immer unter DRI verbucht habe), netterweise hast Du aber mit hellstem und dunkelstem Bild meine "Frage" beantwortet.
 
Ja, nach dem tonemapping ist es dann ein ??? :confused:

...ein Bild welches weder ein DRI noch ein HDR ist aber einen grossen Dynamik- und Kontrasumfang zeigt. :o
 
WERBUNG
Zurück
Oben Unten