• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Welche Bildsensoren sind (echtes) HDR fähig?

Nightspider

Themenersteller
Hi,
da TVs seit einer Weile HDR unterstützen und nun auch die ersten PC-Monitore auf den Markt kommen welche HDR wiedergeben können wollte ich mich mal erkundigen welche Kamera Sensoren überhaupt in der Lage sind solche Videos aufzunehmen.

Vor allem interessiert mich welche Mindestvoraussetzungen dafür nötig sind. Benötigt es einen extrem hohen Dynamikumfang? Reichen dafür aktuelle Sensoren schon und es fehlen nur noch die richtigen Prozessoren für HDR Kameras? Gibt es da Richtwerte?

Und falls es ein Mindestlevel bei dem Dynamikumfang geben muss, wie hoch muss dieser dann mindestens sein?

Und wird das HDR Bild besser je höher der Dynamikumfang ist?

Und vor allem: wie stehen APS-C und kleinere Sensoren wie Sonys 1 Zoll Sensor beim Dynamikumfang da?
Ich bin bestenfalls Laie aber meine mich erinnern zu können das vor allem (oder nur?) große (highend?) Vollformat-Sensoren einen sehr großen Dynamikumfang besitzen.

Gibts hier jemanden im Forum der sich damit wirklich gut auskennt?

Ich weiß es ist bisher eine teure Nische aber ich sehe da sehr großes Potential bei HDR Videos und Fotografie.

LG
 
Was meinst Du mit echtem HDR?

Ich wage mal zu behaupten, dass alles, was heute verkauft wird, einen größeren Dynamikumfang als rec.709 hat...
 
HDR Bilder waren bisher nur 3 verschieden belichtete Bilder die zu einem Bild zusammengerechnet wurden.
Das resultierende Bild trägt doch aber nirgends die Helligkeitsinformationen in sich die für einen richtigen, digitalen HDR Monitor nötig wären.

Diese alte HDR Fototechnik war doch geeignet um in Details in hellen und dunklen Bildbereichen gleichermaßen herauszuarbeiten und bei Bedarf das Bild auf Papier entwickeln zu lassen.

Du kannst damit aber kein Bildschirm ansteuern bei dem das Foto eines Sonnenunterganges alle Details enthält und die untergehende Sonne hell rot leuchtet. Die Lichtintensität wird einfach nicht vermittelt.

Genau so wie Fotos eben immer Fotos bleiben werden und nicht das Bild des Auges widerspiegeln werden weil Details und Dynamik fehlen.

Für echtes HDR sollten die Bildschirme/TVs am besten mindestens 1000 oder 1500 Nits erreichen für einen realistischen Bildeindruck. Somit können alle Details in dunklen Bildbereichen dargestellt und trotzdem gleichzeitig sehr helle Lichtquellen wie Lampen, Kerzen oder die Sonne dargestellt werden.

Bedauerlicherweise hat die Industrie diesem neuen HDR Standard keinen eigenen Namen gegeben, denn es hat ja nichts mit bisheriger HDR Fotografie zu tun.
 
HDR Bilder waren bisher nur 3 verschieden belichtete Bilder die zu einem Bild zusammengerechnet wurden.

Naja... HDR heißt ja nun erstmal nur High Dynamic Range.
 
@ChibaCityBlues
Nun, ich finde es sehr gut, dass die Spezifikationen nun auch den Dynamikumfang ausbauen. HDR10 und Dolbyvision kämpfen aktuell um den höheren Marktanteil. siehe auch zB Rec.2020 oder den Wiki-Eintrag dazu.

zur eigentlichen Frage: Einen höheren Dynamikumfang als 8 bzw 10 Blenden haben sie eigentlich alle. Nur sind die Videocodecs rar gesät. Eingangsseitig arbeitet kaum Jemand (im Consumerbereich) mit mehr als 8Bit - ausgangsseitig interessieren kaum jemanden Codecs, die mehr als 8Bit tragen können, ganz zu schweigen von der Wiedergabekette Player->Kabel->Display.

Ich arbeite im Veranstaltungsbereich zB mit DVS Pronto oder Stumpfl Wings Raw Servern, die ihre Macht mit 16Bit-TIF-Ketten ausspielen. Primär zur Vermeidung von Banding.
 
Zuletzt bearbeitet:
@ChibaCityBlues
Nun, ich finde es sehr gut, dass die Spezifikationen nun auch den Dynamikumfang ausbauen. HDR10 und Dolbyvision kämpfen aktuell um den höheren Marktanteil. siehe auch zB Rec.2020 oder den Wiki-Eintrag dazu.
Das sehe ich ganz genau so. Ich bin sehr glücklich, dass darüber gesprochen wird.

Aber die Definitionsfrage ist schon relevant. Im Grunde haben ja alle Kameras einen Dynamikumfang, der den normaler Bildschirme übersteigt.

Auf der anderen Seite.. Die 21 Blenden (afair), die Dolby spezifiziert erreicht keine Kamera.

Deswegen sollte man sich schon fragen, wie viel HDR es denn sein soll...
 
Juhu mein erster Beitrag! =)

Also ich arbeite schon eine Weile in dem Bereich Film. Es ist grundsätzlich einmal so, dass Filmkameras, aber mittlerweile auch einige Kameras die im Fernsehbereich eingesetzt werden, einen wesentlich höheren Dynamikumfang aufnehmen, als vor allem im Fernsehen wiedergegeben werden kann. Sehr zum leid des Kameramannes der den Film aufnimmt, da nur ein Bruchteil davon ankommt.

Wie oben schon erwähnt entwickeln Firmen (wie Dolby und andere Firmen) Standards damit auch Fernsehgeräte diese Dynamikumfänge wiedergeben können. Ich selbst habe schon Fernsehgeräte und Material gesehen und ich freue mich schon wenn HDR als Standard in jedem Fernsehgerät verbaut ist. :)
Zum Beispiel ist es auch ein großer Unterschied, ob man einen Film im Kino ansieht, da diese Projektoren auch einen größeren Dynamikumfang haben.

Kameras gibt es aber schon lange die einen großen Dynamikumfang aufnehmen können. Es sind heutzutage auch viele Firmen vertreten, die Kameras mit hohem Dynamikumfang bauen.

Ich hoffe, dass konnte ein bisschen deine Fragen beantworten. ;)

Edit: Was ich noch vergessen hatte: Ein großes Problem sind auch immer die Datenraten die man bei HDR hat. Diese großes Bilder müssen erst einmal von A nach B gesendet werden. Im Fernsehbereich zu Millionen von Leuten ohne große Latenzen. Aber das wird nun auch immer besser von Jahr zu Jahr so das HDR in den Startlöchern ist.
 
Zuletzt bearbeitet:
Der aktuelle Standard sagt erstmal, dass ein Display eine offizielle HDR-Zertifizierung erhält, wenn es mind. 1000nits hat. (Was bei einem Schwarzwert von 1nit schon 10 Blenden wären, und der SW sollte wohl auch darunter liegen, damit das alles Sinn macht.) Ich bin also erstmal "guter Dinge", dass da was Sinnvolles kommt. Nichtsdestotrotz haben wir noch das Problem, dass die Verarbeitungs- und Ausspielkette im Consumerbereich noch lange nicht fertig ist.

Bezüglich Datenmenge/Rate: UHD hat die Datenmenge deutlich schlimmer angehoben als es 10 oder 12Bit täten. Dazu kommt auch, dass das Gros der Codecs lediglich für 8Bit optimiert sind. Im Endeffekt wollte ich nur sagen, dass auch die Raw-Daten (Magiclantern) einen deutlich höheren Dynamikumfang haben, dieser aber nicht ausgenutzt werden kann, weil eben diese oben genannte Kette nicht existiert.

Weiterdingens :) Man tappt in der Ausspielung von maximalem HDR auch in die gleiche Falle wie es HDR-Foto gemacht hat. Es kann auch einfach nur schlecht aussehen. Es gehört mehr dazu, als nur 16Bit darstellen zu wollen (siehe Ideen wie in der Spezifikationen Rec.2100 und SMPTE ST 2094, wo Metadaten die HDR-Umfänge für Szenen festlegen)

..Du kannst damit aber kein Bildschirm ansteuern bei dem das Foto eines Sonnenunterganges alle Details enthält und die untergehende Sonne hell rot leuchtet. Die Lichtintensität wird einfach nicht vermittelt...
Das geht schon in Richtung Wahrnehmungspsychologie. Das Auge hat per se auch ein Problem mit sowas - es ist das vom Gehirn zuammengesetzte Bild, dass Du Dir auf dem Bildschirm wünscht.

@FotoTigger Willkommen :)

mfg chmee
 
Zuletzt bearbeitet:
Hallo,
HDR bedeutet eigentlich im Allgemeinen das die Kamera (Sensor, innere Softwareverarbeitung) den Kontrastumfang auf einen kleineren Helligkeitsumfang staucht um es auf "gängigen" Ausgabemedien (Druck, Monitor) abbilden zu können.
Es braucht also keinen "HDR-Monitor".
Das ist auch das was die Kamerahersteller gerne als HDR Funktion bezeichnen.
 
Nein, HDR ist -wie oben schon geschrieben- nur eine Dynamikumfang-Unterscheidung, die vor 10 Jahren wichtiger war als es heutzutage ist. Damals wurden HDR-Dateien vornehmlich für Global-Illumination/Environment Maps in der CGI verwendet. Man könnte auch darüber sinnieren, ob 14-15 Blenden Dynamikumfang (zB eines Sony-Sensors) nicht auch schon HDR sind - um sie als jpg (LDR oder SDR) zu sehen, werden sie auch gestaucht, und das geschieht in jeder Raw-Converter-Software.

Die Algorithmen/Funktionen zur Stauchung/Wandlung haben eigene Namen, wie zB Tone Mapping.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten