• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Kameras mit 16bit RAW Ausgabe

Ich glaube du hast da eine falsche Vorstellung von der Wandlung/Abtastung im Sensor.
Beim Audiosignal hast du ein kontinuierliches Signal, dass du einfach schneller oder genauer abtasten kannst (ADC mit höherer Abtastrate oder Bittiefe nehmen).
Beim Fotosensor zählst du einfallende Photonen. Das ist nichts kontinuierliches. In den dunklen Bereichen, fallen nur einzelne Photonen in dem Zeitraum der Belichtung auf den Sensor. Ein einfallendes Photon löst mit 30..60% Wahrscheinlichkeit ein Elektron aus, das dann vom ADC gezählt wird. Dabei ist der ADC schon seit über 10 Jahren nicht der begrenzende (Rausch-)Faktor, sondern tatsächlich die Anzahl der Photonen.
Die Schatten werden also deshalb so grob aufgelöst, weil es dort so wenige zählbare Photonen gibt. Und das ändert sich physikalisch natürlich auch zukünftig nicht grundlegend.
Außer du erlaubst, dass die Belichtungszeit länger wird. Dann kannst du warten, bis du so viele Photonen eingefangen hast, wie du möchtest. Bei den heute existierenden Sensoren, saturieren dann aber die Pixel, die mehr Photonen abbekommen haben (=> "alles außenrum wird weiß"). Hm. Und du bekommst dann bei bewegten Objekten Unschärfeeffekte (eben durch die Bewegung) - aber abhängig von der lokalen Helligkeit.
Da magst du Recht haben, ich hielt das eben heute für technisch "gelöster".
 
Eine größere Dynamik der Eingangsdaten bei der Bearbeitung hat schon Vorteile auch wenn hinterher nur ein 8Bit JPG raus kommt.
Warum ? Wenn ich doch nur 10bit sehe, kann ich auch nur 10bit Bearbeiten. Was raukommt ist ja ersteinmal egal.
Welchen Mehrwert habe ich durch 16bit die mir auch was nützen, das verstehe ich gerade nicht. Nativ Angezeigt bekomme ich ja nur 10 und alles darüber aufgearbeitet.
 
Warum ? Wenn ich doch nur 10bit sehe, kann ich auch nur 10bit Bearbeiten. Was raukommt ist ja ersteinmal egal.
Welchen Mehrwert habe ich durch 16bit die mir auch was nützen, das verstehe ich gerade nicht. Nativ Angezeigt bekomme ich ja nur 10 und alles darüber aufgearbeitet.
Nein, es geht um die Abrisse durch zu grosse Wertesprünge. Das musst du nicht sehen (bei der Bearbeitung), siehst es aber- im Falle die Tonwertspreizung hat zu grosse Abstände erzeugt- dann halt am Ende im Bild. Die Dateibearbeitung - und Verrechnung und das was du am Bildschirm siehst, sind komplett 2 paar Schuhe.

Stell dir einfach mal nen zarten durch RGB ausgedrückten Violetten Verlauf vor, den du dann farblich verschiebst, aufhellst/abdunkelst (mit daraus ebensoo resultierenden Farbverschiebungen) usw.. je dichter die Ausgangswerte, umso kontrollierter kannst du das verschieben. Die Programme machen das ja im HIntergrund, während sie für dich am Bildschirm sozusagen ne Grobdarstellung basteln. Die Abstufung eines Verlaufes siehst du da nicht in jedem Moment.

Wenn du glaubst, man sähe übrigens solche feinst abgestuften Tonwertverläufe gar nicht, dann schau dir mal analoge GF-Bilder an. Ich seh das sofort. Einerseits starke Tontrennung, aber dann innerhalb der Farben feinste cremige Verläufe. Das ist, was du aus hochaufgelöstem Material herausholst, wenn die Tonwerte aufgezeichnet werden.
 
Das zu Hoch für mich, ich sehe es nicht bei er Bearbeitung, aber später im Bild ??
Ich Bearbeite das was ich sehe, und nicht das was es sein könnte.
Danke
 
Warum ? Wenn ich doch nur 10bit sehe, kann ich auch nur 10bit Bearbeiten. Was raukommt ist ja ersteinmal egal.
Welchen Mehrwert habe ich durch 16bit die mir auch was nützen, das verstehe ich gerade nicht. Nativ Angezeigt bekomme ich ja nur 10 und alles darüber aufgearbeitet.
Wenn ich das Bild bearbeite und die Schatten hochziehe, habe ich in der untersten Blende noch eine Auflösung von drei Bit. Beim 14Bit-Raw ist es noch ein Bit - damit ist die Dynamik moderner Cams nahezu nutzlos. Schrieb ich doch schon.
 
Ich Bearbeite das was ich sehe
Nein. Du bearbeitet, was es ist, nicht was du im Moment deiner Bearbeitung siehst. Tonwertabrisse in Verläufen entstehen, ob du sie erkennen kannst oder nicht.

Du arbeitest heute, sagen wir mal salopp, mit einem 8Bit-Monitor (nur Farbtiefe betreffend) der Economy-Klasse. Du bekommst dabei die Tonwertabrisse, wenn du Verläufe bearbeitest, eventuell(!) nicht zu sehen bzw. bemerkst sie nicht, weil du die Darstellung deines Monitors für die Welt hältst und du meinst, das sei alles eben normal.. Also alles in Ordnung? Aber wie sieht dein Bild in fünf Jahren auf einem Top-Monitor aus? Oder heute schon bei anderen Usern, die deine Bilder (nicht nur im Web) betrachten? Weil dort fällt das drastisch auf. Wenn du etwas nicht mitbekommst, heißt das nicht, dass es nicht existiert.

Anderes Beispiel: Top-Profi-Scanner für medizinische Bereiche oder auch Kunstreproduktion liefert dir tatsächlich schon heute 16Bit Farbtiefe ("Deep Color"). Sinnlos? Alles Deppen, die sowas bauen, weil sowieso unnötig? Glaubst du wirklich, dass gewinnorientierte Unternehmen sauteure Geräte entwickeln, just for fun?

Aber das alles ist sowieso Off Topic. Die Frage war nicht, wer sowas und wozu braucht oder nicht, weil... Die Frage war, welche Kameras es gibt, die RAWs mit 16Bit Farbtiefe liefern.
 
Das zu Hoch für mich, ich sehe es nicht bei er Bearbeitung, aber später im Bild ??
Ich Bearbeite das was ich sehe, und nicht das was es sein könnte.
Danke
Fängt damit an, dass die meisten Monitore doch den Farbraum gar nicht darstellen können, Drucker aber schon. Du bearbeitest das Bild, indem du als König den Aufsehern (dein Monitor) zurufst, was sie den Arbeitern sagen sollen, was die tun sollen. Die wiederum reichen abgespeckte Ansichten dessen was sie tun, an die Aufseher zurück und schreiben sich alles auf was sie tun sollen, damit du weiter entscheiden kannst.
Erst wenn du auf "exportieren" klickst, beginnt die eigentliche Arbeit und du kannst dir danach alles anschauen. STARK VEREINFACHT. Natürlich siehst du in der 100% Ansicht eigentlich auch schon was getan werden wird. Aber final berechnet wirds erst am Ende. Viele Programme arbeiten "destruktiv", falls dir das was sagt.

Monitoransicht ist immer eine i.d.r. abgespeckte Abbildungsversion deiner eigentlichen Datei, die viel mehr Infos enthält.
 
Wenn ich das Bild bearbeite und die Schatten hochziehe, habe ich in der untersten Blende noch eine Auflösung von drei Bit. Beim 14Bit-Raw ist es noch ein Bit - damit ist die Dynamik moderner Cams nahezu nutzlos. Schrieb ich doch schon.
Hab versucht dazu nooch mal Artikel zu finden (z.b. vom Husmann), ist mir aber nicht gelungen. Hast du weiterführende Links, wo ich mich da noch mal einarbeiten kann, also insbesndere was die konkreten Zahlen - du sprichst ja von konkreten EV- anbelangt.

Und: (dein nickname geht ja dahin): ist das u.a. auch so ein Filmvorteil, dass der nicht diese Aufösungsbegrenzung hat? Kommt mir ja stark so vor.
 
Hab versucht dazu nooch mal Artikel zu finden (z.b. vom Husmann), ist mir aber nicht gelungen. Hast du weiterführende Links, wo ich mich da noch mal einarbeiten kann, also insbesndere was die konkreten Zahlen - du sprichst ja von konkreten EV- anbelangt.

Und: (dein nickname geht ja dahin): ist das u.a. auch so ein Filmvorteil, dass der nicht diese Aufösungsbegrenzung hat? Kommt mir ja stark so vor.
Sekundärliteratur brauchts dafür nicht- Potenzrechnung genügt. Und wenn du der nicht glaubst, machst du einfach eine Belichtungsreihe auf eine homogene Fläche und schaust nach, welche Zahlen deine Kamera für jede Stufe ins Raw schreibt. Dann fällt dir sehr schnell auf, dass die Abstände immer kleiner werden je weniger Licht du zur Verfügung hast. Wie das grafisch aussieht, habe ich z.B. im Anhang gezeigt.

Und Film ist auch "digital" - die kleinste Einheit ist hier das Korn. Das fällt besonders auf, wenn man einen miesen Entwickler wie Rodinal verwendet.
 

Anhänge

Wenn du schattige, oder dunkle (z.b. extrem unterbelichtete Bildteile wegen Sonne im Bild z.b.) aufhellst, farbkorrigierst, hast du teils sehr starke Tonwertspreizungen. Da bist du über jeden feinen Grauwert am Anfang froh.
Den Du erstmal dem Sensorrauschen und sqrt( n ) abringen musst, ein höher auflösender ADC bringt ansonsten nichts ausser mehr Datenmüll.
Beim Schattenaufhellen ist spätestens am Schrotrauschen Schluss, daran führt bei Einzelbildaufnahme kein Weg vorbei.

Wenn Du von Schatten sprichst, wieviel Stufen unter Sättigung meinst Du damit?
An den aktuellen 40-50ke- FWC Sensoren würde ich nicht viel Bedarf nach einem 16bit ADC sehen, aber lasse mich gerne vom Gegenteil überzeugen.


Wennn nicht, spräche das ja nachwievor für die grösstmögliche Überbelichtung -EtR oder wie das auf denglisch genannt wird, um auch nur ansatzweise die Schatten/Tiefen bildbearbeitbar zu machen.
Tut es auch, nicht zuletzt weil damit u.A. der Einfluss des Schrotrauschens minimiert wird. Je mehr Photonen gesammelt werden können, umso besser.
 
Wenn Du von Schatten sprichst, wieviel Stufen unter Sättigung meinst Du damit?
Das müsste ich mal bei Gelegenheit messen: kann ich das im RAW im nachhinein messen, oder ist es hier hilfreich mit dem Beli punktuell (ich verwende Light meter App) mal den Kontrast direkt auszumessen? Ich meine aber schon Schatten, z.b. bei zerklüftetem Gestein (Felsen) was direkt von der Sone angestrahlt wird (also die den Schatten gegenübergestellten Flächen), also schon teilweise "hartes" Licht.
Hab mal ein Beispielbild (reines Testbild, kein künstlerischer Anspruch, da nur Wanderung und kein explizites Fotomotiv gesucht) angehängt, schon bearbeitet. Das war EttR (ich glaube +2.0) belichtet, also schon ganz gut im Rahmen und die Schattenflächen waren hier nicht so gross. Gab aber andere Bilder, wo es mit den Schattenteilen- insbesondere deren "Verblauung" (wenn ich dort aufhellte) für mich kritisch war, bzw. da für mich Fragen auftauchen. Ich arbeite neu mit DXO und muss mich da noch einarbeiten, aber z.b. die typisch zu kühle Farbwiedergabe vom Blattgrün (und deren Korrektur) und eben schattigen Stellen beschäftigt mich. Links unten wäre so eine typische "Schattenstelle" aus der ich gefühlt nur wenig rausholen könnte ( bei einem anderen Bild! Hier nur als Belichtungspeispiel)

Dieses Bild jetzt parallel mit einer GFx würde mit Sicherheit eine andere Farbdurchzeichnung haben, unabhängig vom "Drehen an den Reglern" hinterher.

DSC04766_DxO.jpg
 
Nachdem ich jetzt eue ganzen Einwände bezüglich der "schlechten" Abtastung zu den Tiefen hin verinnerlicht habe, komme ich zu folgendem Schluss:

Dass wovon ich "träume", ist weniger eine Sache von 16bit, sondern eine Sache der absoluten Lichtmenge in den Tiefen.
Was dann heisst: je grösser der Sensor, desto besser die Tiefenzeichnung, denn bei gleicher Lichtsituation nimmt der grössere Sensor immer mehr Licht auf.

Ergo: hier liegt der grösste Unterschied zwischen den Sensorformaten einerseits (Tiefendurchzeichnung) und andererseits lohnt es (bzw. wäre das die davon abegeleitete Herausforderung). beim Aufnehmen mit kleinen Sensoren den Kontrastumfang (bzw. die Lichter) duch Verlaufs- und Polfilter runterzubekommen, um insgesamt höher zu belichten.

Wenn ichs recht verstehe, sollte an den eben beschrieben Dingen MfT und APS-C nicht vorbeikommen und KB ooder MF werden hier immer vorne sein, Megapixelunabhängig.
Interessante Schlussfoolgerungen, die mir vorher so nicht klar waren. Danke an alle Anmerker und Bedenker;-)
 
beim Aufnehmen mit kleinen Sensoren den Kontrastumfang (bzw. die Lichter) duch Verlaufs- und Polfilter runterzubekommen, um insgesamt höher zu belichten.
Das ist eine Möglichkeit, oder du freundest dich mit Belichtungsreihen an die man dann zum HDR verrechnet.
Wenn deine Landschaftsbilder so aussehen wie das gezeigte, funktionieren Verlaufsfilter, viel mehr sollte dann aber nicht in den Himmel hineinragen.
 
Was dann heisst: je grösser der Sensor, desto besser die Tiefenzeichnung, denn bei gleicher Lichtsituation nimmt der grössere Sensor immer mehr Licht auf.
Grob gesagt, ja.
Mit ähnlicher Sensortechnologie sind größere Sensoren bei DR und damit letztendlich auch "Tiefenzeichnung" immer im Vorteil.

Der Sprung zwischen mFT, APS-C, KB und 44x33 MF beträgt jedes mal in etwa eine Verdoppelung der Fläche und eine Stufe mehr DR.

Für Bilder wie Dein gezeigtes Beispiel würde ich auch Belichtungsreihen und HDR oder DRI empfehlen, das ist im Grunde mit jeder Kamera möglich. Nur Bewegung darf kaum sein im Bild.
Wenn die Bewegung unvermeidbar ist aber weichgezeichnet werden darf, kann man alternativ eine große Anzahl an Bildern mit gleicher, idealerweise ETTR, Belichtung aufnehmen und nachträglich den Mittelwert daraus berechnen.
 
In dem Beispiel gings nur um die "Schatten".... Ich sehe diese "problematik" auch bei Poträts mit natürlichem Licht (abgeschattete Augen, oder Hautstellen z.b.), oder generell bei "Draussenfotografie". Nicht immer sind Schatten schlecht, aber immer eher schlecht zu korrigieren. Für Belireihen hab ich im Moment keine Software (arbeite nur mit DXO) und ohne Stativ ist das auch manchmal schwierig. Aber das sind ja praktische Fragen, hier gings ja nur um die Frage: wie erhalte ich bestmögliche Auflösungswerte in den Tiefen. Das ist für mich grundsätzlich nun beantwortet, bzw.ich kann die Praxis nun darauf ausrichten, bzw. weiss auch, dass KB doch in mittlerer Zukunft bei mir wieder Einzug hält.
 
wäre aber auch in diesem Bereich eher die Frage der optimierten Lichtsetzung denn des bitreicheren Sensors/Prozessors ?
 
Vor allem bei Bildern, wie er sie als Beispiele gezeigt hat. :ROFLMAO:
Also Lichtsetzung hat die Sonne gemacht;-)
wenn das Foto, das einfach testweise während einer Wanderung entstanden ist, hätte richtig sein sollen, würde man das nicht nachmittags 15.00, also Sonnenzeit 14.00, machen..... Ich hatte da extra eine Anmerkung zu gemacht, das bitte nicht als "Foto" zu betrachten....
 
Zuletzt bearbeitet:
wäre aber auch in diesem Bereich eher die Frage der optimierten Lichtsetzung denn des bitreicheren Sensors/Prozessors ?
Ja, ich weiss was ein Reflektor ist... (Outdoorporträt), aber das ich auch bei einem Porträt gnadenlos überbelichte (Kamerahistogrammbezogen), sind für mich neue Erkenntnisse.

Wie gesagt: die praktischen Fragen sind doch komplett andere, aber das Wissen darum, wie ich meinen Sensor ausreize und wo man perspektivisch hinschielt, equipmentmässig, ist eben das andere, wo solche theoretischen Diskussionen für mich absolut hilfreich sind.
 
WERBUNG
Zurück
Oben Unten