• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Kameras mit 16bit RAW Ausgabe

Doch: in der Nachbearbeitung, ich komme aus dem Audiobereich, dot ist man mittlerweile bei 32bit beim recorden und d.h. dass man kaum noch aussteuern muss, bzw. eben verlustfrei rumregeln kann im Nachhinein.
Bei 32bit wird dann die Verstärkung mit eingerechnet. Das macht die Nachtverarbeitung dann einfacher. Wenn die oberen Bits klappern, dann sind die unteren nicht mehr zu gebrauchen. Mehr als 16 aussagekräftige Bits hat man da auch nicht.
 
Welches reale Problem aus der Praxis treibt dich an, hier nach 16Bit-RAW zu fragen, wo dir das Bisherige nicht genügt?
Posts gelesen?

Wenn du schattige, oder dunkle (z.b. extrem unterbelichtete Bildteile wegen Sonne im Bild z.b.) aufhellst, farbkorrigierst, hast du teils sehr starke Tonwertspreizungen. Da bist du über jeden feinen Grauwert am Anfang froh.
Und wie gesagt: die Megapixel der heutigen Zeit braucht man kaum, Bittiefe dagegen wärre echt hilfreich.
 
Das „wenn“ ist von Bedeutung. Deshalb schrieb ich, dass es nicht „automatisch“…
jaja, aber da betreiben wir grad Wortklauberei;-) Mehr Grauwerte pro Farbkanal lassen sich nicht wegdiskutieren.

Wie gesagt, komme aus dem Audiobereich, da steht am ENde (CD) auch "nur" eine 16bit-Datei, aber alle Berechnungen usw. erflgen dort in 32bit um Artefakte zu vermeiden und das neuste sind eben schon hohe Bittiefen bei der Aufnahme, also der Abtastung des analogsignals, um maximale Bearbeitbarkeit und maximalen Rauschabstand zu erreichen (auch mit Rechenleistung).

Das unsere Endbilder mit 8bit auskommen usw. hat doch damit nix zu tun, dass seltenst die Lichtstimmung vor Ort so ist, wie ich das Foto haben möchte.
 
Habe ich das? Oder sprichst du von dir? Ja auf dem Papier hast du Recht, in meiner realen Praxis aber nicht!

? ähm, sorry, dass ich da mal merkwürdig antworte: DEINE Praxis interessiert mich nicht.

Ich habe meine Praxis, mit entsprechenden Beurteilungen, Fragen, Wünschen usw. und wenn du nicht "analog" denken kannst (was also Audio und Video gemeinsam haben), dann fehlt uns eh die Verständnisebene. Sorry, aber etwas Abstraktion, Freude an theoretischer Überlegung und inhaltlicher Beschäftigng mit dem Thema setze ich schon voraus. Man kann auch mit Lomographie gute Bilder machen, darum gehts aber hier nicht. Genausowenig geht sdarum ob ich das "brauche" und jetzt eine Kamera suche, um sie zu erwerben......

Es geht einfach darum ab und an über den Tellerreand zu blicken, ohne " das braucht kein Mensch", "musst du oredntlich belichten" usw. Naseweisssprech.;-)
 
? ich will wissen, ob es echte unkmprimierte16bit Sensorauslesung gibt. Wenn das obige stimmt, ist das doch Quatsch.
Es gibt Kameras – AFAIK manche Pansonic GH und das GM9II Modell – die lesen den Sensor doppelt mit beispielsweise 14?-Bit, aber mit unterschiedlichen Verstärkungen aus und rechnen die Outputs zu einem 16-Bit Ergebnis zusammen. Das Ergebnis entspricht dann sagen wir mal vereinfacht in etwa einer echten 15 Bit Quantisierung und wird trotzdem in eine 16-Bit Datei reingeschrieben.
Aber, woher weisst du denn das? Wo steht sowas, welcher Sensor jetzt wie genau ausgelesen und abgetastet wird?
Das steht – sofern verfügbar – in den öffentlich zugänglichen Spezifikationen des Herstellers, in dem Fall bei Sony.
 
Das zentrale Problem ist die Proportionalität der Raw-Werte zur Zahl der einfallenden Photonen. Da hat man dann bei einem 14Bit-Raw einer Kamera mit 14EV Dynamik für die obere Blende 8192 Abstufungen, für die untere aber nur zwei. Hellt man diese tiefsten Schatten dann tatsächlich auf, sind Tonwertabrisse unvermeidlich. Deshalb sind 16Bit-Raws eigentlich überfällig. Eine grundlegende Änderung der Raw-Struktur brächte allerdings noch mehr.

Ein anderes Problem ist die Software. M.W. sollte deren Rechengenauigkeit stets höher sein als die Qualität des Eingangsmaterials. Damit bleiben Programme wie LR, die intern nur mit 16Bit rechnen, für 16Bit-Raws aussen vor. Deren Rundungsfehler machen nämlich sonst den Qualitätsgewinn zunichte.
 
Das zentrale Problem ist die Proportionalität der Raw-Werte zur Zahl der einfallenden Photonen. Da hat man dann bei einem 14Bit-Raw einer Kamera mit 14EV Dynamik für die obere Blende 8192 Abstufungen, für die untere aber nur zwei. Hellt man diese tiefsten Schatten dann tatsächlich auf, sind Tonwertabrisse unvermeidlich. Deshalb sind 16Bit-Raws eigentlich überfällig. Eine grundlegende Änderung der Raw-Struktur brächte allerdings noch mehr.

Ein anderes Problem ist die Software. M.W. sollte deren Rechengenauigkeit stets höher sein als die Qualität des Eingangsmaterials. Damit bleiben Programme wie LR, die intern nur mit 16Bit rechnen, für 16Bit-Raws aussen vor. Deren Rundungsfehler machen nämlich sonst den Qualitätsgewinn zunichte.
mein Reden, was schon lange im Audioberecih eben so gehandhabt wird (32bit Fliesskommaberechnung). Dass hier User dass mit einem Auslachsmiley quittieren, spricht nicht gerade fürs Forum.

Das die Schatten so grob aufgelöst werden: echt jetzt, immernoch im Jahre 2024? Seinerzeit hatte die M8 (Leica) das ja schon anders gelöst. Ich hätte gemutmasst, daß eine gleichwertige Abtastung der verschiedenen Zonen mittlerweile Standard wäre. Wennn nicht, spräche das ja nachwievor für die grösstmögliche Überbelichtung -EtR oder wie das auf denglisch genannt wird, um auch nur ansatzweise die Schatten/Tiefen bildbearbeitbar zu machen.
 
EttR ist auch heute noch die Beste Methode für größtmögliche Qualität.
Biste Ruhig... Man könnte sonst glatt auf die Idee einer Belichtungsreihe kommen.

Ich werfe dann mal den Monitor mit ins Spiel. Die meisten Bezahlbaren Monitore haben eine Native Auflösung von 10bit, alles andere wird passend umgewandelt mit LUT´s
Man bekommt ja nichteinmal 14bit Nativ angezeigt, inwieweit spielt das eigentlich eine Rolle ? und hat dies Auswirkungen?
 
@feuervogel69
Bei MF-Kameras findest du 16Bit Farbtiefe eher. Phase One bietet das an, die GFX100 von FUJIFILM kann das…

Und ja, 16Bit Farbtiefe bedeutet nicht automatisch bessere Bildqualität. Aber feinere Farbabstufungen, vor allem bei Verläufen, sind damit natürlich schon möglich.
Ich wiederhole das Posting, welches ich in der Zeit geschrieben hatte, als du noch an "Nachbearbeitung etc." getippt hattest. Unsere Postings hatten sich sozusagen zeitlich überschnitten; ich tippe anscheinend zu langsam.

Und da du mein Posting gelesen hast, verstehe ich deine Antworten an mich nicht so ganz. Dass ist "nicht automatisch" erwähnte, ergibt sich aus dem vorherigen Posting von ObjekTiv, das einzige, das ich zu diesem Zeitpunkt sehen konnte. Ich bin im Prinzip deiner Meinung und habe das auch kundgetan. Und ich denke, das reicht jetzt auch.
 
Ich wiederhole das Posting, welches ich in der Zeit geschrieben hatte, als du noch an "Nachbearbeitung etc." getippt hattest. Unsere Postings hatten sich sozusagen zeitlich überschnitten; ich tippe anscheinend zu langsam.

Und da du mein Posting gelesen hast, verstehe ich deine Antworten an mich nicht so ganz. Dass ist "nicht automatisch" erwähnte, ergibt sich aus dem vorherigen Posting von ObjekTiv, das einzige, das ich zu diesem Zeitpunkt sehen konnte. Ich bin im Prinzip deiner Meinung und habe das auch kundgetan. Und ich denke, das reicht jetzt auch.
Ach so meinst du das! Sorry, ich muss mich erst hier dran gewöhnen, dass die einen die vorigen Posts oft kaum lesen und andere- Du in dem Falle und natürlich hier gerade 90% der Antworter- ganz dezidiert auf Posts antworten. Sorry, dann hatte ich dich tatsächlich nicht in der Reihenfolge gelesen, wie du das schriebst und meintest. Mea Culpa.
 
Ich werfe dann mal den Monitor mit ins Spiel. Die meisten Bezahlbaren Monitore haben eine Native Auflösung von 10bit, alles andere wird passend umgewandelt mit LUT´s
Man bekommt ja nichteinmal 14bit Nativ angezeigt, inwieweit spielt das eigentlich eine Rolle ? und hat dies Auswirkungen?
Das eine hat ja mit dem anderen nichts zu tun.
Eine größere Dynamik der Eingangsdaten bei der Bearbeitung hat schon Vorteile auch wenn hinterher nur ein 8Bit JPG raus kommt.
 
Das die Schatten so grob aufgelöst werden: echt jetzt, immernoch im Jahre 2024?
Ich glaube du hast da eine falsche Vorstellung von der Wandlung/Abtastung im Sensor.
Beim Audiosignal hast du ein kontinuierliches Signal, dass du einfach schneller oder genauer abtasten kannst (ADC mit höherer Abtastrate oder Bittiefe nehmen).
Beim Fotosensor zählst du einfallende Photonen. Das ist nichts kontinuierliches. In den dunklen Bereichen, fallen nur einzelne Photonen in dem Zeitraum der Belichtung auf den Sensor. Ein einfallendes Photon löst mit 30..60% Wahrscheinlichkeit ein Elektron aus, das dann vom ADC gezählt wird. Dabei ist der ADC schon seit über 10 Jahren nicht der begrenzende (Rausch-)Faktor, sondern tatsächlich die Anzahl der Photonen.
Die Schatten werden also deshalb so grob aufgelöst, weil es dort so wenige zählbare Photonen gibt. Und das ändert sich physikalisch natürlich auch zukünftig nicht grundlegend.
Außer du erlaubst, dass die Belichtungszeit länger wird. Dann kannst du warten, bis du so viele Photonen eingefangen hast, wie du möchtest. Bei den heute existierenden Sensoren, saturieren dann aber die Pixel, die mehr Photonen abbekommen haben (=> "alles außenrum wird weiß"). Hm. Und du bekommst dann bei bewegten Objekten Unschärfeeffekte (eben durch die Bewegung) - aber abhängig von der lokalen Helligkeit.
 
WERBUNG
Zurück
Oben Unten