• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang Nikon

@waartfaarken
zum ersten (15LW in 14bit) dürftest Du ruhig mal mehr schreiben, damit auch ich verstehe, wieso es so ist.

Dafür müsstest Du erstmal verstehen, was Dynamik denn bedeutet. Eure Abzählerei mit Einzelwerten und einzelnen Bits führt da zu gar nichts. Dynamik ist (mathematisch gesehen) eine statistische Größe, die erfasst man gedanklich, wenn man in Mittelwerten und Standardabweichungen denkt. Ein Mittelwert aus vielen 14bit-Zahlen kann beliebige Zwischenwerte annehmen. Schon der Mittelwert aus den 2 1bit-Zahlen 0 und 1 ist 0,5 und wäre eine 2bit-Zahl. Der Mittelwert aus vielen 1bit-Zahlen liegt beliebig irgendwo zwischen 0 und 1.

Wenn man nun eine große Zahl normalverteilter und noch nicht diskretisierter Werte linear mit der Schrittweite d diskretisiert, steigt dadurch die Standardabweichung. Die neue Standardabweichung wird etwa σn = √(σ² + d²/12). Die Diskretisierung fügt also nur einen "Fehler" von d/√12 hinzu. Und deshalb beschränkt die lineare Diskretisierung mit 14bit die Dynamik nicht auf 14LW. "Auf Pixelebene" nicht und auf 8MP skaliert (DxOMark "print", wo ja die 14LW Dynamik auftauchen) erst recht nicht.

In Zweiteren (DxO) beschreibst Du die SNR-Grenze, an welchem das Nutzsignal nichts mehr nutzt - speziell fotografisch.

Es hindert Dich ja niemand, für Deine Zwecke einen Rauschabstand von 20dB zu fordern und daraus dann eine Dynamik als für Dich nutzbaren Belichtungsbereich abzuleiten.

Das ändert nix an meiner eigentlichen Aussage, dass ein 8Bit-Bild eben nur ein Abbild eines ehemals höheren Dynamikumfangs sein kann..

Das verstehe ich nicht. Stell Dir vor, Du hast einen Wertebereich von Mittelwerten mit dazugehörigen Standardabweichungen, von einem höchsten knapp unter der Sättigung bis runter zu einem kleinsten. Der kleinste Wert ist gerade der, wo der Rauschabstand die von Dir gesetzte Grenze erreicht. Wenn Du die jetzt in soundsoviel Bits codieren willst, musst Du eben sehen, bis runter zu welchem Wert Du alle Werte so codiert bekommst, dass ihre Standardabweichung nach der Codierung nicht Deine Rauschabstands-Grenze überschreitet. Wenn das nicht-linear sein soll, wie bspw. die 8bit in JPGs, würdest Du die großen Werte relativ grob diskretisieren, denn deren Rauschabstand (und auch deren Standardabweichung) sind groß genug. Nach unten hin müsste die Diskretisierung immer feiner werden, denn der Spielraum beim Rauschabstand und auch die Standardabweichung werden immer kleiner.
 
Zuletzt bearbeitet:
Ich verstehe leider nicht viel von Lichtsetzung. Deshalb würde ich auch nicht auf die Idee kommen, bei einem einschlägigen Thema allzu aktiv mitzudiskutieren, sondern allenfalls interessiert mitlesen.

Ich stelle ja auch nur Fragen hier und lese die Antworten durch. Wenn mir jemand eine Rückfrage stellt, dann sage ich woher ich die Info habe. Wie mit den 8 Bit JPEG.



Wie immer ist das DSLR Forum sehr techniklastig (keine kritik). Nur blicke ich nicht mehr so richtig durch, deswegen stelle ich einen konkrete Frage.

Wenn ich ein Bild mache und es einmal als JPEG und einmal als RAW abspeichere und diese Bilder an zwei Monitoren anschaue, die einen Dynamikumfang größer 15 Blendenstufen darstellen können. Sehe ich dann beim JPEG Bild dass die Höhen und Tiefen abgeschnitten sind oder sind die Höhen und Tiefen gleich wie im RAW, nur sind die Abtsufungen nicht mehr so fein?
 
Das kommt darauf an, zumindest verstehe ich es so - bin aber kein Experte und lasse mich gerne verbessern/ergänzen ;)

Nach oben beschränkt die Sättigung der Sensel den Dynamik-Umfang, sobald die ihre Maximalkapazität erreicht haben, hast du reines Weiß. Nach unten beschränkt dich der Informationsgehalt in den dunklen Bildteilen, irgendwann überlagern sich "Rauschen/Signalfehler etc" und reale Bildinformationen so stark, dass keine verwendbaren Informationen mehr vorhanden sind.

Nehmen wir an dieser nutzbare Bereich würde 15 EV umfassen, dann würde das Raw komplett dargestellt. Beim jpg kommt es darauf an wie gut die Kamera/Du in der Lage war die 15 EV im JPG unterzubringen. Da es einen geringeren Dynamikumfang hat, muss du entweder oben und unten Informationen verwerfen (also reines weiß und informationsloses dunkel/schwarz akzeptieren), dann hast du halt ein Bild, das in den Mitten sehr genau dem Raw entspechen könnte, aber oben und unten schneller absäuft und oder ausbrennt - oder du komprimierst den Dynamikumfang so, dass du noch überall Zeichnung hast, musst dann aber Teile "zusammenschieben". Das Bild auf deinem Monitor wird dann bei der Aufweitung auf 15 EV zwischen den einzelnen Tonwertabstufungen Lücken bekommen
 
Bei linearer Codierung reichen 14bit für über 15LW Dynamik, bei nicht-linearer für noch mehr.

Wie errechnen sich die "über 15LW" und wo ist die Grenze genau?

Hier habe ich etwas zur Dynamikbegrenzung durch Quantisierung gefunden:
http://www.analog.com/en/education/...amic_Range_to_Data_Word_Size_in_Digital_Audio

Dort heißt es sinngemäß:

DynMax = 6,02n dB + 1,76 dB

wobei n die Wortlänge in bit ist.

Damit käme man bei 14 bit Quantisierung aber nicht auf über 15 Blenden Dynamikumfang :confused:
 
Sehe ich dann beim JPEG Bild dass die Höhen und Tiefen abgeschnitten sind oder sind die Höhen und Tiefen gleich wie im RAW, nur sind die Abtsufungen nicht mehr so fein?
Kommt auf das Farbprofil des JPEG an. Das JPEG kann 256 Helligkeitsstufen darstellen, und im Farbprofil steht, wie hell die einzelnen Stufen sind. Bei sRGB würden die dunkelsten Schatten zulaufen oder Lichter ausfressen, bei ProPhotoRGB praktisch nicht, und AdobeRGB kann einen weit größeren Dynamikbereich. Ob Tiefen oder Lichter betroffen sind, entscheidet sich bei der Raw-Entwicklung (immer vorausgesetzt, man entwickelt das Raw so, dass der Dynamikbereich 1:1 umgesetzt wird).

L.G.

Burkhard.
 
Genau würde ich da nichts rechnen wollen. Aber wenn die Diskretisierung die einzige Quelle für Rauschen wäre (das ist sie aber nie), dann wäre der größte Wert 2^14-1 und die Standardabweichung die genannte 1/√12. Das Verhältnis wäre dann 15,8LW.

O.k., aber weshalb komme ich über

Q(SNR) = N x 6,02 dB +4,77 dB - 20 lg (Apeak/Aeff)

(entnommen aus https://de.wikipedia.org/wiki/Quantisierungsfehler)

niemals auf den Wert von 15,8 LW, sondern maximal auf 14,8 LW?
 
O.k., aber weshalb komme ich über
..

Weil Du genau diese Formel benutzst, und die ist ja, so steht es da doch, für ein sinusförmiges Eingangssignal. Meines ist "quasi-konstant". Ganz konstant darf es nicht sein, sonst bekommt man einen systematischen, aber keinen zufälligen Quantisierungsfehler. Aber nimm das nicht so wichtig! Es soll einfach nur zeigen, dass die 14bit nicht die Dynamik nicht auf 14LW beschränken. Nicht auf Pixelebene und erst recht nicht nach der Skalierung auf 8MP.
 
Weil Du genau diese Formel benutzst, und die ist ja, so steht es da doch, für ein sinusförmiges Eingangssignal.

Nein, die Formel enthält (im Gegensatz zu der von meinem Vorpost) einen Korrekturterm, der sie für beliebige Signale anwendbar macht. Bei quasikonstantem Signal wäre Apeak/Aeff = 1, so dass sich nach meiner Rechnung eine maximale Dynamik von 14,8 LW ergäbe.

Aber du hast schon Recht, im Ergebnis ist das alles nicht so wichtig.
 
Dass in 14bit auch leicht mehr als 14LW verpackt werden können, damit hab ich weniger Bauchschmerzen - die Frage, die ich zu falsifizieren versuchte, ist, dass in 8Bit Dateien (mit den üblichen Mitteln) nunmal keine zweifelsfreien 14LW stecken können. "Üblich" heisst, bearbeiten, jpg speichern, auf zB dem TV/Monitor/Projektor/Papier wiedergeben.

Nebenbei bin ich der Meinung, dass die "print" Werte bei DxO errechnet sind und nicht gemessen.. Die SNR-Verbesserung müsste doch simplerweise

log(nativeBreite[px]/3600[px])/log(2) = deltaLW
(Ausgehend von 3600px Breite bei 8Mpix/12" Bildbreite@300dpi)
sein.

@waartfarken
Es hindert Dich ja niemand, für Deine Zwecke einen Rauschabstand von 20dB zu fordern und daraus dann eine Dynamik als für Dich nutzbaren Belichtungsbereich abzuleiten.
Nein, das hatte ich auch nicht vor. Ich würde sogar bei der Betrachtung idealer Daten (also zB 8Bit Graukeil erstellt im Rechner) davon ausgehen, dass sie sich mit den uns üblichen Methoden nicht mit mehr als 10LW darstellen lassen.
Schon der Mittelwert aus den 2 1bit-Zahlen 0 und 1 ist 0,5 und wäre eine 2bit-Zahl. Der Mittelwert aus vielen 1bit-Zahlen liegt beliebig irgendwo zwischen 0 und 1.
Der Gedankengang ist fürs Verständnis ja sehr nett, aber mit dem Thema Fotografie schwer vereinbar. Eine 128x128 Matrix (16384) aus 1Bit-Triggern ist sicherlich kein fotografischer Sensor, sondern eher ein 2dimensionaler Ereigniszähler.
 
Zuletzt bearbeitet:
[…] - die Frage, die ich zu falsifizieren versuchte, ist, dass in 8Bit Dateien (mit den üblichen Mitteln) nunmal keine zweifelsfreien 14LW stecken können. "Üblich" heisst, bearbeiten, jpg speichern, auf zB dem TV/Monitor/Projektor/Papier wiedergeben.
Wiedergeben ist eine ganz andere Frage, als was jpeg speichern kann. Auch mit Raw kann ein handelsüblicher Print 6-7 LW darstellen, ein Monitor etwa 10.

Speichern kann ein jpeg einen beliebig großen Dynamikbereich, es kommt nur auf die Codierung an. Wenn ich dem Zahlenwert 1 eine bestimmte Helligkeit zuordne, den Zahlenwert 2 die doppelte Helligkeit usw., dann habe ich einen Dynamikbereich von über 250 LW. Die Codierung der Farbwerte steckt im ICC-Profil des jpeg, kann also im Prinzip beliebig gewählt werden. Mit dem üblichen sRGB-Profil kommt man auf ca. 12 LW.

Nebenbei bin ich der Meinung, dass die "print" Werte bei DxO errechnet sind und nicht gemessen..
Ja, das steht doch so bei DXO: http://www.dxomark.com/Reviews/Detailed-computation-of-DxOMark-Sensor-normalization

Die SNR-Verbesserung müsste doch simplerweise

log(nativeBreite[px]/3600[px])/log(2) = deltaLW
(Ausgehend von 3600px Breite bei 8Mpix/12" Bildbreite@300dpi)
sein.
Die Hälfte dieses Wertes (die Varianzen bei unabhängigen ZV addieren sich, nicht die Standardabweichungen).

L.G.

Burkhard.
 
Dass in 14bit auch leicht mehr als 14LW verpackt werden können, damit hab ich weniger Bauchschmerzen - die Frage, die ich zu falsifizieren versuchte, ist, dass in 8Bit Dateien (mit den üblichen Mitteln) nunmal keine zweifelsfreien 14LW stecken können. "Üblich" heisst, bearbeiten, jpg speichern, auf zB dem TV/Monitor/Projektor/Papier wiedergeben.

Der größte und kleinste Wert in einem 8bit-sRGB-JPG stehen, wenn man sie "zurücklinearisiert", im Verhältnis von etwa 12LW (ich müsste erst wieder googeln, und das ist per Handy doof). Also kannst Du Dir es doch ziemlich einfach denken. Die Diskretisierung ist am dunklen Ende sehr fein, deshalb bringt sie kaum eigenes Rauschen dazu.

Nebenbei bin ich der Meinung, dass die "print" Werte bei DxO errechnet sind und nicht gemessen..

Das musst Du nicht mal "meinen", das steht da doch. Da steht sogar, wie sie es machen. Aber mal ehrlich, welcher Messwert wird direkt und ohne Zuhilfenahme eines (vereinfachten) Modells bestimmt? Selbst die Fläche Deines Wohnzimmers wirst Du aus Länge und Breite und unter der Annahme, es sei rechtwinklig, berechnet haben.

Der Gedankengang ist fürs Verständnis ja sehr nett, aber mit dem Thema Fotografie schwer vereinbar. Eine 128x128 Matrix (16384) aus 1Bit-Triggern ist sicherlich kein fotografischer Sensor, sondern eher ein 2dimensionaler Ereigniszähler.

Habe ich irgendwo gesagt, dass das ein Fotosensor ist? Es wäre übrigens tatsächlich einer. Es gibt Ideen, einen Sensor aus ganz vielen Mini-Senseln aufzubauen, die jeweils nur 1 Elektron fassen können, und dann die Ergebnisse von ganz vielen dieser Sensel zu einem Pixel zusammenzurechnen. Aber das ist hier nur ganz am Rande das Thema.
 
(tschuldigt, Arbeit ist mal wieder länger gegangen..)

@burkhard2
Ja, eine typische LUT-Geschichte, die in quasi jedem Monitor steckt. Das Gros der Monitore ist auf ne funktionierende Gamma ausgewiesen, von s-, Adobe-RGB oder Pro-Photo ist noch garnicht die Rede. Mein U2410 hat nen statischen Kontrastumfang von ~600:1, also etwas über 9LW. Die aktuelleren Dells kommen auf ~1000:1.

Weiterhin kann so eine En- und Dekodierung über eine LUT (welche auch immer) nur funktionieren, wenn auch Beides geschieht. Ansonsten wirds gelinde gesagt falsch. Und da knüpfe ich wieder an - der Großteil kennt diese Geschichten nicht, kann aber mit Sicherheit sagen, dass ein 8Bit-Bild "natürlich" auch einen Dynamikumfang von 14LW haben kann. Nein, es ist idR ein "ausreichendes" Abbild, die ehemals 14LW lassen sich in einer weiteren Bearbeitung weder nutzen, noch ist es darstellbar.

Ne (vielleicht) passende Analogie zum Dilemma: Wenn ich von Brüsten rede, dann reicht sowas, um (bei Einigen) eine erotische Regung auszulösen. Tatsächlich sind das keine Brüste, sondern nicht-fertige Kreise mit nem Punkt drin. Für den Rest sorgt einzig das Gehirn. Und so sieht es mit nem hochdynamischen Bild aus, das mittels Tonemapping nach 8Bit umgewandelt wird. Unser Wissen kann das hochdynamische extrahieren, mehr ist es nicht.

@waartfarken
Hab auch noch quergelesen, ja, es müssten ~11.7LW sein.
 
Zuletzt bearbeitet:
...kann aber mit Sicherheit sagen, dass ein 8Bit-Bild "natürlich" auch einen Dynamikumfang von 14LW haben kann. Nein, es ist idR ein "ausreichendes" Abbild, die ehemals 14LW lassen sich weder in einer weiteren Bearbeitung wieder nutzen, noch ist es darstellbar...


Noch einmal die Frage, was bitte 8Bit mit 14LW zu tun haben?

- 14 LW beschreiben den Bereich einer physikalischen Größe

- mit 8Bit kann man, im Dezimalsystem ausgedrückt 256 ganze Zahlen oder Zustände oder wie auch immer beschreiben


Und wenn Du hier mit Brüsten kommst :confused: kann ich nur sagen, dass man einen Dynamikumfang von 14 LW auch mit einem Bit beschreiben kann:

- dem dunkelsten Tonwert wird die 0 zugeordnet, dem hellsten Tonwert die 1
- und schon habe ich 14 LW in einem Bit untergebracht :ugly:


Du solltest Dich einfach man mit der Frage beschäftigen, wie man eine Messgröße am besten an ein Messgerät anpasst. Ist ganz einfach:


- wenn der Zeiger am Anschlag ist, drehe ich am Messbereichs- Schalter so lange, bis der Zeiger nicht mehr anschlägt

- schlägt der Zeiger dagegen kaum aus, drehe ich den Schalter in die andere Richtung, bis ich den Wert optimal ablesen kann

- nun liegt es an mir, den abgelesenen Wert mit der Einstellung des Messbereichs- Schalter zu verrechnen, um den gemessenen Wert zu errechnen

-> so kann ich mit einem einzigen "Sensor" durch Skalierung die zu messenden Größe auf den Messbereich des "Sensors" die Auflösung optimal anpassen und klar, das hat Auswirkungen auf die Auflösung. Aber zumeist in Richtung des optimalen Ergebnisses.


Mein klares Fazit:

- der Umgang mit LW- bzw. EV- Angaben resultiert aus unstrittigen physikalischen Grundlagen

- das dual- oder binäre Zahlensystem ist völlig unabhängig von irgendwelchen physikalischen Gesetzen

- jegliche Assoziation zwischen LW/EV- Angaben und reinen Angaben zum Zahlensystem sind rein zufällig

- sprich: könnten Computer nicht nur "Ja" und "Nein", sondern auch "Jaein", dann würden sie nicht im Binärsystem rechnen.

- und so würden wir nicht mal ansatzweise über einen Zusammenhang zwischen Dynamikumfang und "Trid", "Tryde" oder wie auch immer diskutieren!


Gruß
ewm
 
Zuletzt bearbeitet:
@ewm
Der kleinstmeßbare Wert ist NICHT 0. Ein(1!) 1Bit-ADC-Wandler (vulgo Schalter) hat keine Dynamik. Soll ich anstatt LW dB benutzen, um mich noch weiter vom Eigentlichen zu entfernen? Es geht um Digitalisierung und Licht, und da bleibt die Verdopplung von Werten nicht aus. Und wenn ich mich an @waartfarkens Konstrukt aufhänge (feinere Diskretisierung der Schatten), bleiben weniger Diskretisierungsschritte für die Mitten und Lichter. Ja, kann funktionieren.. aber..

Was mich grad ein bisschen nervt, ist, dass hier theoretische Kurven zur Diskretisierung rausgeholt werden, die in "unserer" Welt nirgendwo existieren, in keinem Raw-Konverter, in keiner Fotosoftware - und noch bedeutsamer, in keinem Wiedergabegerät. Dieses Konstrukt bleibt theoretisch. Es geht mir rein um die Kritik der Allerweltsaussage "Wenn ich ein hochdynamisches Bild in jpg/bmp/png speichere, hat es immer noch die hohe Dynamik". Wann? Wo?

[Nachtrag] Die Produzenten von Wiedergabegeäten kommen jetzt (endlich) auf den Trichter, samt Bittiefe und "genormter" LUTs/Log-Profile (Dolby Vision, Rec2020) den größeren Dynamikumfang in den TV-Bereich bringen zu wollen.. Bis hierher haben sich Panasonic (V-Log), Sony (S-Log) und Canon eins abgebrochen, um überhaupt 11-12LW in 8Bit zu pressen.. Was nur dann akkurat funktioniert, wenn man bei der Bearbeitung/Ausgabe stets daran denkt.

[Geldbeispiel gelöscht, das Ding ist interessant, aber noch nicht zu Ende gedacht]
mfg chmee
 
Zuletzt bearbeitet:
- jegliche Assoziation zwischen LW/EV- Angaben und reinen Angaben zum Zahlensystem sind rein zufällig

Nein, sind sie nicht, denn die Randbdingungen (ausreichend feine Diskretisierung über den gesamten zu nutzenden Helligkeitsbereich) engen das ganz erheblich ein. Einer der möglichen Zusammenhänge wird als sRGB normalerweise in JPGs genutzt.

Ein(1!) 1Bit-ADC-Wandler (vulgo Schalter) hat keine Dynamik.

Der Wandler spielt dabei doch gar keine Rolle. Ein einziger 1bit-Wert hat natürlich auch keine Dynamik, denn die ergibt sich erst aus Mittelwert und Standardabweichung. Die Mittelwerte aus vielen 1bit-Werten hätten aber Mittelwert und Standardabweichung und man könnte eine Dynamik definieren.

Und wenn ich mich an @waartfarkens Konstrukt aufhänge (feinere Diskretisierung der Schatten), bleiben weniger Diskretisierungsschritte für die Mitten und Lichter. Ja, kann funktionieren.. aber..

Was mich grad ein bisschen nervt, ist, dass hier theoretische Kurven zur Diskretisierung rausgeholt werden, die in "unserer" Welt nirgendwo existieren

Dann guck Dir mal die sRGB-Definition an, die entspricht doch genau meinem "Konstrukt": Feine Diskretisierung der kleinen Werte, gröbere Diskretisierung der großen.
 
@waartfarken
Rec709 sieht so ähnlich aus. lin->log. Damit kommt man idR auf die 11-12LW. Das steht noch nicht im Widerspruch zu meinem Grundtenor. Man presst Blendenreihen oder komprimierte Raws in ein jpg - und sie können per se nicht die selbe LW haben, auch wenn es so scheint..
 
Zuletzt bearbeitet:
(Weiterhin kann so eine En- und Dekodierung über eine LUT (welche auch immer) nur funktionieren, wenn auch Beides geschieht. Ansonsten wirds gelinde gesagt falsch.
Richtig, das funktioniert nur, wenn du ein System mit funktionierendem Farbmanagement hast. Dort aber automatisch.

In einer JPEG-Datei ist nicht nur das drin, was du am Bildschirm siehst – da solltest du zwischen dem Informationsgehalt einer Datei und der Darstellung unterscheiden. Machst du beim Raw ja auch. Die Speicherung der Information ist eine Sache, die Darstellung auf einem Medium mit beschränktem Kontrastumfang eine ganz andere. Der Bildschirm zeigt (außer bei abgeschaltentem Farbmanagement, also i.d.R. falscher Interpretation) praktisch nie genau das an, was im JPEG enthalten ist.

L.G.

Burkhard.
 
Man presst Blendenreihen oder komprimierte Raws in ein jpg - und sie können per se nicht die selbe LW Dynamik haben, auch wenn es so scheint..

Du meinst Dynamik? Das wurde doch schon x mal beantwortet: Bis etwa 11,7LW ist das sogar bei sRGB kein großes Problem, denn das ist der Werteumfang und kleine Werte werden ausreichend fein diskretisiert, man bekommt also wenig Diskretisierungsfehler hinzu. Am hellen Ende ist die gröbere Diskretisierung egal, da sind Standardabweichung und Rauschabstand groß genug. Mit AdobeRGB und ProPhotoRGB sind auch die immer wieder genannten 14LW in 8bit möglich.
 
WERBUNG
Zurück
Oben Unten