• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

High ISO: APS-C vs Vollformat

....müsste es einleuchtend sein, wesshalb die 40Mp der 12 Mp unterlegen ist.

Wenn man auf Pixelebene denkt, ist das so und trivial. Ich rede aber von gleichen Ausgabegrößen und deshalb flächenbezogener FWC (und Ausleserauschen).

Die Frage ist also, ob die Kapaziät pro Fläche zwangsläufig sinken muss, wenn man sie statt in wenige große in viele kleine Pixel unterteilt. Das ist ja durchaus denkbar, weil man mehr Rand verschenkt. Dann müssten Sensoren mit großen Pixeln eigentlich eine tiefere Basis-ISO haben als solche mit kleinen Pixeln. Meines Wissens hat aber nun gerade die D810 mit vergleichsweise kleinen Pixeln (als einzige?) Basis-ISO 64.

Aber wie gesagt, die FWC des Sensors ist für das Thema "Rauschen bei high ISO" irrelevant.
 
Aber außerdem, wie gehabt: Gibt es einen physikalischen Grund, weshalb die flächenbezogene FWC bei kleinen Pixeln zwangsläufig und unvermeidlich kleiner sein muss?
Die flächenbezogene FWC ist bei kleineren Pixeln meist größer, nicht kleiner. Beispielsweise hat die D810, auf die gleiche Fläche bezogen, eine um ca. 50% höhere FWC als eine A7s.

Das hatten wir doch nun schon oft genug, oder etwa nicht? Das Signal steigt näherungsweise linear mit der Pixelfläche, das Photonenrauschen steigt mit der Wurzel aus der Pixelfläche. Wenn das Ausleserauschen das auch tut/täte [...]
Mal eine Gegenfrage: Warum sollte das Ausleserauschen überhaupt mit der Fläche skalieren? Was für einen physikalischen Grund sollte es dafür geben? Warum wird diese Annahme getroffen?

Ja natürlich. Und selbstverständlich kann das die Fehler überhaupt erst verursachen [...]
Die tendenziell 3 Blenden Unterschied in den Schatten bei ISO12800 zw. D810 und A7s sind nicht ein Problem der PP-Software, sondern werden schon so in den RAW-Daten angeliefert. Durch die Nichtlinearitäten werden einige Unterschiede halt verstärkt bzw. abgeschwächt, keine Frage.

....aber bislang werfen Deine Ausführungen zumindest bei mir mehr Fragen auf, als dass sie irgendwelche neuen Erkenntnisse "in die Köpfe" bringen.
Naja, am Anfang steht immer die Frage nach dem "Warum?" Ich sehe halt Diskrepanzen zwischen den (mit Vereinfachungen versehenen) Modellen und der Praxis, also fange ich an, Fragen zu stellen und ein Modell im Kopf zu formen, was sich mit der Praxiserfahrung deckt. Ein Anspruch auf Richtigkeit hat dieses Modell (natürlich) nicht. Ich werde es halt bis zu dem Punkt benutzen, an dem mir ein besseres Modell vorgelegt wird. Effektiv basiert es auf dem existierenden Pixel-Modell bei dem diverse Annahmen zur Berechnungs-/Vergleichs-Vereinfachung über Bord geworfen werden und einem vereinfachten Modell der Verarbeitung der Daten in der PP-Software. Die postulierte Daumenregel ist an sich schon alt und sollte eben als Daumenregel und nicht als Absolutum gesehen werden.

Es wäre halt nur schön, diese Diskussion an sich mal zu einem für alle Seiten akzeptierbaren Punkt zu bringen, da sie schon seit Jahren im Raum steht und nie finalisiert wurde. Falls Du also ein Modell anbieten kannst, das eine gewisse Deckungsgleichheit mit meiner Praxiserfahrung zeigt, dann immer her damit. Wir können auch versuchen, verschiedene Teil-Inhalte zu umgrenzen und fixieren, weil bisher herrscht ein großes Chaos in der Diskussion.
 
Wenn man auf Pixelebene denkt, ist das so und trivial. Ich rede aber von gleichen Ausgabegrößen und deshalb flächenbezogener FWC (und Ausleserauschen).

Die Frage ist also, ob die Kapaziät pro Fläche zwangsläufig sinken muss, wenn man sie statt in wenige große in viele kleine Pixel unterteilt. Das ist ja durchaus denkbar, weil man mehr Rand verschenkt. Dann müssten Sensoren mit großen Pixeln eigentlich eine tiefere Basis-ISO haben als solche mit kleinen Pixeln. Meines Wissens hat aber nun gerade die D810 mit vergleichsweise kleinen Pixeln (als einzige?) Basis-ISO 64.

Aber wie gesagt, die FWC des Sensors ist für das Thema "Rauschen bei high ISO" irrelevant.

Wenn du ein Pixel hast stimmt das wohl.. du hast aber x millionen X3 mit zwischenräumen.... und um die Subtrahierst du ja die Gesamtfläche, dazu ist nur der PN-Übergang des fotosensiteven teils mit der Fläche zu sehen...

Wesshalb soll das irrelevant sein? Die Kapazität wird ausgelesen... Je mehr kapazität nun generell vorhanden sein kann, je mehr kann man diese dann einteilen...
Hast du einen Grossen Condensator, kannst du viel feiner einteilen als bei einem kleinen... auch wird der Einfluss der Spannung des Nachbarcondensators entsprechend kleiner...
Je kleiner der Condensator, desto grösser müsste auch das ausleserauschen werden. Die kurve übrigens ist auch nicht linear.. desshalb sind meist auch die lichter viel schlechter zu holen, wie die tiefen...
 
Mal eine Gegenfrage: Warum sollte das Ausleserauschen überhaupt mit der Fläche skalieren? Was für einen physikalischen Grund sollte es dafür geben? Warum wird diese Annahme getroffen?

Wieso? Habe ich die Annahme irgendwo getroffen? Im Gegenteil:

Es ist doch jetzt schon klar, dass die Skalierungen, wie DxOMark sie betreibt, nur in dem Bereich linear sind, wo das Ausleserauschen entweder keine Rolle spielt oder (auf die Fläche bezogen) ausreichend ähnlich ist. Also merke ich persönlich mir lieber, dass ich anderenfalls das Ausleserauschen berücksichtigen muss und, dass die eine Kamera mehr und die andere weniger Ausleserauschen hat.

Die tendenziell 3 Blenden Unterschied in den Schatten bei ISO12800 zw. D810 und A7s sind nicht ein Problem der PP-Software, sondern werden schon so in den RAW-Daten angeliefert. Durch die Nichtlinearitäten werden einige Unterschiede halt verstärkt bzw. abgeschwächt, keine Frage.

Woher weißt Du, dass die schon in den Raw-Daten steckt? Und wenn Du das weißt, warum wissen die Hersteller von Raw-Konvertren das nicht und korrigiern es bei der Entwicklung gleich wieder raus?

Naja, am Anfang steht immer die Frage nach dem "Warum?" Ich sehe halt Diskrepanzen zwischen den (mit Vereinfachungen versehenen) Modellen und der Praxis, also fange ich an, Fragen zu stellen und ein Modell im Kopf zu formen, was sich mit der Praxiserfahrung deckt. Ein Anspruch auf Richtigkeit hat dieses Modell (natürlich) nicht. Ich werde es halt bis zu dem Punkt benutzen, an dem mir ein besseres Modell vorgelegt wird. Effektiv basiert es auf dem existierenden Pixel-Modell bei dem diverse Annahmen zur Berechnungs-/Vergleichs-Vereinfachung über Bord geworfen werden und einem vereinfachten Modell der Verarbeitung der Daten in der PP-Software. Die postulierte Daumenregel ist an sich schon alt und sollte eben als Daumenregel und nicht als Absolutum gesehen werden.

Dass ein vereinfachtes lineares Modell nicht bis in die Extrema gelten kann, sollte eigentlich jedem klar sein, der mit solchen Modellen umgeht. Mit Deiner "Daumenregel" wird es nicht besser oder genauer, wenn Du ein paar mehr andere Kameras einbeziehst.

Es wäre halt nur schön, diese Diskussion an sich mal zu einem für alle Seiten akzeptierbaren Punkt zu bringen, da sie schon seit Jahren im Raum steht und nie finalisiert wurde. Falls Du also ein Modell anbieten kannst, das eine gewisse Deckungsgleichheit mit meiner Praxiserfahrung zeigt, dann immer her damit. Wir können auch versuchen, verschiedene Teil-Inhalte zu umgrenzen und fixieren, weil bisher herrscht ein großes Chaos in der Diskussion.

Ich sehe überhaupt kein Chaos, solange nicht wegen irgendwelcher kleinen Unterschiede gleich das ganze Gedankengerüst umgeworfen wird. Das einfache lineare Modell (inkl. von Kamera zu Kamera verschiedenem Ausleserauschen) ist bekannt und bewährt und funktioniert über einen sehr weiten Bereich. Bloß an den äußersten Enden passt es bei einigen Kameras nicht mehr so besonders. Ich würde aber deshalb nicht das Modell grundsätzlich in Frage stellen, wie Du das zu tun erscheinst. Ich sehe nicht mal eine Notwendigkeit, es mit weiteren Parametern zu erweitern, weil ich in den Abweichungen keine Gesetzmäßigkeiten erkenne, die das nahelegen würden und ich sehe auch keinen physikalsichen Effekt, der solche Abweichungen erklären würde. Eine einzige Kamera mit großen Pixeln und sehr geringem Ausleserauschen ist noch nicht signifikant.
 
Woher weißt Du, dass die schon in den Raw-Daten steckt? Und wenn Du das weißt, warum wissen die Hersteller von Raw-Konvertren das nicht und korrigiern es bei der Entwicklung gleich wieder raus?
Das steckt genauso in den RAW-Daten wie die geringere Dynamik meiner 5D3 bei niedrigen ISOs. Von daher ist mir nicht ganz klar, was da wie korrigiert werden soll?!

Eine einzige Kamera mit großen Pixeln und sehr geringem Ausleserauschen ist noch nicht signifikant.
Naja, ich werde hierfür keine weiteren Kameras ausleihen und durchtesten, zumindest nicht solange mir das Leihen an sich irgendwelche Kosten verursacht. Davon mal abgesehen reicht es ja schon, wenn man sich z.B. auf DxOmark die Screen-Kurven herannimmt und verschiedene Kameras in den Vergleich stopft. Da paßt die Daumenregel schon ganz gut.

Praktisch gesehen laufen die Tests genauso wie bei niedrigen ISOs: Schauen, was mit den Schatten los ist. Während das bei niedrigen ISOs das akzeptierte Mittel der Wahl ist, wird bei HighISO die Körnigkeit ("Rauschen") als das alleinige Entscheidungskriterium herangezogen. Da das primär vom Photonenrauschen getrieben wird, ist es hinreichend nutzlos (nicht ganz, da unser Sehsystem + Darstellungsmedien da auch noch etwas zu sagen haben).

Das wurde auch schon hier und da mal getan. Es gibt u.a. einige Kameravergleiche auf Youtube in diese Richtung (mir fallen da spontan 2 ein, kann sie aber gerade auch nicht finden). Im Verhältnis zu den Rauschvergleichen sind das aber nur sehr sehr wenige, was aber u.a. auch daran liegt, daß viele Tester mit HighISO etwas "überfordert" sind. Das wird dann gefüttert mit Statements wie z.B.
http://www.dpreview.com/articles/5365920428/the-effect-of-pixel-and-sensor-sizes-on-noise/2 schrieb:
Sure enough, the difference in performance between the 12MP Sony a7S and the 36MP Nikon D810 only really becomes apparent at the very highest ISO settings.
wo man dann erstmal raten darf, welcher Bereich da mit "highest ISO settings" gemeint ist. Wir haben hier ISO12k auseinandergenommen, aber die Unterschiede sind auch in den ISO3200 und ISO6400 Bildern zu sehen, die Teil meiner Tests waren (die verlinkten Archive sind nicht ohne Grund etwas größer). Da wird man auch sehen, daß die Unterschiede weniger deutlich sind wie bei ISO12k.

Ich hatte bisher eine 5D3, A7, A7s, A7rII, 5Ds und D810 in den Händen zum Testen (sowie eine Reihe von weiteren Kameras mit APS-C und kleineren Sensoren), wobei die ersten 4 durch die harte Praxis (Konzerte) getrieben wurden. Da paßt die Daumenregel ganz gut, wobei da die A7rII nach oben ausfällt (technologischer Fortschritt). Leider hab' ich keinen Vergleich zwischen allen Kameras zu einem Zeitpunkt gemacht, d.h. es gibt nur verstreute Einzeltests. Verpaßte Chance: A7 und D810 im Vergleich (hätte ich jetzt zusammen mit der A7s machen können).

Wenn man weiß, worauf man achten muß, kann man einiges auch schon beim Vergleichstool von DPReview ablesen. Beispielsweise können der im Schatten liegenden Teil des Geldscheins links von der Flasche ("Was ist da noch an Details zu unterscheiden?") und die tendenzielle Violett-Färbung des Schwarz' am linken Rand Indizien geben.

Deswegen gibt es in meiner Szene auch etliche dunkle Stellen, deshalb ist die eine LEGO-Figur in der Tasse: Da sieht man z.B. auch in ManniD's beiden letzten Bildern den von mir später nochmal hervorgehobenen Unterschied bei dessen Bekleidung. Es gibt noch mehr Auffälligkeiten, wie z.B. tonale Auflösung (siehe z.B. die "Sonarwellen" über und unter dem Kopf beim Flyer) usw.

Mit diesem praktischen Wissen bewaffnet solltest Du also auch in der Lage sein, Kameras zu beurteilen. Da könnte sich die Daumenregel durchaus bestätigen :D

Warum das so ist: Große Pixel = mehr eingefangene Photonen, bei gleichem Ausleserauschen pro Pixel höherer SNR, d.h. auch höherer SNR in den dunklen Partien. Wenn der SNR zu niedrig ist, geht das Signal im Rauschen unter. Da auch in den dunkleren Partien größere Pixel mehr "sehen", bekommt man effektiv Bilder, die in den Schatten mehr Informationen haben und tonal mehr Abstufungen aufweisen als bei kleineren Pixeln. Effektiv also genau das, was hier auch schon in Bilderform zu sehen war, wobei die A7s derzeit die Speerspitze in das eine Extrem darstellt.

Vom Photonenrauschen sind große und kleinere Pixel betroffen, größere sogar stärker, weil die mehr Licht einsammeln; das sollte sich letztendlich aber alles verrechnen (mehr oder weniger, da dort u.U. Nichtlinearitäten als auch das Darstellungsmedium und unser Sehsystem zuschlagen). Das kann man der Vereinfachung willens erstmal rauslassen; es wird halt beim Vergleich zwischen KB und APS-C wichtig.
 
Das steckt genauso in den RAW-Daten wie die geringere Dynamik meiner 5D3 bei niedrigen ISOs. Von daher ist mir nicht ganz klar, was da wie korrigiert werden soll?!

Nichtlinearitäten zu linearisieren ist nun allerdings ein ganz und gar anderes Paar Schuhe als das Entfernen von Rauschen und bei sehr sehr vielen Messgeräten gang und gäbe.

Warum das so ist: Große Pixel = mehr eingefangene Photonen, bei gleichem Ausleserauschen pro Pixel höherer SNR, d.h. auch höherer SNR in den dunklen Partien.

Auch das (und den ganzen Rest davor) hatten wir doch nun oft genug. Und zu (Orts-) Frequenzbereichen habe ich schon mehrfach was gesagt. Es wird mir langweilig.
 
WERBUNG
Zurück
Oben Unten