• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

High ISO: APS-C vs Vollformat

Aber gut, wenn ihr weiter an der Theorie festhalten wollt, daß allein die Sensorfläche das ISO-Verhalten definiert, dann nur zu.

Zeigst Du uns mal das Zitat, wo irgendwer behauptet hätte, dass es "allein" die Sensorfläche ist?
 
PP-Software arbeitet mit den einzelnen Pixeln, d.h. wenn man da an einem Regler dreht, geschehen die Berechnungen auf der vollen Auflösung, die von den RAW-Daten vorgebeben ist. Ergo bestimmt die Pixel-Qualität, wie gut/schlecht sich die Bilder bearbeiten lassen, was ich als "Bearbeitungsgrenze(n)" bezeichne.

Natürlich rechnet die Software "mit einzelnen Pixeln", die Manipulationen passieren aber nicht an einzelnen Pixeln, sondern an mehr oder weniger großen Bildbereichen und spektral im Ortsfrequenzbereich. Und dann ist es ziemlich trivial (bzw. der "Fluch der 100%-Ansicht"), dass man in einem auf 2m x 3m aufgeblasenen Bild, das man aus der Nähe betrachtet und bearbeitet, schlechter abschätzen kann, wie die Bearbeitung am Ende in fertigen Bild von 20cm x 30cm aussieht, als wäre es "nur" auf 1m x 1,5m aufgeblasen. Und zu allem Überfluss rauscht das größer aufgeblasene Bild zwangsläufig auch noch stärker (und sowieso viel stärker, als man es später im fertigen Bild jemals empfindet).

Ich sehe in einem ISO12800+3 Bild der A7s noch mehr Details in den Schatten als die D810 bei ISO12800+1 liefert, d.h. die Differenz beträgt bei ISO12800 mehr als 2 Blenden Unterschied (tendenziell Richtung 3 Blenden). Das spürt man beim Arbeiten mit den Daten sehr deutlich. Die Differenz ist durch die technische Trickserei in der A7s nicht wirklich ausschließlich erklärbar.

Wieso? Ein ganz primitives Modell aus nichts anderem als Quanteneffizienz, Sättigungskapazität und Ausleserauschen kann das Verhalten ausreichend genau abbilden. Und dass größere Bilder wegen der Größe stärker rauschen als kleine (man also weniger Detailstrukturen erkennt) ist trivial. Wo sollen sie denn noch getrickst haben?
 
Natürlich rechnet die Software "mit einzelnen Pixeln", die Manipulationen passieren aber nicht an einzelnen Pixeln, sondern an mehr oder weniger großen Bildbereichen und spektral im Ortsfrequenzbereich. Und dann ist es ziemlich trivial (bzw. der "Fluch der 100%-Ansicht"), dass man in einem auf 2m x 3m aufgeblasenen Bild, das man aus der Nähe betrachtet und bearbeitet, schlechter abschätzen kann, wie die Bearbeitung am Ende in fertigen Bild von 20cm x 30cm aussieht, als wäre es "nur" auf 1m x 1,5m aufgeblasen. Und zu allem Überfluss rauscht das größer aufgeblasene Bild zwangsläufig auch noch stärker (und sowieso viel stärker, als man es später im fertigen Bild jemals empfindet).
Wenn ich z.B. an der Tonwert-Kurve rumspiele, dann ist das ein Prozeß, der Pixel für Pixel angewendet wird. Es gibt auch Effekte, die tatsächlich mehr oder weniger Pixel umfassen, teils sogar größere Bereiche. Aber die Berechnungen dafür laufen auch wieder Pixel für Pixel. Deshalb legt die Qualität der Pixel quasi fest, innerhalb welcher Grenzen sich die Daten überhaupt bearbeiten lassen.

Die Ansicht der Bearbeitung ist nachgelagert. Wenn ich z.B. reinzoome, dann sehe ich mehr Rauschen. Ändert diese andere Ansicht innerhalb welcher Grenzen sich das Bild bearbeiten läßt? Nein. Ich könnte z.B. auch mehrere Ansichten gleichzeitig auf ein Bild haben, z.B. als Komplettbild, einen 50% Ausschnitt und irgendeinen 200% Ausschnitt. Was ändert das an den Bearbeitungsgrenzen? Nichts. Nada. Zero.

Wenn wir den Sensor der A7rII nehmen und mit diesen Pixeln einen APS-C-Sensor basteln, bekommen wir ca. 18MPix heraus. Beide Sensoren haben die gleichen Pixel, werden also über den gesamten ISO-Bereich die gleichen (!) Bearbeitungsgrenzen in der PP-Software haben. Natürlich ist die Darstellung der Daten vom APS-C-Sensor immer irgendwie verrauschter bei gleicher Ausgabegröße, logisch, egal ob das nun in der Bearbeitungsansicht der PP-Software ist oder als fertiges Bild.

Wie gesagt: Die Bearbeitung kann nur innerhalb der Grenzen funktionieren, die von den Pixeln vorgegeben ist, und das ist unabhängig von der Ansicht. Bei High-ISO liefern z.B. größere Pixel bessere Daten, ergo lassen sich diese Bilder besser bearbeiten.


Zeigst Du uns mal das Zitat, wo irgendwer behauptet hätte, dass es "allein" die Sensorfläche ist?
Ich seh' häufig genug Argumente der Form "sind beides KB-Kameras, wenn man die Bilder auf die gleiche Größe skaliert, wird man keine/kaum Unterschiede sehen", und das im Kontext von High-ISO. Dementsprechend sind APS-C-Sensoren dann auch generell schlechter.

Wenn ich hier irgendwas tendenziell 3 Blenden Unterschied bekomme bei ISO12800, dann hat das nichts mehr mit "ähnlich" zu tun. Das sind zwei verschiedene Welten.

Wenn ich das obige A7rII-Pixel-als-APS-C-Sensor-Beispiel betrachte, dann geht auch APS-C und höhere ISOs gut zusammen, sogar soweit, daß sich diese Daten besser bearbeiten lassen als von anderen KB-Kameras, wie z.B. D810 oder 5Ds. Je nach ISO, Bildinhalten usw. können die Bilder der KB-Kameras dann trotzdem sauberer/besser aussehen, aber die Bearbeitungsgrenzen bleiben trotzdem kleiner.
 
Wie gesagt: Die Bearbeitung kann nur innerhalb der Grenzen funktionieren, die von den Pixeln vorgegeben ist, und das ist unabhängig von der Ansicht.

Und was für eine Grenze wäre das? 14bit pro Raw-Wert haben sie doch alle, oder? Oder welche andere Grenze sollte da ins Spiel kommen?

Wenn ich hier irgendwas tendenziell 3 Blenden Unterschied bekomme bei ISO12800, dann hat das nichts mehr mit "ähnlich" zu tun. Das sind zwei verschiedene Welten.

Du bekommst da 3 Blenden Unterschied (wobei ich immer noch nicht erkennen kann, unter welchen Umständen Du die bekommst), bei ManniD scheint das schon anders auszusehen. Aber davon abgesehen bekommen 2 gleich große Sensoren auch gleich viel Licht ab, haben also die gleichen Grundvoraussetzungen. Dass der eine die Lichtmenge dann zu besseren Daten umsetzt als der andere, ist ganz normal und wird fast immer auch dazugesagt ("gleicher Entwicklungsstand"). Für einen physikalisch und prinzipiell bedingten Vorteil großer Pixel bei gleicher Sensor- und Ausgabegröße sehe ich nach wie vor keinen Grund und schon erst recht keinen Nachweis in Deinen Beispielen und Ausführungen.
 
Zuletzt bearbeitet:
Und was für eine Grenze wäre das? 14bit pro Raw-Wert haben sie doch alle, oder? Oder welche andere Grenze sollte da ins Spiel kommen?
Bearbeitungsgrenzen? Naja, einmal eben die Qualität der Schatten / potentielle Dynamik beim gegebenen ISO. Genauer spielen da eigentlich die z.B. bei DxOmark einsichtigen Full SNR Kurven eine große Rolle; um so höher der SNR, um so mehr läßt sich mit den Daten rumspielen.

Praktisch äußert sich das in Statements wie das von ManniD:
Allerdings ist das RAW der A7s deutlich angenehmer zu verarbeiten.

Wenn man Bilder einer Kamera in verschiedenen ISOs bearbeitet, wird man feststellen, daß High-ISO-Bilder bei bestimmten Bearbeitungsfunktionen teils extrem empfindlich selbst auf kleinste Änderungen an den Reglern reagieren. Warum das so ist, mußt Du die Leute fragen, welche die Software zusammenschrauben. Ich würde nicht mal ausschließen, daß es PP-Software gibt, bei der man keine Unterschiede in der Hinsicht bemerkt (bei meiner merkt man es teils deutlich).


Du bekommst da 3 Blenden Unterschied (wobei ich immer noch nicht erkennen kann, unter welchen Umständen Du die bekommst), bei ManniD scheint das schon anders auszusehen.
3 Blenden in den Schatten. Gleiches Prinzip wie auch bei niedrigen ISOs, quasi nachschauen, was da noch in den Schatten (nicht) zu finden ist. Bei der A7s sehe ich da z.B. noch die blauen Knöpfe vom Anzug der LEGO-Figur in dem -3EV-Bild, bei der D810 ist da noch Matsch beim -1EV Bild. Das +-0EV-Bild der D810 zeigt aber ähnlich viel an der Stelle wie das um 3 Blenden aufgezogene -3EV-Bild der A7s. Das sind also definitiv mehr als 2 Blenden und max. 3 Blenden, oder hab' ich mich da irgendwie verzählt? Das Rauschen wird bei der D810 für die gleiche Ausgabegröße stärker gemindert als bei der A7s, halt 3-fache Auflösung und so. Die nicht sichtbaren Knöpfe rauschen dann also nur weniger ;)


Für einen physikalisch und prinzipiell bedingten Vorteil großer Pixel bei gleicher Sensor- und Ausgabegröße sehe ich nach wie vor keinen Grund und schon erst recht keinen Nachweis in Deinen Beispielen und Ausführungen.
Vielleicht nochmal einen anderen Link. Die Diagramme von DxOmark sind wohl noch nicht ausreichend, wenn man da Kameras aus einem (vermutetem) ähnlichem Technologiestand auswählt?
 
potentielle Dynamik

Was ist das?

um so höher der SNR, um so mehr läßt sich mit den Daten rumspielen.

Es ist aber ein Rauschabstand in einem bzw. über einen höheren Ortsfrequenzbereich, mit dem man da spielt. Und dort ist dann auch noch die Kontrastübertragung des Objektivs schlechter. Im übrigen ist, wie schon gesagt, das Ausleserauschen der A7S (über den Ortsfrequenzbereich, den sie überhaupt erfassen kann) ausgesprochen niedrig, was es natürlich einfacher macht. Du wolltest aber nachweisen, dass das grundsätzlich und physikalisch bedingt (nur) an den größeren Pixeln liegt.

Vielleicht nochmal einen anderen Link.

Hast Du das gelesen und verstanden? Dann zeig mir bitte mal das Zitat, wo Bill Claff begründet, warum große Pixel bei gleicher Ausgabegröße im Vorteil sind. Nicht auf Pixelebene, auf die er sich bezieht.

Die Diagramme von DxOmark sind wohl noch nicht ausreichend, wenn man da Kameras aus einem (vermutetem) ähnlichem Technologiestand auswählt?

Vorsicht. Was hier wem für die angebliche Falsifikation eines einfachen physikalischen Modell und die Aufstellung eines (ziemlich schwiemeligen) Gegenmodells ausreicht, solltest Du lieber nicht diskutieren wollen. Im übrigen: DxOMark misst Rauschen, Dynamik usw. auf Pixelebene (wie sonst?) und skaliert dann mit einem ganz einfachen geometrischen Modell und vereinfachenden Annahmen ("weißes" Rauschen) auf gleiche Ortsfrequenzbereiche (gleiche "Pixelzahl" 8MP). Wenn dabei dann trotz gleicher Sensorgröße verschiedene Ergebisse rauskommen, dann ist genau das der Unterschied im technischen Entwicklungsstand. Der äußert sich dann u.a. in unterschiedlichen Quanteneffizienzen, Sättigungskapazitäten und Ausleserauschen (die 2 letzteren bezogen auf äquivalente Sensorteilflächen, nämlich 1/8000000 der Sensorfläche), wie sie (noch nicht auf 8MP skaliert) z.B. bei sensorgen nachzulesen sind.
 
Hast Du das gelesen und verstanden? Dann zeig mir bitte mal das Zitat, wo Bill Claff begründet, warum große Pixel bei gleicher Ausgabegröße im Vorteil sind. Nicht auf Pixelebene, auf die er sich bezieht.
Wir drehen uns hier im Kreis, Mister.

Bei hohen ISOs sehen die großen Pixel mehr, d.h. die haben mehr Infos in den Schatten. Diese Infos bekommst Du beim Skalieren nicht mehr zurück, die sind bei kleineren Pixeln einfach nicht mehr da. Das da am Ende evtl. sogar die gleiche Dynamik bei "Normskalierung" herauskommt (nach welchem Schema die auch immer bestimmt wird), ist komplett nebensächlich. Es fehlen Teile der aufgenommenen Szene. Genausowenig berücksichtigt diese Skalierung potentiell andere Artefakte, wie z.B. diese Farbverschiebung, Rauschmuster usw. Genau aus diesem Grund sind vor allem diese Print-Wertungen oder eben auch der PDR von B.C. für eine Beurteilung der ISO-Fähigkeiten tendenziell wertlos.

Das Post-Processing, und dabei geht es einfach nur erstmal um den Prozess, aus den RAW-Daten ein anschaubares Bild zu machen, spielt eine verdammt wichtige Rolle in der digitalen Fotografie. Schlimmer noch, dieser Teil ist durchsetzt von Nichtlinearitäten. Mir geht es letztendlich nicht um irgendwelche RAW-Daten, mir geht es um das, was dann am Ende erscheint. Das sind dann z.B. irgendwas zwischen 2 und 3 Blenden Unterschied in den Schatten zwischen einer D810 und einer A7s bei ISO12800, und auch eine D4s wird da deutliche Vorteile ggü. einer D810 zeigen. Hohe ISOs und dicke Pixel halt (um das nochmal zu verdeutlichen: Ich spreche hier nicht von niedrigen ISOs, ist ja auch nicht Thema in diesem Thread).

Übrigens gibt es eine 5Ds und eine 7D2, die beide sehr sehr ähnliche Pixel besitzen. Und nein, die werde ich nicht ausleihen, aber die sind quasi ein real existierendes Beispiel für diesen A7rII vs. 18MPix-APS-C Vergleich. Vielleicht verspüre ich Lust, mir mal existierende RAW-Bilder von Vergleichen aus dem Netz zu ziehen und damit rumzuspielen ... vielleicht.

Außerdem ist es schon verwunderlich, warum Hersteller trotzdem noch Sensoren bauen, die mit dickeren Pixeln kommen, obwohl sie in der Lage wären, kleinere Pixel zu verwenden (und die Ausleseraten dafür trotzdem noch schnell genug wären). Da könnte man sich glatt fragen: Warum?

Und, um das nochmal deutlich hervorzuheben: Ich sprach von Daumenregel. So wie bei jeder Daumenregel gibt es da teils deutliche Abweichungen in alle Richtungen. Bei Verwendung der gleichen Technologie ist sie jedoch relativ gut zutreffend (kleinere Pixel gut für niedrige ISOs, größere Pixel gut für höhere ISOs).

Du könntest ja mal mit einem Gegenbeweis kommen, mal so als Abwechslung. In der Hinsicht hast Du Dich bisher doch sehr bedeckt gehalten, außer halt versucht, sich der tatsächlichen Praxis mit Theorien entgegenzustellen. Die A7s rennt auch der A7rII davon, das hatte ich schonmal gesagt. Damit wäre der technische Kniff quasi weggekürzt, und die A7rII hat dann immer noch BSI auf ihrer Seite. Trotzdem hilft das nicht. Sony hätte glaube ich liebend gerne eine A7rII mit Pixeln gebaut, die so gut wie die der A7s bei hohen ISOs wären. Was nun?

Und klar, mir ist bewußt, daß man anhand der paar Pixelparameter deren Verhalten bestimmen kann. Worauf Du bisher nicht eingegangen bist, sind die Ursachen hinter diesen Parametern. Wovon hängen die ab?
 
Wir drehen uns hier im Kreis, Mister.

Das ist nicht mein Problem. Vielleicht solltest Du Dich doch noch ein bisschen mit ein paar Grundlagen auseinandersetzen, dann schaffst Du möglicherweise auch den nächsten Schritt. Z.B. hier:

Bei hohen ISOs sehen die großen Pixel mehr, d.h. die haben mehr Infos in den Schatten. Diese Infos bekommst Du beim Skalieren nicht mehr zurück, die sind bei kleineren Pixeln einfach nicht mehr da.

Warum sollte bei kleinen Pixeln ein Signal "verschwinden"? Wohin denn?

Außerdem ist es schon verwunderlich, warum Hersteller trotzdem noch Sensoren bauen, die mit dickeren Pixeln kommen, obwohl sie in der Lage wären, kleinere Pixel zu verwenden (und die Ausleseraten dafür trotzdem noch schnell genug wären). Da könnte man sich glatt fragen: Warum?

Billiger? Und im Fall der Sony A7S: Auslesung des gesamten Sensors mit einer für Video ausreichenden Taktrate. Aber selbstverständlich ist es auch eine technische Herausforderung, viele kleine Pixel mit sehr geringem Ausleserauschen schnell genug auslesen zu können. Die Halbleiterstrukturen sind ja auf Sensoren im Vergleich geradezu riesig. Das Problem liegt also bestimmt nicht in der bloßen Herstellung solcher kleinen Pixel.

Du könntest ja mal mit einem Gegenbeweis kommen, mal so als Abwechslung.

"Beiweis"? Du hast es nicht so mit der Physik und (vereinfachten) physikalischen Modellen, oder? In diesem Fall ist das Modell bekannt und bewährt (deckt aber selbstverständlich nicht alle Einflüsse ab, wie das mit Modellen eben so ist), Du willst aber nachweisen, dass es prinzipiell nicht gilt. Aus physikalischen Gründen, nicht aus technischen.

Also nochmal, da Du das offenbar immer noch nichte begriffen hast: Ich behaupte nicht, dass eine aktuelle hochauflösende Kamera (z.B. Nikon D810) nach dem Runterskalieren ein Ergebnis liefert wie eine Sony A7S. Ich behaupte aber, dass das nicht grundsätzlich an deren Pixelgröße liegt, sondern an anderen technischen Eigenschaften (die sich möglicherweise derzeit mit kleinen Pixeln technisch noch gar nicht realisieren lassen).
 
Spannende Diskussion. Die ich momentan auch mit einem Kollegen führe, der Balaleicas Meinung teilt - ich behaupte das Gegenteil. :rolleyes:

Warum? Weil u.a. der Artikel von Bill Claff einleuchtend ist. Oder die ähnliche Behauptung (und mathematisch bewiesen) von dxomark.

Wenn man sich den Vergleich D810, Sony A7SII und Sony A7RII anschaut (SNR, Screen) sieht man den zu erwartenden Vorsprung der 7SII von ca. 1-1,5 Blenden - im Print sind sie exakt gleichauf, logo.
Im Dynamic Range jedoch ist die D810 unterlegen (warum?), die 7RII und 7SII divergieren erst ab ISO 3200 (warum?).

Im Vergleich D750, D810 und D4s sieht die SNR-Kurve genauso einleuchtend aus. Bzgl. des Dynamikumfangs ist die D4 zunächst sogar schlechter (widerspricht der Pixel-Theorie?), dann besser.

Scheinbar gibt es in der Praxis Unterschiede, die das physikalische Modell nicht erklären kann. Z.B. zeigt die D800 noch einen heftigen Magentastich in dunklen Bereichen, woran liegt das nun?
Fernab der Praxisrelevanz gibt es technische Phänomene, über die sich trefflich diskutieren und mit unzähligen Beispielen streiten lässt, aber klären werden wir das wohl nicht können - hier werden herstellerspezifische Tricks eine Rolle spielen. Oder liegts ganz einfach am (noch) relevant höheren Ausleserauschen?
 
Warum? Weil u.a. der Artikel von Bill Claff einleuchtend ist. Oder die ähnliche Behauptung (und mathematisch bewiesen) von dxomark.

"Mathematisch beweisen" kann man da gar nichts. Das einfache geometrisch-statistische Modell, das die und andere verwenden, ergibt das einfach so. Selbstverständlich folgen echte Sensoren nicht bis ins letzte diesem Modell, bspw. eben die hochauflösenden aktuellen Sensoren bei hohen ISO/geringen Signalen. Die Frage ist jetzt schlicht und einfach, ob das eine zwingende und unvermeidbare physikalische Konsequenz der kleinen Pixel ist, oder ob (noch) einfach nur technische Schwierigkeiten dem im Weg stehen. Ich behaupte letzteres, weil mir einfach keine physikalische Begründung für ersteres einfallen will.
 
Warum sollte bei kleinen Pixeln ein Signal "verschwinden"? Wohin denn?
Wird vom (u.a. Auslese-)Rauschen aufgefressen :D Genauer: Wenn der SNR bei den betroffenen Pixeln zu niedrig ist. (Manchmal werd' ich das Gefühl nicht los, daß Du genau verstehst, worum es geht, und die Frage nach Exaktheit nur als Diskussionsablenkung benutzt.)

Das Problem steckt in dem derzeitigen Prinzip der Umwandlung von Photonen in Elektronen. Beispielsweise hängt die full well capacity von der Pixelgröße ab. Effektiv ist das eine Art Kondensator, und Kapazität hängt von der Größe dieses Kondensators ab. Bei größeren Pixeln hat man eben mehr Fläche, hat dementsprechend mehr Kapazität, d.h. erreicht eine höhere FWC. Natürlich ändert sich die FWC pro Flächeneinheit über die Jahre (nach oben), aber selbst wenn man es super-effizient gestalten könnte: Mehr Fläche, größere Kapazität, höhere FWC.

Mit dieser Beschränkung kommt es dann eben zu dem Effekt, daß dickere Pixel bei Dunkelheit einfach besser sehen. Deren FWC ist größer, und im Verbund mit ähnlich optimiertem Ausleserauschen bei beiden Pixelgrößen ergibt sich damit ein höherer SNR der gelieferten Bilddaten.

(Lesehinweis: Kontext High-ISO) Selbst wenn dann nach Normskalierung Sensoren mit kleinen und großen Pixeln z.B. auf die gleiche Dynamik kommen, sollte man sich davon nicht täuschen lassen: In der Praxis bekommt man vom Sensor mit den größeren Pixeln mehr Informationen aus den Schatten heraus und die Farben sind insgesamt brillianter. Das liegt einfach an daran, wie die Daten in der PP-Software verarbeitet werden (was ich hier schon erklärt hatte, pro Pixel und so). Wenn die Dynamik laut den normskalierten Meßwerten gleich ist, wird die empfundene Körnigkeit bei gleicher Ausgabegröße identisch sein; evtl. wird man beim höher aufgelösten Sensor in den hellen Bereichen noch mehr Bilddetails erkennen, und kleinere Pixel tendieren halt auch eher zu Farbverschiebungen.

Übrigens hab' ich mir mal ein paar Bilder der 7D2 und der 5Ds herangenommen (vom DPReview-Studio-Vergleichstool), und die bearbeiten sich wie erwartet so gut wie identisch. Erwartungsgemäß wird bei der 7D2 die Körnigkeit eher wahrgenommen (weniger Auflösung aufgrund der Fläche), aber die Pixel sehen bei beiden gleich gut/schlecht in den dunklen Bereichen.

Übrigens, bzgl. der Farbverschiebung: Der rot/blaue Farbstich könnte durchaus einfach Farbrauschen sein aufgrund des SNR-Unterschiedes zu Grün. Zumindest entsprechend farblich durchsetztes Schwarz wird bei Kleinskalierung/Erhöhung des Betrachungsabstandes dunkler, d.h. tendiert Richtung Schwarz-Schwarz. Würde also passen. Die Effekte auf Nicht-Schwarz sind da schwerer zu greifen. Zum Glück fokussieren wir Menschen uns erstmal auf die hellen Teile im Bild; da treten die Probleme zuletzt auf :D

Vielleicht kommen wir ja doch noch zu einem Punkt (bin noch guter Hoffnung), denn bestehende Theorien kremple ich nicht wirklich um. Für mich besteht digitale Fotografie eben nicht nur aus Sensordaten, sondern eben auch dem Post-Processing (50:50, wie ich immer sage, und das ohne PS & Co.). Aufgrund der Art & Weise, wie das funktioniert, kann man eben nicht einfach normskalierte Werte zum Sensorvergleich in die Hand nehmen.

Es könnte z.B. auch APS-C-Sensoren geben, die besser mit höheren ISOs als diverse KB-Sensoren klar kommen (also in Bezug auf Farben, sichtbare Details in den Schatten usw.); dem Problem mit der evtl. eher sichtbaren Körnigkeit wird man aber nicht ausweichen können.
 
So wie ich den weiter vorn verlinkten Diskussionsfaden im DPreview-Forum verstehe, gibt es wahrnehmbare Unterschiede

- bei seeehr wenig Licht
- bei seeehr hohen ISO
- nur in den Schatten
- und wenn nicht richtig entrauscht wurde

Das sind natürlich sehr spezielle Anwendungsfälle. Soweit ich das überblicke, ist das aber weniger ein Rausch-, denn Dynamikproblem? Passend dazu zeigen die SNR-Daten der A7SII und A7RII (Print) keinerlei Unterschiede, wohl aber in den Dynamikkurven?


Die Frage ist jetzt schlicht und einfach, ob das eine zwingende und unvermeidbare physikalische Konsequenz der kleinen Pixel ist, oder ob (noch) einfach nur technische Schwierigkeiten dem im Weg stehen. Ich behaupte letzteres, weil mir einfach keine physikalische Begründung für ersteres einfallen will.

In Deep Sky-Kreisen wird eine ähnliche Frage diskutiert: warum hat ein Bild mehr Informationen, wenn ich es 10x mit 2min. belichte (und stacke), als 20x mit 1min.? Obwohl es doch die kumulativ gleiche Lichtmenge erhielt.
Als mögliche Antwort wird genannt, dass ein Pixel bei kürzerer Belichtungszeit das eine Photon eben nicht mehr auffängt, das er bei längerer Belichtungszeit gerade noch einfangen würde.

Ein großer Pixel sammle in Zeit X 4 zufällig verteilte Photonen. Unterteilt man diesen Pixel in 4 einzelne, wird es womöglich einen geben, der gar keinen abbekommt (ein anderer dafür 2). Diese Überlegung wurd von Bill Claff (wenn ich mich richtig erinnere) ebenfalls diskutiert: fürs Rauschen ist es egal, aber wie sieht es mit der Dynamik aus?
 
Wird vom (u.a. Auslese-)Rauschen aufgefressen :D Genauer: Wenn der SNR bei den betroffenen Pixeln zu niedrig ist.

Rauschen ist eine Streuung um den Mittelwert, nicht die Verschiebung des Mittelwerts und erst recht kein Schwellwert, der erst überschritten werden muss. Natürlich streuen kleine Signale von kleinen Pixeln mehr. Aber über gleiche Flächen integriert kommt es auf das gleiche raus, ob man das über viele kleine oder wenige große Pixel tut. Vorausgesetzt natürlich, dass das flächenbezogene (!) Ausleserauschen und die Quanteneffizienz gleich sind.

Manchmal werd' ich das Gefühl nicht los, daß Du genau verstehst, worum es geht..

Damit könntest Du rechthaben.

Mehr Fläche, größere Kapazität, höhere FWC.

Die FWC des Sensors (pro Fläche, nicht pro Pixel!) beschränkt im wesentlichen (bei gleicher Quanteneffizienz) die Basis-ISO. Für höhere ISO, um die es hier ja geht, ist sie völlig belanglos.
 
Zuletzt bearbeitet:
fürs Rauschen ist es egal, aber wie sieht es mit der Dynamik aus?

Für die Dynamik ist es erst recht egal, denn die wird nach unten durch das Rauschen begrenzt (bei dem es egal ist) und nach oben durch die Sättigungskapazität, die davon sowieso unbeeinflusst ist.

Ohnehin ist es auch hier wieder sinnlos und verwirrend, sich über einzelne Pixel Gedanken zu machen. Es geht immer um viele Pixel gleichzeitig. Wenn viele Pixel von gar keinem Photon getroffen werden (bzw. in ihnen kein Elektron ausgelöst wird), ist deren Sollwert null. Tatsächlich streuen die Messwerte wegen des Ausleserauschens aber um null herum, es finden sich also genauso viele Messwerte knapp unter null wie knapp über null, der Mittelwert über alle bleibt aber null. Wenn die nun aber so quantisiert und in die Raw-Datei geschrieben werden, dass Werte unter null auf 0 gesetzt werden (oder einfach "zu früh abgeschnitten" werden), dann wird der Mittelwert der Raw-Werte größer als 0 und damit falsch. Dann würden sich die Raw-Werte nicht-linear verhalten. Das wäre aber nicht physikalisch bedingt, sondern einfach "Doofheit" des Herstellers.

Die Messwerte können sich ja auch aus anderen (technischen) Gründen nicht-linear verhalten. Wenn das Verhalten bekannt ist, könnte der Raw-Konverter das (in bestimmten Grenzen) wieder linearisieren. Mir fällt dort aber kein physikalischer Grund ein, weshalb sich ein Sensor da nicht-linear und nicht linearisierbar verhalten sollte.

Und sogar der Raw-Konverter selber könnte diesen Fehler produzieren, wenn eine bei größeren Signalen gewollte Korrektur bei ganz kleinen Signalen zu solchen Verschiebungen führt. Das kann ich aber auch nur raten, ich weiß nicht, was so ein Raw-Konverter da alles rechnet und korrigiert.
 
Vorausgesetzt natürlich, dass das flächenbezogene (!) Ausleserauschen und die Quanteneffizienz gleich sind.
Die Annahme, daß das flächenbezogene Ausleserauschen gleich sei, läuft an der Praxis vorbei. Da zeigen größere Pixeln meist kleinere Werte als verrechnete kleinere Pixel. Demgegenüber ist die flächenbezogene Kapazität bei größeren Pixeln tendenziell kleiner, d.h. z.B. die FWC skaliert nicht 1:1 mit der Pixelfläche.

Die FWC des Sensors (pro Fläche, nicht pro Pixel!) beschränkt im wesentlichen (bei gleicher Quanteneffizienz) die Basis-ISO. Für höhere ISO, um die es hier ja geht, ist sie völlig belanglos.
Aber größere Fläche sammelt mehr Photonen. Bei vergleichsweise kleinerem Ausleserauschen ergeben sich damit (pro Pixel) bessere Signaldaten.


RAW-Konverter enthalten einiges an Nichtlinearitäten. Beispielsweise durchlaufen die Daten eine Gamma-Kurve (lineare Daten sehen aus wie durch einen Grauschleier betrachtet), und für die Umrechnung der Farbkanäle in Farben kann man mit einer einfachen Matrix (DxOmark bietet sowas an) oder halt mit kompletten Kurven/LUTs arbeiten, die dann üblicherweise auch alles andere als linear sind. Das sind die Dinge, die erstmal ohne weitere Bearbeitung ablaufen; häufig genug wird ja noch an Farben gedreht, Tonwerte angepaßt usw.

Ich hab' auch schon Statements in Papern gelesen, die darauf hingewiesen haben, daß die Linearität bei den Extrema (Sättigung und nahe Null) nicht unbedingt wirklich gegeben sein muß; genau die aber gerne für die Messungen herangezogen werden.

Reality is a bitch. Ich treibe mich jetzt schon seit Jahren im HighISO-Umfeld herum, und da stellen sich relativ schnell Fragen bzgl. den üblichen Aussagen im Kontext von Dynamik und Normskalierung usw. Mir geht es hier am Ende also nicht darum, Recht zu haben, sondern zu einem Vorstellungsmodell zu kommen, was sich mit meinen Erfahrungen aus der Realität deckt. Das übliche Geschwafel dazu wirft immer nur Fragen auf.
 
Die Annahme, daß das flächenbezogene Ausleserauschen gleich sei, läuft an der Praxis vorbei. Da zeigen größere Pixeln meist kleinere Werte als verrechnete kleinere Pixel.

Ja, bei einigen aktuellen Sensoren passt es, bei anderen passt es nicht. Du willst uns aber erzählen, es laufe "an der Theorie vorbei". Gibt es also einen physikalischen Grund, weshalb das flächenbezogene Ausleserauschen bei kleinen Pixeln zwangsläufig und unvermeidlich größer sein muss?

Demgegenüber ist die flächenbezogene Kapazität bei größeren Pixeln tendenziell kleiner, d.h. z.B. die FWC skaliert nicht 1:1 mit der Pixelfläche.

Die FWC des Sensors spielt aber nur bei Basis-ISO und am oberen Ende des Belichtungsspielraums eine Rolle, hier geht es aber um "high ISO" und das untere Ende des Belichtungsspielraums. Aber außerdem, wie gehabt: Gibt es einen physikalischen Grund, weshalb die flächenbezogene FWC bei kleinen Pixeln zwangsläufig und unvermeidlich kleiner sein muss?

Aber größere Fläche sammelt mehr Photonen. Bei vergleichsweise kleinerem Ausleserauschen ergeben sich damit (pro Pixel) bessere Signaldaten.

Das hatten wir doch nun schon oft genug, oder etwa nicht? Das Signal steigt näherungsweise linear mit der Pixelfläche, das Photonenrauschen steigt mit der Wurzel aus der Pixelfläche. Wenn das Ausleserauschen das auch tut/täte, dann wäre es sogar bei ganz kleinen Signalen (wo Ausleserauschen überhaupt erst relevant wird) völlig wurscht, ob ich mit vielen kleinen Pixeln messe und aufintegriere, oder gleich mit großen Pixeln messe. Den Artikel von Bill Claff, der das beschreibt, hast Du selber verlinkt.

RAW-Konverter enthalten einiges an Nichtlinearitäten.

Ja natürlich. Und selbstverständlich kann das die Fehler überhaupt erst verursachen, wenn diese nichtlinearen Korrekturen nicht korrekt kalibriert sind. Ich sehe aber auch hier keinen physikalischen Grund, warum das zwangsläufig und unvermeidlich so sein muss.

Ich hab' auch schon Statements in Papern gelesen, die darauf hingewiesen haben, daß die Linearität bei den Extrema (Sättigung und nahe Null) nicht unbedingt wirklich gegeben sein muß; genau die aber gerne für die Messungen herangezogen werden.

Sie ist in der Praxis bei realen Sensoren vermutlich nicht gegeben. Wenn diese Nichtlinearitäten bekannt und vermessen sind, kann man sie aber im Raw-Konverter rauskorrigieren, egal ob die Pixel groß oder klein sind. Du behauptest aber (und das mit teilweise sehr fragwürdigen Begründungen), das hänge nun auch noch zwangsläufig von der Pixelgröße ab.

Reality is a bitch. Ich treibe mich jetzt schon seit Jahren im HighISO-Umfeld herum, und da stellen sich relativ schnell Fragen bzgl. den üblichen Aussagen im Kontext von Dynamik und Normskalierung usw. Mir geht es hier am Ende also nicht darum, Recht zu haben, sondern zu einem Vorstellungsmodell zu kommen, was sich mit meinen Erfahrungen aus der Realität deckt.

Der Verlauf der "full-SNR"-Kurven lässt sich mit 4 Parametern ausreichend gut nachbilden, die in dem dort verwendeten semi-empirischen Modell eine sinnvolle physikalische Bedeutung haben: Der globale Verlauf der Kurven mit +3dB/Verdopplung der Belichtung legt überhaupt erstmal dieses geometrisch-statistische Modell und die Dominanz des Photonenrauschens nahe. Die Lage der Kurve gegenüber der "y-Achse" wird durch die Quanteneffizienz bestimmt. Die Sättigungskapazität des Sensors bestimmt das rechte Ende der Kurve bei Basis-ISO. Bei höheren ISO ist es nicht mehr der Sensor, sondern ein Überlauf des Verstärkers und/oder A/D-Wandlers. Der steilere Abfall zum linken Ende der Kurven ist ein Effekt des Ausleserauschens. Und ein 4. Parameter, der meistens vernachlässigt wird, beschreibt das Abflachen der Kurven am rechten Rand.

Soll jetzt in Dein "Vorstellungsmodell" ein 5. Parameter eingeführt werden, der das Ausleserauschen weiter unterteilt in einen Anteil, der von der Pixelgröße abhängig ist und einen anderen, der davon unabhängig ist? Und welcher physikalische Effekt könnte diese Abhängigkeit von der Pixelgröße erklären und beschreiben, um den Parameter wenigstens auch semi-empirisch zu machen? Oder soll er vollkommen ohne physikalischen Hintergrund empirisch bestimmt werden?

Und vor allem: Welchen Erkenntnisgewinn könnte solch ein Parameter bringen, wenn er denn überhaupt sinnvoll zu definieren und beziffern wäre? Es ist doch jetzt schon klar, dass die Skalierungen, wie DxOMark sie betreibt, nur in dem Bereich linear sind, wo das Ausleserauschen entweder keine Rolle spielt oder (auf die Fläche bezogen) ausreichend ähnlich ist. Also merke ich persönlich mir lieber, dass ich anderenfalls das Ausleserauschen berücksichtigen muss und, dass die eine Kamera mehr und die andere weniger Ausleserauschen hat. Tendenziell haben bei aktuellen Sensoren vielleicht sogar große Pixel weniger Ausleserauschen pro Fläche als kleine. Aber es gibt auch genügend Gegenbeispiele.

Das übliche Geschwafel dazu wirft immer nur Fragen auf.

Du hast hier die Mission...

Ich werde das ganze mal etwas weiter treiben, da es mir am Ende darum geht, ein paar Fakten in die Köpfe zu bekommen, vor denen (gefühlt) irgendwie immer wieder ein Zensurbalken hängt.

....aber bislang werfen Deine Ausführungen zumindest bei mir mehr Fragen auf, als dass sie irgendwelche neuen Erkenntnisse "in die Köpfe" bringen.
 
Zuletzt bearbeitet:
Die FWC des Sensors spielt aber nur bei Basis-ISO und am oberen Ende des Belichtungsspielraums eine Rolle, hier geht es aber um "high ISO" und das untere Ende des Belichtungsspielraums. Aber außerdem, wie gehabt: Gibt es einen physikalischen Grund, weshalb die flächenbezogene FWC bei kleinen Pixeln zwangsläufig und unvermeidlich kleiner sein muss?

Stark vereinfacht gesagt ist bei Jedem Pixel ein Kleiner Kondensator drin, um eben die Energie des umgewandelten Photons zu speichern, bis diese ausgelesen wird.

Capazität = elektrische Feldkonstante*(Fläche / Distanz).

Die Distanz ist vom Herstellungsverfahren her gegeben. Die Feldkonstante vom Material...
Die einfachste Variante ist natürlich die Fläche zu vergrössern... Die Distanz verkleinern ist wohl auch nicht mehr soo einfach wie auchschon. Je flacher die Fotodioden werden, desto kleiner wird die Distanz.

Sein muss es nicht. Aber. wie beim Sony beispiel weiter oben einmal mit viel mp einmal mit wenig, bei ca. gleicher Sensorgrösse, und davon ausgehend, das die Sensoren gleich dünn sind und vom gleichen Material sind(der aufpreis der 40mp lässt sich doch mit der HErstellung von einem 40 mp zu 12 mp erklären), denke ich müsste es einleuchtend sein, wesshalb die 40Mp der 12 Mp unterlegen ist.


Zusätzlich Mal überlegen, wenn die Distanz sich kaum verändert, und sich die Feldkonstante durch besseres Material um x % erhöht wird kann die Pixelfläche um x% reduziert werden um gleiches Pixelverhalten zu erreichen.
 
WERBUNG
Zurück
Oben Unten