Aber gut, wenn ihr weiter an der Theorie festhalten wollt, daß allein die Sensorfläche das ISO-Verhalten definiert, dann nur zu.
Zeigst Du uns mal das Zitat, wo irgendwer behauptet hätte, dass es "allein" die Sensorfläche ist?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Aber gut, wenn ihr weiter an der Theorie festhalten wollt, daß allein die Sensorfläche das ISO-Verhalten definiert, dann nur zu.
PP-Software arbeitet mit den einzelnen Pixeln, d.h. wenn man da an einem Regler dreht, geschehen die Berechnungen auf der vollen Auflösung, die von den RAW-Daten vorgebeben ist. Ergo bestimmt die Pixel-Qualität, wie gut/schlecht sich die Bilder bearbeiten lassen, was ich als "Bearbeitungsgrenze" bezeichne.
Ich sehe in einem ISO12800+3 Bild der A7s noch mehr Details in den Schatten als die D810 bei ISO12800+1 liefert, d.h. die Differenz beträgt bei ISO12800 mehr als 2 Blenden Unterschied (tendenziell Richtung 3 Blenden). Das spürt man beim Arbeiten mit den Daten sehr deutlich. Die Differenz ist durch die technische Trickserei in der A7s nicht wirklich ausschließlich erklärbar.
Wenn ich z.B. an der Tonwert-Kurve rumspiele, dann ist das ein Prozeß, der Pixel für Pixel angewendet wird. Es gibt auch Effekte, die tatsächlich mehr oder weniger Pixel umfassen, teils sogar größere Bereiche. Aber die Berechnungen dafür laufen auch wieder Pixel für Pixel. Deshalb legt die Qualität der Pixel quasi fest, innerhalb welcher Grenzen sich die Daten überhaupt bearbeiten lassen.Natürlich rechnet die Software "mit einzelnen Pixeln", die Manipulationen passieren aber nicht an einzelnen Pixeln, sondern an mehr oder weniger großen Bildbereichen und spektral im Ortsfrequenzbereich. Und dann ist es ziemlich trivial (bzw. der "Fluch der 100%-Ansicht"), dass man in einem auf 2m x 3m aufgeblasenen Bild, das man aus der Nähe betrachtet und bearbeitet, schlechter abschätzen kann, wie die Bearbeitung am Ende in fertigen Bild von 20cm x 30cm aussieht, als wäre es "nur" auf 1m x 1,5m aufgeblasen. Und zu allem Überfluss rauscht das größer aufgeblasene Bild zwangsläufig auch noch stärker (und sowieso viel stärker, als man es später im fertigen Bild jemals empfindet).
Ich seh' häufig genug Argumente der Form "sind beides KB-Kameras, wenn man die Bilder auf die gleiche Größe skaliert, wird man keine/kaum Unterschiede sehen", und das im Kontext von High-ISO. Dementsprechend sind APS-C-Sensoren dann auch generell schlechter.Zeigst Du uns mal das Zitat, wo irgendwer behauptet hätte, dass es "allein" die Sensorfläche ist?
Wie gesagt: Die Bearbeitung kann nur innerhalb der Grenzen funktionieren, die von den Pixeln vorgegeben ist, und das ist unabhängig von der Ansicht.
Wenn ich hier irgendwas tendenziell 3 Blenden Unterschied bekomme bei ISO12800, dann hat das nichts mehr mit "ähnlich" zu tun. Das sind zwei verschiedene Welten.
Bearbeitungsgrenzen? Naja, einmal eben die Qualität der Schatten / potentielle Dynamik beim gegebenen ISO. Genauer spielen da eigentlich die z.B. bei DxOmark einsichtigen Full SNR Kurven eine große Rolle; um so höher der SNR, um so mehr läßt sich mit den Daten rumspielen.Und was für eine Grenze wäre das? 14bit pro Raw-Wert haben sie doch alle, oder? Oder welche andere Grenze sollte da ins Spiel kommen?
Allerdings ist das RAW der A7s deutlich angenehmer zu verarbeiten.
3 Blenden in den Schatten. Gleiches Prinzip wie auch bei niedrigen ISOs, quasi nachschauen, was da noch in den Schatten (nicht) zu finden ist. Bei der A7s sehe ich da z.B. noch die blauen Knöpfe vom Anzug der LEGO-Figur in dem -3EV-Bild, bei der D810 ist da noch Matsch beim -1EV Bild. Das +-0EV-Bild der D810 zeigt aber ähnlich viel an der Stelle wie das um 3 Blenden aufgezogene -3EV-Bild der A7s. Das sind also definitiv mehr als 2 Blenden und max. 3 Blenden, oder hab' ich mich da irgendwie verzählt? Das Rauschen wird bei der D810 für die gleiche Ausgabegröße stärker gemindert als bei der A7s, halt 3-fache Auflösung und so. Die nicht sichtbaren Knöpfe rauschen dann also nur wenigerDu bekommst da 3 Blenden Unterschied (wobei ich immer noch nicht erkennen kann, unter welchen Umständen Du die bekommst), bei ManniD scheint das schon anders auszusehen.
Vielleicht nochmal einen anderen Link. Die Diagramme von DxOmark sind wohl noch nicht ausreichend, wenn man da Kameras aus einem (vermutetem) ähnlichem Technologiestand auswählt?Für einen physikalisch und prinzipiell bedingten Vorteil großer Pixel bei gleicher Sensor- und Ausgabegröße sehe ich nach wie vor keinen Grund und schon erst recht keinen Nachweis in Deinen Beispielen und Ausführungen.
potentielle Dynamik
um so höher der SNR, um so mehr läßt sich mit den Daten rumspielen.
Vielleicht nochmal einen anderen Link.
Die Diagramme von DxOmark sind wohl noch nicht ausreichend, wenn man da Kameras aus einem (vermutetem) ähnlichem Technologiestand auswählt?
Wir drehen uns hier im Kreis, Mister.Hast Du das gelesen und verstanden? Dann zeig mir bitte mal das Zitat, wo Bill Claff begründet, warum große Pixel bei gleicher Ausgabegröße im Vorteil sind. Nicht auf Pixelebene, auf die er sich bezieht.
Wir drehen uns hier im Kreis, Mister.
Bei hohen ISOs sehen die großen Pixel mehr, d.h. die haben mehr Infos in den Schatten. Diese Infos bekommst Du beim Skalieren nicht mehr zurück, die sind bei kleineren Pixeln einfach nicht mehr da.
Außerdem ist es schon verwunderlich, warum Hersteller trotzdem noch Sensoren bauen, die mit dickeren Pixeln kommen, obwohl sie in der Lage wären, kleinere Pixel zu verwenden (und die Ausleseraten dafür trotzdem noch schnell genug wären). Da könnte man sich glatt fragen: Warum?
Du könntest ja mal mit einem Gegenbeweis kommen, mal so als Abwechslung.
Warum? Weil u.a. der Artikel von Bill Claff einleuchtend ist. Oder die ähnliche Behauptung (und mathematisch bewiesen) von dxomark.
Wird vom (u.a. Auslese-)Rauschen aufgefressenWarum sollte bei kleinen Pixeln ein Signal "verschwinden"? Wohin denn?
Die Frage ist jetzt schlicht und einfach, ob das eine zwingende und unvermeidbare physikalische Konsequenz der kleinen Pixel ist, oder ob (noch) einfach nur technische Schwierigkeiten dem im Weg stehen. Ich behaupte letzteres, weil mir einfach keine physikalische Begründung für ersteres einfallen will.
Wird vom (u.a. Auslese-)Rauschen aufgefressenGenauer: Wenn der SNR bei den betroffenen Pixeln zu niedrig ist.
Manchmal werd' ich das Gefühl nicht los, daß Du genau verstehst, worum es geht..
Mehr Fläche, größere Kapazität, höhere FWC.
fürs Rauschen ist es egal, aber wie sieht es mit der Dynamik aus?
Die Annahme, daß das flächenbezogene Ausleserauschen gleich sei, läuft an der Praxis vorbei. Da zeigen größere Pixeln meist kleinere Werte als verrechnete kleinere Pixel. Demgegenüber ist die flächenbezogene Kapazität bei größeren Pixeln tendenziell kleiner, d.h. z.B. die FWC skaliert nicht 1:1 mit der Pixelfläche.Vorausgesetzt natürlich, dass das flächenbezogene (!) Ausleserauschen und die Quanteneffizienz gleich sind.
Aber größere Fläche sammelt mehr Photonen. Bei vergleichsweise kleinerem Ausleserauschen ergeben sich damit (pro Pixel) bessere Signaldaten.Die FWC des Sensors (pro Fläche, nicht pro Pixel!) beschränkt im wesentlichen (bei gleicher Quanteneffizienz) die Basis-ISO. Für höhere ISO, um die es hier ja geht, ist sie völlig belanglos.
Die Annahme, daß das flächenbezogene Ausleserauschen gleich sei, läuft an der Praxis vorbei. Da zeigen größere Pixeln meist kleinere Werte als verrechnete kleinere Pixel.
Demgegenüber ist die flächenbezogene Kapazität bei größeren Pixeln tendenziell kleiner, d.h. z.B. die FWC skaliert nicht 1:1 mit der Pixelfläche.
Aber größere Fläche sammelt mehr Photonen. Bei vergleichsweise kleinerem Ausleserauschen ergeben sich damit (pro Pixel) bessere Signaldaten.
RAW-Konverter enthalten einiges an Nichtlinearitäten.
Ich hab' auch schon Statements in Papern gelesen, die darauf hingewiesen haben, daß die Linearität bei den Extrema (Sättigung und nahe Null) nicht unbedingt wirklich gegeben sein muß; genau die aber gerne für die Messungen herangezogen werden.
Reality is a bitch. Ich treibe mich jetzt schon seit Jahren im HighISO-Umfeld herum, und da stellen sich relativ schnell Fragen bzgl. den üblichen Aussagen im Kontext von Dynamik und Normskalierung usw. Mir geht es hier am Ende also nicht darum, Recht zu haben, sondern zu einem Vorstellungsmodell zu kommen, was sich mit meinen Erfahrungen aus der Realität deckt.
Das übliche Geschwafel dazu wirft immer nur Fragen auf.
Ich werde das ganze mal etwas weiter treiben, da es mir am Ende darum geht, ein paar Fakten in die Köpfe zu bekommen, vor denen (gefühlt) irgendwie immer wieder ein Zensurbalken hängt.
Die FWC des Sensors spielt aber nur bei Basis-ISO und am oberen Ende des Belichtungsspielraums eine Rolle, hier geht es aber um "high ISO" und das untere Ende des Belichtungsspielraums. Aber außerdem, wie gehabt: Gibt es einen physikalischen Grund, weshalb die flächenbezogene FWC bei kleinen Pixeln zwangsläufig und unvermeidlich kleiner sein muss?