• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lichtausbeute VF vs. Crop

... Wenn ich 25 12 MP Sensoren nebeneinanderlege ... und so weiter .. Und nehme ich dann ein beliebiges 12 MP usw und so fort.

Wo ist der Sinn dieser Versuchs? Du beraubst den großen Sensor seiner exklusiven Fähigkeiten und willst damit seine Gleichheit beweisen? Du vergrößerst den ehemals kleinen Sensor und hast jenen gleichermaßen verändert. Es ist, wie es ist, ein größerer Sensor, egal wieviele "Pixel" er hat, hat ggüber dem kleineren Sensor - bezogen auf die gleiche Ausgabegröße (!)[und ich mach noch mehr Ausrufezeichen hin, wenn dieser Hinweis überlesen wird] - einen Rauschvorteil, bedingt durch die höhere Lichtausbeute.

UND: Diese Diskussion ist - fürs menschliche Auge(!) - äußerst "senseless", wenn wir ISO100-Bilder vergleichen, obwohl wir SNR-Unterschiede messen könnten. Mach das Gedankenspiel mal bei HighISO - dort, wo das Mitteln von statistischem Rauschen auch sichtbare Erfolge bringt.

[Freistellung] wird umgangssprachlich für Maskierungsarbeiten zB in Photoshop benutzt, es ist schon richtig, dass er "problematisch" ist, dennoch sehe ich ihn im fotografischen Kontext als ok an. Das Problem ist also eher die Überschneidung, Fotografie und Bildbearbeitung, wo der selbe Begriff für verschiedene Dinge genutzt wird.


mfg chmee
 
Zuletzt bearbeitet:
@-rabu-

In diesem Thread ist die Betrachtung "Lichtausbeute VF vs. Crop" eigentlich recht gut beschrieben worden und ich finde auch recht leicht nachvollziehbar.
Man hat jetzt 4 Möglichkeiten:
a) Verstehen
b) im Zweifel weiter mit beschäftigen
c) Glauben
d) eigene Modelle konstruieren, die das widerlegen sollen

Wie soll ich dir dein Model widerlegen, welches ich gar nicht begreife. Du legst ja da auch Istzustände fest, die keine sind. Wenn du eine andere Auffassung zu Sensorgrößen und dessen Vor- und Nachteile hast, werde ich dir die nicht nehmen wollen. ;)
 
Die ursprüngliche Frage war doch:
"… aus den vielen beiträgen, die ich hier schon gelesen habe, glaube ich mitbekommen zu haben, dass ich mit einer vf vorteile hätte, da ich wohl eine blende gewinnen würde (?). …"

Ist Antwort #40 zu einfach, oder falsch? :confused::)

Kannst Du das nicht selber?

Nö, habe nur eine 40D als Cropknipse da. Soll ich da ISO 100 vergleichen?

...
Einer der es für viele Nikonkameras gemacht hat, ist z.B. AndyE, siehe hier. ...

Leider nicht mit der "Blendenanpassung" Crop - KB wie hier diskutiert.

VG
 
Sorry, @Bernti geht es nun um Lichtausbeute (Frage des TO) oder äquivalentes Bild (Deine Frage)..
ich erweitere Dein Zitat um eine wichtige Komponente:
..unglaublich gerne auch bei wenig licht. mir gefällt die stimmung besser als mit blitz .. aus den vielen beiträgen, die ich hier schon gelesen habe, glaube ich mitbekommen zu haben, dass ich mit einer vf vorteile hätte,..

(ich bin dann wieder raus. schon schade, dass solch eine Frage, simplel erklärbar, sich immer mit dem ganzen Rest des KB/Crop-Universums beschäftigen muss. Die Frage Hier ist als beantwortet zu sehen, schon lange.)
 
Zuletzt bearbeitet:
Leider nicht mit der "Blendenanpassung" Crop - KB wie hier diskutiert.

VG

Das ist für -rabu- erst einmal nicht wichtig. Er weigert sich zu glauben, das beim verkleinern oder vergrößern sich die Rauschmenge im Bild verändert. Sprich, wenn ich ein 300MP Bild auf 12MP verrechne, ändert sich nichts an der Rauschmenge. So jedenfalls seine Behauptung.
 
Wenn ich meinen 300 MP VF Sensor mit einem 12 MP 1/2,3 Zoll Sensor vergleiche, rauscht der 12 MP Ausschnitt des VF Sensor identisch, wenn ich ihn in der gleichen Ausgabegröße wie die 12 MP des kleinen Sensor betrachte.
Richtig.

Die 288 MP aussenherum spielen da keine Rolle.
Zunächst auch richtig.

Warum sollen dann die 300 MP insgesamt weniger rauschen als 12 MP in Vollbildansicht (gleiche Ausgabegröße), nur weil es verkleinert ist? Es gibt keine zusätzlichen Informationen (für das menschliche Auge).
Doch! Die gibt es.
Sieh es mal so: Wenn du dir das Gesamtbild in einer bestimmten Ausgabegröße ansiehst, hast du immer eine Auflösungsreduktion. (Vorausgesetzt, die Auflösung war am Anfang hoch genug, sodass man keine einzelnen Pixel wahrnimmt.) Selbst wenn das Ausgabemedium in der entsprechenden Größe die volle Auflösung Pixel für Pixel darstellen kann (riesiger, hochauflösender Druck, sehr hochauflösender und / oder riesiger Monitor, ...), kann dein Auge das nicht. Bedenke, dass du grundsätzlich das ganze Bild im Blick behalten musst. Näher Herangehen und einen Teil Ansehen zählt nicht, denn das wäre eine andere Ausgabegröße (Detailvergrößerung).
Wenn du nun die 300 MP auf das "herunterinterpolierst", was dein Auge wahrnehmen kann (ich weiß nicht, wieviel das ist, aber sicherlich weniger als 300 MP), werden jeweils mehrere Pixel miteinander "vermischt", quasi gemittelt. Je mehr das sind, desto geringer wird das Rauschen im Ergebnis - im Verhältnis zum Rauschen der Einzelpixel.
Unterteilst du die gleiche Sensorfläche in mehr Pixel, so rauscht jedes einzelne stärker - dafür werden mehr miteinander gemittelt, sodass sich das genau rauskürzt. Daher ist es (fast) egal, in wieviele Pixel man die Sensorfläche unterteilt. ("Fast", weil es wohl noch etwas "Verschnitt" gibt. Wenn man davon ausgeht, dass keine Lücken zwischen den Pixeln / "Senseln" entsehen, ist der Unterschied Null.) Ob ich 12 MP oder 300 MP auf der gleichen Fläche habe, ist für das Ergebnis daher völlig egal.

Nehme ich jetzt die zwei Sensoren, die du vorschlägst: Gleiche Pixelgröße, einmal 12 MP, einmal 300 auf entsprechend größerer Fläche, so macht das einen Unterschied: Jeder der 300 Pixel rauscht genauso stark wie jeder der 12 MP - sie sind ja gleich groß. Bei den 300 werden aber viel mehr auf ein "Augenpixel" zusammengemappt, d.h. gemittelt, sodass das Rauschen abnimmt. Hier kürzt sich nichts mehr raus, da die 300 MP im Gegensatz zum vorherigen Fall mit der gleichen Fläche nicht einzeln stärker rauschen, sondern nur genauso stark wie die 12. Aber es gibt mehr.

Nehme ich 25 kompakte 12 MP Bilder und reihe sie aneinander, kommt bzgl. Rauschen dasselbe Ergebnis heraus.
Nur, wenn du sie auch 25 mal so groß anguckst wie das einzelne. Wenn du das Ergebnis verkleinerst, oder einfach nur soweit weggehst, dass es für dich genauso groß aussieht wie vorher das eine Bild, siehst du viel weniger Rauschen.

Die Sensorgröße spielt beim rauschen also keine Rolle, nur indirekt, weil beim größeren Sensor die Pixel größer sein können.
Doch, die Sensorgröße ist sogar (fast, siehe oben) das Einzige, was eine Rolle spielt.

Und Pixeldenken ist analog zum Teilchenmodell-Denken der Physiker. Ist das etwa auch nicht zielführend?
In der Physik musst du dann aber sowohl die Anzahl als auch die Eigenschaften der Teilchen berücksichtigen. Wenn du die Gesamtenergie einer Teilchenmenge betrachten willst, musst du also sowohl die Anzahl Teilchen ALS AUCH die Energie pro Teilchen betrachten.
Nehmen wir mal die während der Belichtung vom Sensor aufgenommene Gesamtenergie. Die verhält sich umgekehrt zum Rauschen, da weniger verstärkt werden muss. (Vereinfacht!)
Die Energierdichte des Lichts, d.h. Energie pro Fläche ist immer gleich. (Sonst habe wir wieder verschiedene Objektive, siehe Diskussion weiter oben.) Was ein Pixel davon abkriegt, ist abhängig von seiner Fläche. Nehmen wir mal keinen "Verschnitt" an, so ist die Fläche eines Pixels die Gesamtfläche durch die Anzahl der Pixel.

Jetzt nehmen wir zwei Sensoren der gleichen Größe: 12 MP und 300 MP.
Jedes Pixel der 12 Mio. hat eine Fläche von Sensorfläche / 12 Mio. Jedes der 300 Mio. hat eine Fläche von Sensorfläche / 300 Mio., also viel weniger.
Die Gesamtenergie ist Anzahl Pixel mal Energie-pro-Pixel. Im einen Fall also Sensorfläche durch 12 Mio. mal 12 Mio. Im anderen Fall Sensorfläche durch 300 Mio. mal 300 Mio. Die Gesamtenergie ist folglich nur abhängig von der Sensorfläche, die Anzahl der Pixel kürzt sich raus.

Jetzt die verschieden großen Sensoren mit gleich großen Pixeln: Hier ist die Energie pro Pixel jeweils gleich groß, nämlich sowohl Fläche-des-kleinen-Sensors / 12 Mio. als auch Fläche-des-großen / 300 Mio. Nennen wir diesen Wert x.
Die Gesamtenergie ist jetzt beim 12-MP-Sensor x mal 12 Mio. Beim 300-MP-Sensor aber x mal 300 Mio.
 
Er weigert sich zu glauben, das beim verkleinern oder vergrößern sich die Rauschmenge im Bild verändert.

Solcherlei Verwendung von Sprache ist aber auch unglücklich. Immerhin ist das das gleiche, wie der Effekt, der eintritt, wenn man näher oder weiter weg von einem ausgedruckten Bild ist. Das Bild selbst ist nun mal statisch. Und nein, die "Rauschmenge" (ein Begriff, der absolutes verheisst) ändert sich da nicht. Die Farbkleckse auf dem Papier sind in der Menge ja nun mal stabil.
Was sich aber sehr wohl ändert ist die "Rauschwahrnehmung": je weiter weg Du stehst, desto kleiner siehst Du das Bild und desto weniger Rauschen empfindest Du.
Das ganze Zeugs hat ja viel damit zu tun, wie das Hirn des Betrachters die Informationen verarbeitet. Ähnlich wie alleine der Betrachter die "Schärfentiefe" nachträglich verändern kann, indem er das Bild mal so, mal so betrachtet.
 
In der Physik musst du dann aber sowohl die Anzahl als auch die Eigenschaften der Teilchen berücksichtigen. Wenn du die Gesamtenergie einer Teilchenmenge betrachten willst, musst du also sowohl die Anzahl Teilchen ALS AUCH die Energie pro Teilchen betrachten.

Wie gesagt, eine Analogie zwischen "Pixeldenken" und Teilchenphysik existiert nicht. Die Teilchenphysik kann man auf die einzelnen Photonen loslassen, wenn man möchte. Die Pixel (Sensel) sind nichts anderes als örtliche Abtastpunkte für das analoge, vom Objektiv auf denm Sensor projizierte Bild. Genau wie die 44100 zeitlichen Abtastungen eines digitalen Audiosignals auf einer CD. Und da kommt auch niemand auf die Idee, "samplescharfe" Aufnahmen zu fordern.

Nehmen wir mal die während der Belichtung vom Sensor aufgenommene Gesamtenergie. Die verhält sich umgekehrt zum Rauschen, da weniger verstärkt werden muss. (Vereinfacht!)

Das ist nicht "vereinfacht", das ist falsch. Das Rauschen hängt nicht von der Verstärkung ab, sondern vom Photonenrauschen. Und das ist (wie oft muss man das eigentlich schreiben?) nur proportional zur Wurzel des Signals (der Photonenzahl), der Rauschabstand steigt als mit der Wurzel des Signals. Und wenn ich mehr Photonen für das gleiche Bild erfasse, egal ob mit großen Senseln oder durch zusammenrechnen vieler kleiner, dann rauscht das Bild weniger.

Und übrigens rauscht praktisch jeder Sensor bei doppelter Belichtung um 3dB weniger (das entspricht √2) weniger, nämlich weshalb?



Gruß, Matthias
 
Zuletzt bearbeitet:
gewinne ich licht mit vf?
mit welcher cam komme ich weiter?

Mit dem größeren Sensor kann man, wenn man möchte, mehr Licht auffangen. Dann rauscht es weniger. Dafür hat man dann weniger Tiefenschärfe oder mehr Verwackelung.

Wenn Du es gerne verrauscht hast, reicht also der kleine Sensor. Wenn Du großen Wert auf verwackelte oder unscharfe Bilder legst, bietet der große Sensor da mehr Spielraum.
 
@-rabu-

Es gibt einige Rauschvergleiche im Netz, in denen teilweise auch die RAWs beiliegen. Was hindert dich daran, solche RAWs zu laden, selbst zu Entwickeln, um sie dann auf die gleiche Ausgabegröße zu bringen. Dann kannst du selbst vergleichen. Einer der es für viele Nikonkameras gemacht hat, ist z.B. AndyE, siehe hier.
Wenn ich mir die Bilder dort betrachte, komme ich auf das gleiche Ergebnis wie Masi hier schon zigmal geschildert hat und das kann man auch aus den Diagrammen von DxOMark erkennen.

Es werden da verschiedene Sensorgenerationen miteinander verglichen.

D4 und D800 sind lt. Wikipedia im gleichen Jahr erschienen (6.1.2012 und 7.2.2012). Gehe ich davon aus, dass sie deshalb dieselbe Sensortechnologie verwenden, dann müsste die D4 weil größere Pixel hat, lt. meiner Theorie weniger rauschen. Und wenn ich mir die Beispielfotos anschaue, sehe ich kaum Unterschiede beim Rauschen, evtl. leichte Vorteile für die D4 (u.a. linker Bildbereich um den Behälter "E 5846"). Vielleicht liegt es auch daran, dass das D800 Bild etwas heller ist.

Das bedeutet ja, dass das Rauschen nur von der Größe des Sensors abhängt. Die D800 bietet aber entsprechendes Crop-Potential.
 
Zuletzt bearbeitet:
Wie gesagt, eine Analogie zwischen "Pixeldenken" und Teilchenphysik existiert nicht.
Ich wollte -rabu-'s Wunsch aufgreifen. Meine Analogie ist abstrakter.

Das ist nicht "vereinfacht", das ist falsch.
Nö, es ist vereinfacht.

Das Rauschen hängt nicht von der Verstärkung ab, sondern vom Photonenrauschen.
... das mit verstärkt wird.
Mit "Verstärkung" (daher "vereinfacht") meine ich allgemein den Faktor zwischen "Anzahl Photonen auf dem Sensel" und "Tonwert in der Datei". Ich behaupte nicht, dass das Rauschen durch die Verstärkung entsteht. Das ist aber unerheblich. Lass uns die Sache nicht unnötig verkomplizieren, indem wir über Begrifflichkeiten streiten - wir meinen in ausreichender Näherung dasselbe.

Und das ist (wie oft muss man das eigentlich schreiben?) nur proportional zur Wurzel des Signals (der Photonenzahl), der Rauschabstand steigt als mit der Wurzel des Signals. Und wenn ich mehr Photonen für das gleiche Bild erfasse, egal ob mit großen Senseln oder durch zusammenrechnen vieler kleiner, dann rauscht das Bild weniger.
Nichts anderes habe ich behauptet. Mehr Licht => Weniger Rauschen. Das ist der Zusammenhang, der hier wichtig ist.

Und übrigens rauscht praktisch jeder Sensor bei doppelter Belichtung um 3dB weniger (das entspricht √2) weniger, nämlich weshalb?
Plausibel, tut hier aber nichts zur Sache.
 
@grundstoffkonzentrat
danke für die Erläuterungen. Das Rauschen ist also vor allem von der Größe und Technologie des Sensors abhängig. Das wird durch den Vergleich der D4 und D800 Beispielfotos "belegt" (beide Fotos rauschen etwa gleich, gleiche Technolgie, beide VF trotz unterschiedlichem Pixelpitch). Dass kleinere Sensoren, kleinere Pixel haben ergibt sich zwangsläufig.
Doch daraus schlußfolgern immer den Sensor mit den meisten Pixeln zu wählen kann nach hinten losgehen, weil die Optik nicht zur höheren Pixeldichte "passt" und statt mehr Details nur mehr Abbildungsfehler sichtbar werden.
Deshalb bleibe ich aber bei meinem Ziel: Wenn es die Optik es nicht schafft, lieber 12 MP VF aktueller Technologie mit älteren Objektiven als 36 MP VF mit extrem teuren Objektiven, wenn nicht beschnitten werden soll. Leider widerspricht das dem Wachstumsgedanken der Hersteller.:mad:
 
Zuletzt bearbeitet:
-rabu-
erfasst. im Grundsatz. Tatsächlich gibt es natürlich auch evolutionäre Sprünge, man kann es als deutlichen Fortschritt sehen, wenn eine (ich, canon) 5DII immerhin um 10MPix zum Vorgänger gewachsen ist, aber nicht nur gleiche SNR, sondern sichtbar bessere SNR-Werte hervorbringt. bessere SNR heisst nämlich auch besserer Dynamikumfang, weil in den Schatten mehr verwertbares Material vorliegt. Deswegen ist bei Canon die 6D nicht uninteressant (verglichen zur 5DIII und auch 1DX), es sind sicherlich nicht die paar weniger MPiX, sondern die Optimierungen. Auch bei der Df soll es sich so verhalten.

Aber das ist nicht das eigentliche Thema, nicht wahr?! :)
 
@grundstoffkonzentrat
danke für die Erläuterungen. Das Rauschen ist also vor allem von der Größe und Technologie des Sensors abhängig. Das wird durch den Vergleich der D4 und D800 Beispielfotos "belegt" (beide Fotos rauschen etwa gleich, gleiche Technolgie, beide VF). Dass kleinere Sensoren, kleinere Pixel haben ergibt sich zwangsläufig.
Doch daraus schlußfolgern immer den Sensor mit den meisten Pixeln zu wählen kann nach hinten losgehen, weil die Optik nicht zur höheren Pixeldichte "passt" und statt mehr Details nur mehr Abbildungsfehler sichtbar werden.
Deshalb bleibe ich aber bei meinem Ziel: Wenn es die Optik es nicht schafft, lieber 12 MP VF aktueller Technologie mit älteren Objektiven als 36 MP VF mit extrem teuren Objektiven, wenn nicht beschnitten werden soll. Leider widerspricht das dem Wachstumsgedanken der Hersteller.:mad:

Damit kannst du auch bis zu einer gewissen Ausgabegröße sehr gut leben, erst sehr große Ausbelichtungen oder sehr geringe Betrachtungsabstände bringen die höhere Auflösung nach vorne, was aber wieder ein anderes (angelehntes) Thema ist. ;)
 
Man stelle sich vor: 2 Fotografen stehen mit 2 verschiedenen Kameras, aber gleichen Objektiven an der gleichen Stelle und können den Platz nicht ändern.
Hierzu mein streng wissenschaftlicher Test:
6D+7D nacheinander auf das Stativ, bei gleichem Kunstlicht und identischen Einstellungen, jeweils genau 1 RAW gemacht und mit gleichen Einstellungen in DPP entwickelt.
Bildausschnitt-wie zu erwarten- extrem anders, von großen Unterschieden beim Licht fällt mir nichts auf.
(Um die Schärfe habe ich mich nicht besonders bemüht)
 

Anhänge

@nachthimmel, wir schweifen jetzt aber ab, newa? Stellen wir uns vor, beide Fotografen hätten bei dem sich bewegenden Tanzpaar (dahinter) keine Chance, mit 1/20s zu fotografieren, sie würden auf ISO6400 (+5LW Reserve) erhöhen, um sie in Vz und f zu investieren. Wollen jene Fotografen nochmals ihre Bilder vergleichen?

Wer die REI bis jetzt noch nicht kennt, kann mal googlen. Dass beide Bilder gleich hell sind, ist das Resultat dieser Normierung - und macht unbedingt Sinn.
http://en.wikipedia.org/wiki/Film_speed#Film_sensitivity_and_grain

Um es kurz zu machen, das Beispiel trifft nicht den Punkt, Lichtvorteile bei ISO200 zu diskutieren ist sinnfrei, die zu beobachtenden Grenzen sind woanders zu finden. (Abgesehen davon ahne ich Schlimmes - damit wird doch wieder die alte Crop/KB-Diskussion angeheizt)

mfg chmee
 
Zuletzt bearbeitet:
@nachthimmel, wir schweifen jetzt aber ab, newa?

Ich wollte herausfinden, ob die Kameras unterschiedlich belichten,
und das müßten sie ja, wenn ein System mehr Licht ausbeuten könnte.
Habe es nochmal bei ISO 3200 gemacht und kann keinen Belichtungsunterschied finden.
Von der bisherigen Diskussion verstehe ich nicht viel, wollte ein praktisches Beispiel erstellen.
 
Bildausschnitt-wie zu erwarten- extrem anders, von großen Unterschieden beim Licht fällt mir nichts auf.
Das ist auch nicht verwunderlich, bei gleicher Empfindlichkeit.
Und das Problem mit den verschiedenen Sensorformaten ist ja nicht neu, damit hatten schon unsere Altvorderen zu kämpfen. Mein Vater hat mit 40x40, 45x60 und 24x36 mm fotografiert, und da gab es noch genug andere Formate.
Sonne lacht, Blende acht, das hat für 24x36 ebenso gepaßt wie für 60x90.
Unser Blendenwert (Brennweite/Öffnung) ist schon sinnvoll gewählt so belichtet man unabhängig von der Brennweite richtig.
 
WERBUNG
Zurück
Oben Unten