• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Grün"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Crop verstehen

AW: Äquivalenz Recap

Und genauso kann man eben für Äquivalenz sorgen, indem man zwar zwei abweichende Crop Faktor nutzt, aber die Ausgabegrößen passend anpasst.

Wer seine mFT-Fotos mit nur der halben Diagonale ausgedruckt an die Wand hängt neben seine KB-Fotos und beide dann vom Sessel aus mit x Meter Abstand anschaut, erblickt absolut gleichwertige Fotos bzgl. Rauschen/Dynamik/Freistellung/DoF.
Abgesehen davon dass es mir ziemlich praxisfremd erscheint Fotos je nach Sensorgröße des Aufnahmemittels unterschiedlich groß auszudrucken:
Ist es bezogen auf DOF und Freistellung nicht gerade umgekehrt?

Ja, wenn man Fotos vom halb so großen Sensor auch nur halb so groß betrachtet sieht man auch bei höheren ISO keinen Unterschied im Rauschen trotz identischer ISO-Zahl; und damit auch denselben Dynamikumfang.*

Für DOF und Freistellung kommt es darauf an:
Einstellungen wie unten: klarerweise größere Schärfentiefe und weniger Freistellung bei mFT als bei KB bereits bei identischer Ausgabegröße. Ist in diesem Beispiel das Ausgabeformat bei mFT kleiner ergibt sich optisch eine noch größere Schärfentiefe!

Äquivalente Blende und ISO: Gleichstand bei identischer Ausgabegröße.
Ist jedoch eines der beiden Fotos wie hier in der Betrachtung kleiner, so ergibt sich bei diesem optisch eine größere Schärfentiefe: Unschärfe von bestimmten Bilddetails welche beim größeren Bild gerade noch erkennbar war ist es beim kleineren nun nicht mehr -> Schärfentiefe steigt, man erblickt nun keine "absolut gleichwertigen Fotos" mehr. Durch unterschiedliche Größen Äquivalenz herzustellen ist auf diese Weise nicht möglich.

Und weiters: Selbst würde eine identische Bilddatei aus ein und derselben Kamera in 2 unterschiedlichen Größen ausgedruckt und aus derselben Entfernung betrachtet ergibt sich beim kleineren Format sichtbar größere Schärfentiefe!

*) es sollte dazu aber die Brennweite äquivalent sein, da sonst unterschiedliche Bildinhalte einen Vergleich schwierig machen. Also in diesem Fall z. B. Kleinbild 50 mm Bl. 4, ISO 1600 mit mFT 25 mm, Bl. 4 ISO 1600
 
[...]
Was anderes ist es natürlich, wenn auf den verschiedenen Sensoren Sensorzellen unterschiedlicher Größe eingesetzt werden. Wenn als z.b. der KB-Sensor 48MP hat und der mFT nicht 12MP, sondern 20MP.
Dann haben die Sensoren jeweils Sensorzellen mit unterschiedlichem Sensorpitch, sprich unterschiedlicher Fläche pro Sensorzelle, dann fangen die kleineren Sensorzellen des 20MP-mFT-Sensors weniger Photonen ein und dann muss mehr verstärkt werden, um auf die gleiche Empfindlichkeit zu kommen.
[...]
Gruß
ewm




Was willst Du damit sagen?

Ich sprach nie von größeren Sensorzellen beim kleineren Sensor :confused:

Mein "einfacher" Denkansatz war, dass die Sensorzellen der beiden verglichenen Sensorformaten gleich sind.

Und wenn man sich dennoch auf einen, hier im Beispiel 1:2 Crop-Sensor (1:4 Fläche) kapriziert, dann wird man wohl nicht unterstellen wollen, dass der kleinere Sensor größere "Sessel" haben wird.

Das wäre dann wirklich weit entfernt von einem sinnvollen Denkansatz!


Zur Erinnerung: ich sprach von gleichen "Sensels"

Gruß
ewm
Mein Beitrag bezog sich auf die unterschiedlichen Senselgrößen - ich hab's oben mal fett markiert, hätte ich gleich so machen sollen.
Vielleicht habe ich deinen Beitrag auch falsch verstanden. Sorry. :)
 
Hmmm, also bei Wikipedia findet man unter Bildrauschen (letzter Absatz unter der Überschrift "Ursachen") die Erklärung, wie ich sie von ewm verstehe und gleichzeitig die gängige Aussage, dass das Rauschen nur mit der Vergrößerung von der Sensorgröße auf eine Ausgabegröße zusammenhängt. Folgt man in diesem Absatz dem Link "pixel pitch", so findet man dort unter der Überschrift "Bildsensoren" den Satz "[...] wird somit durch eine geringere Lichtmenge je Pixel erkauft, wodurch sich bei gleichem Belichtungsindex der Aufwand der kamerainternen Signalverstärkung und Bildverarbeitung erhöht."
Wie bewertet ihr das?
Die Begründung der Signalverstärkung fragwürdig, es widerspricht der Physik. In der englischen Version wird erst gar nicht darauf eingegangen.


----------
[...]
Ich habe mir mal ein einfaches Beispiel gebastelt, um die beiden Aussagen eher theoretisch zu überprüfen. Man stelle sich zwei gleich große Sensoren mit sehr unterschiedlicher Auflösung vor. Der eine Sensor hat einen 10-fach kleineren Pixelpitch und dadurch eine 100-fach höhere Auflösung. Also z.B. 100 MP vs. 1 MP. Und der Einfachheit halber sind es Schwarzweiß-Sensoren. Nun habe ich für den Vergleich ein reines, graues Quadrat genommen und per Photoshop ein gleichmäßiges Rauschen hineingebracht. Zur besseren Sichtbarkeit habe ich das Ganze vergrößert, damit man die einzelnen Pixel erkennen kann. Das Quadrat jeweils auf der linken Seite (Anhänge) habe ich zehnmal weniger vergrößert als das auf der rechten Seite. Das linke besteht also aus 100 x 100 rauschenden Kästchen/Pixeln. Das auf der rechten Seite aus 10x10 rauschenden grauen Kästchen/Pixeln. Das Gezeigte entspricht also der gleichen Ausgabegröße einmal aus der 100 MP-Kamera links und einmal aus der 1 MP-Kamera rechts (.... und somit wohlgemerkt nicht der 10:1-Pixelansicht, sonst wären ja alle Pixel gleich groß zu sehen.) Da die Ausschnitte aus derselben Grundlage stammen, ist das Rauschen gleich. Was ist jetzt also zu beobachten?

Wenn das Rauschen 10-Fach vergrößert wird, sieht man es besser. Das hat nichts mit der Senselgröße zu tun, sondern mit dem Vergrößerungsfaktor, oder wenn man so will mit den Crop-Faktor.

----------
[...]
Ein Beispiel aus der Realität findet man hier bei DPreview:

Schaut man sich die Ausschnitte bei hoher ISO einer Sony A7R V (60 MP-Sensor) und einer Sony A7S III (12 MP-Sensor) in 1:1-Pixelgröße an, erkennt man bei den 60 MP viele sehr helle Pixel z.B. im schwarzen Bereich, die man bei den 12 MP nicht sieht. Betrachtet man dann die Fotos in gleicher Ausgabegröße (also auf 12 MP verkleinert), dann sieht das Rauschen wieder recht ähnlich aus. Das geht also nur, wenn in der 1:1-Ansicht deutliche Unterschiede da sind. Welchen Grund haben diese Unterschiede, wenn nicht mehr verstärkt wird?[...]

Hohe ISO bedeutet wenig Photonen, das erhöht das Schrotrauschen.
Bei kleinen Senseln und wenig Lichtmenge bekommt das eine Sensel vielleicht nur ein Photon(*) ab, das Sensel nebendran vielleicht 3 Photonen(*), was dann dann eine relativ große Abweichung vom Mittelwert und somit ein starkes (Photonen-)Rauschen darstellt. Wenn alle benachbarten Pixel aber jeweils gleichviel Photonen abbekommen, dann ist das Photonenrauchen praktisch 0.
Große Sensel mitteln schon selbst, da die Wahrscheinlichkeit steigt mehr Photonen(*) einzufangen und somit die Abweichung vom Mittelwert geringer wird.
Bei gleicher Ausgabegröße ist durch das Mitteln dann fast kein Unterschied mehr zu sehen.

(*) Der Einfachheit halber ist die Quanteneffizienz hier mit 100% angenommen. Entscheidend sind jedoch die freigesetzten Elektronen (Fotoelektrischer Effekt).
 
Mein Beitrag bezog sich auf die unterschiedlichen Senselgrößen - ich hab's oben mal fett markiert, hätte ich gleich so machen sollen...

:top:

...Vielleicht habe ich deinen Beitrag auch falsch verstanden. Sorry. :)

Kein Problem. Ich denke, dass die meisten hier die Zusammenhänge verstehen.

Es gibt halt unterschiedliche Ansätze zur Abstraktion, verschiedene Blickwinkel aufs Thema, verschiedene Schwerpunkte der eigenen Betrachtungsweise ...

Es ist dann natürlich schwer, den Überblick über die Meinungsäußerungen zu behalten.

Nach diesem "Brainstorming" würde man im realen Team die Beiträge sortieren und strukturieren.

Jede Wette, dass dann weitgehend ein Konsens zu finden wäre.

In so einem (eigentlich jedem) Forum ein eher frommer Wunsch. Aber damit müssen wir leben ;)

Gruß
ewm
 
[...]
Digitale Bilddaten haben halt nunmal keine physikalische Größe - die ist maximal in den Metadaten hinterlegt. Drum ist im Endergebnis bei der Ausbelichtung oder am Bildschirm bei gleicher "Ausgabegröße" das Bild entsprechend vergrößert und natürlich auch die Helligkeit entsprechend angepasst Letzteres ist nicht unmittelbar offensichtlich, aber wenn das Bild größer ist, muss halt nunmal die Helligkeit erhöht werden. Entweder beim Projektor eine hellere Lampe oder bei digital halt eine Signalverstärkung.

[OT]
Die Helligkeit der Pixel ist bereits in den RAW-Daten als RGB-Werte enthalten – sofern korrekt belichtet wurde – das eingebettete JPEG zeigt das ja auch.
Bei der RAW-Konvertierung am PC kann die Helligkeit noch angepasst werden, muss aber nicht.

Bei der Ausgabe auf dem Bildschirm wird die Helligkeit nicht formatabhängig umgerechnet, es werden lediglich die RGB-Werte mittels eingebettetem ICC-Profil – meist sRGB - und ggf. noch durch ein ICC-Monitorprofil und eine LUT in der Grafikkarte (oder noch besser einer HW-LUT im Monitor) auf das Bildschirmpaneel ausgegeben.


Bei der Vergrößerung eines Negativs oder Dias auf Fotopapier wird durch das Abstandsgesetz die Beleuchtungsstärke auf dem Papier quadratisch mit den Projektionsabstand abnehmen, was durch die Belichtungszeit beim Vergrößern auszugleichen ist – dafür sind Laborbelichtungsmesser hilfreich.
Die Dichte der Negativs bzw. Dias ist bei einer Standardentwicklung passend zu den Gegebenheiten bei der Aufnahme (Beleuchtung, Blende, Zeit, ISO) – das ist nicht abhängig von der Größe des Negativs bzw. Dias).

Bei der Projektion von Dias auf die Leinwand kann ggf. an Projektor die Beleuchtungsstärke umgeschaltet werden, bei neueren Projektoren u.U. sogar stufenlos(technisch möglich). Die Farbwiedergabe kann dadurch etwas leiden. Abblendbare Projektionsobjektive verändern die Farbwiedergabe nicht.
[/OT]
Fazit: Crop an sich hat keinen Einfluss auf die (Bild-)Helligkeit sofern korrekt belichtet wird.
 
Bei der Helligkeit des Bidles muss man digitale und analoge Vergrößerungen unterscheiden. Bei analogen Vergrößerungen muss man tatsächlich bei sehr großen Formaten ein klein bisschen länger belichten als bei kleinen Ausbelichtungen. Da wird die Energie der Lampe eben auf eine größere Fläche verteilt. Also kommen pro Sekunde weniger Photonen pro cm² an. Deswegen macht man da normal auch Teststreifen/Belichtungsreihen. Wenn man richtig große Abzüge macht (z.B. auf 1.20m x 1,60m), dann können aus den z.B. 5s für eine optimale Belichtung am kleinen Abzug auch mal mehrere Minuten am großen Abzug werden, trotz offener Blende. Genau so schaut es aus, wenn man Ausschnittvergrößerungen macht. Dabei wird dann nicht das ganze Bild z.B. auf ein 10x15cm Papier geworfen, sondern nur ein Teil, weil das ganze Bild dann z.B. 2x3m groß wäre. Also kommen weniger Photonen pro Zeitintervall an auf dem Fotopapier. Und man muss etwas länger belichten.


Bei digitalen Bildern schaut das komplett anders aus:
Hier hat jedes Pixel im Bild einfach nur digitale Farbwerte/Helligkeitswerte. Bei jpeg hat man 3 RGB Farb-Kanäle mit 8 bit, d.h. die Helligkeit für jede Farbe kann von 0 bis 2^8, also von 0 bis 255 gehen. Wobei dann <0/0/0> ein schwarzes Pixel wäre und <255/255/255> ein weißes, komplett helles, <255/0/0> wäre dann hellrot usw. Und wenn man hier vergrößert oder verkleinert, dann werden einfach neue Pixel errechnet. Und die bekommen eben dann gleich die entsprechende Helligkeit als Digitalwert. Da muss nichts aufgehellt werden.
Aus dem einen grauen Beispiel-Pixel [<50/50/50>] werden so einfach vier Pixel: [[<50/50/50>,<50/50/50>,<50/50/50>,<50/50/50>] gemacht und das Bild ist nun doppelt so groß. Aber alle Pixel sind immer noch genau so hell wie das Original. Ohne dass man da die Helligkeit anpassen muss deswegen.

Deswegen ist das nachträgliche digitale Croppen nicht direkt mit dem analogen Vergrößern zu vergleichen.
 
Die Begründung der Signalverstärkung fragwürdig, es widerspricht der Physik.
Es widerspricht nicht der Physik, die Physik erzwingt es. Wenn das Signal schwächer ist (=weniger Licht fällt auf die Gesamtfläche) muss es verstärkt werden. Damit verstärkt man auch gleichzeitig das Rauschen.

Das Rauschen entsteht nicht durch Vergrößerung, sondern durch die Signalverstärkung

[OT]
Die Helligkeit der Pixel ist bereits in den RAW-Daten als RGB-Werte enthalten – sofern korrekt belichtet wurde – das eingebettete JPEG zeigt das ja auch.
Richtig. Die Dateien sind dann zwischen verschiedenen Sensorgrößen (z.B. mFT und KB) bei gleicher Gesamtauflösung nicht unterscheidbar. Bläst Du das Digitale BIld dann auf die endgültige Ausgabegröße auf (z.B. mit Beamer oder Ausbelichter), brauchst Du bei beiden exakt die gleiche Lichtmenge.

Das Ursprungsbild ist aber bei bei mFT 1/4 so groß und 1/4 so hell. Das fehlende Licht taucht bei der Wandlung vom Analogen ins Digitale und zurück ins Analoge nicht plötzlich magisch auf - es gibt kein Perpetuum Mobile.

Ergo ist das Bild bereits bei der Digitalisierung in der Kamera durch Signalverstärkung aufgehellt worden.

Bei der Ausgabe auf dem Bildschirm wird die Helligkeit nicht formatabhängig umgerechnet, es werden lediglich die RGB-Werte mittels eingebettetem ICC-Profil – meist sRGB - und ggf. noch durch ein ICC-Monitorprofil und eine LUT in der Grafikkarte (oder noch besser einer HW-LUT im Monitor) auf das Bildschirmpaneel ausgegeben.
Genau so ist es. Spielt aber keine Rolle wie genau es passiert. Erwähnenswert ist nur, dass zu dem Zeitpunkt die Daten nicht mehr vom Sensorformat abhängen: Die Verstärkung ist da schon passiert im Prozess der A->D Wandlung.

Bei der Vergrößerung eines Negativs oder Dias auf Fotopapier wird durch das Abstandsgesetz die Beleuchtungsstärke auf dem Papier quadratisch mit den Projektionsabstand abnehmen, was durch die Belichtungszeit beim Vergrößern auszugleichen ist
Genau. Das gilt auch für das Aufblasen vom Sensorformat auf die Ausgabegröße. Der einzige Unterschied ist, dass da noch die Wandlung vom Analogen ins Digitale und zurück dazwischen ist. An der Tatsache, dass Größe und Helligkeit entsprechend des Crop-Faktors mehr aufgeblasen werden ändert sich nichts.

Fazit: Crop an sich hat keinen Einfluss auf die (Bild-)Helligkeit sofern korrekt belichtet wird.
Das hingegen ist falsch. Wie kommst Du darauf? Du hast doch grade oben erklärt warum das nicht sein kann.


Bei der Helligkeit des Bidles muss man digitale und analoge Vergrößerungen unterscheiden.
Nein. Du kannst die Physik nicht überlisten, indem Du eine A->D Wandlung dazwischenschaltest.


Bei analogen Vergrößerungen muss man tatsächlich bei sehr großen Formaten ein klein bisschen länger belichten als bei kleinen Ausbelichtungen.
Ein klein wenig? Doppelte Vergrößerung = vierfache Fläche = vierfache Belichtungszeit.

Da wird die Energie der Lampe eben auf eine größere Fläche verteilt. Also kommen pro Sekunde weniger Photonen pro cm² an. Deswegen macht man da normal auch Teststreifen/Belichtungsreihen. Wenn man richtig große
Teststreifen haben wir hauptsächlich wegen der Farbfilter-Einstellungen gemacht. Da hat sich unterschiedlichen Filmmaterial sehr unterschiedlich verhalten. Die Belichtung hat man meist so ungefähr im Griff gehabt.

Bei digitalen Bildern schaut das komplett anders aus:
Nö. Da ist es genau gleich. Nur dass die Anpassung der Helligkeit schon bei der A->D Wandlung vorgenommen wurde.
 
Das Ursprungsbild ist aber bei bei mFT 1/4 so groß und 1/4 so hell.
Meiner Meinung nach nein: Das vom Objektiv projizierte "Ursprungsbild" ist bei Crop zwar kleiner, sowohl was bei Cropobjektiven den Bildkreis als auch - bei äquivalenter kleinerer Brennweite - die Größe der abgebildeten Objekte betrifft. Es ist jedoch gleich hell, d. h. die Lichtmenge pro Fläche ist (bei identischer Blende) gleich.

Das hingegen ist falsch. Wie kommst Du darauf? Du hast doch grade oben erklärt warum das nicht sein kann.
(Bezog sich auf gleiche Bildhelligkeit bei Crop bei korrekter Belichtung)
Für korrekte Belichtung ist die Lichtmenge pro Fläche maßgebend - siehe oben.

Ein klein wenig? Doppelte Vergrößerung = vierfache Fläche = vierfache Belichtungszeit.
Der Vergleich mit dem Vergrößerer in der Duka ist in meinen Augen leicht irreführend:
Beim Vergrößerer ist es natürlich von Bedeutung wie stark und auf welche Größe ein Negativ bei der Belichtung vergrößert werden soll, und davon hängt die Belichtungszeit ab.
Ein solcher Vorgang findet jedoch auf dem Weg von digitalen Daten zum fertigen Bild z. B. auf einem Monitor oder einem Ausdruck auf Papier nicht statt, daher trägt der Vergleich eher zur Verwirrung bei.
 
Meiner Meinung nach nein: Das vom Objektiv projizierte "Ursprungsbild" ist bei Crop zwar kleiner, sowohl was bei Cropobjektiven den Bildkreis als auch - bei äquivalenter kleinerer Brennweite - die Größe der abgebildeten Objekte betrifft. Es ist jedoch gleich hell, d. h. die Lichtmenge pro Fläche ist (bei identischer Blende) gleich.
Die Lichtmenge pro Fläche ist gleich, aber die gesamte Lichtmenge beträgt nur 1/4. Du willst aber doch das gesamte Bild sehen und nicht nur das zentrale Viertel davon, oder?


Der Vergleich mit dem Vergrößerer in der Duka ist in meinen Augen leicht irreführend:
Nein, überhaupt nicht. Denn wenn Du aus dem digitalen Bild ein echtes Bild zum an die Wand hängen machst, passiert genau das selbe. Nur dass eine Wandlung vom analogen ins Digitale und zurück dazwischen ist, die aber nicht die Physik aushebeln kann.


Ein solcher Vorgang findet jedoch auf dem Weg von digitalen Daten zum fertigen Bild z. B. auf einem Monitor oder einem Ausdruck auf Papier nicht statt, daher trägt der Vergleich eher zur Verwirrung bei.
Doch, der findet genauso statt. Es ist keine Magie dazwischen, nur eine A->D->A Wandlung.
 
Es widerspricht nicht der Physik, die Physik erzwingt es. Wenn das Signal schwächer ist (=weniger Licht fällt auf die Gesamtfläche) muss es verstärkt werden. ...

Nein und nochmals nein.

Es kommt nicht auf das, auf die Gesamtfläche fallende Licht an.

Es kommt auf den Lichtstrom pro Fläche, also die Beleuchtungsstärke an.

Und die ist, das gleiche Objekt angenommen, unabhängig von der Gesamtfläche des Sensors. Jeder Punkt auf dem Sensor, egal wie groß der Sensor ist, bekommt die gleiche Anzahl von Photonen ab.

Gruß
ewm
 
Die Lichtmenge pro Fläche ist gleich, aber die gesamte Lichtmenge beträgt nur 1/4. Du willst aber doch das gesamte Bild sehen und nicht nur das zentrale Viertel davon, oder?
Wenn ich eine Kamera mit Cropfaktor 2 benütze genügt mir das zentrale Viertel im Vergleich zu Kleinbild vollauf. ;)

Bezüglich Vergrößerer halte ich den Vergleich nach wie vor für etwas unglücklich, nicht passend, eventuell sogar irreführend. Ein solcher Vorgang findet bei Digital nicht statt.

Was jedoch stattfindet ist in Cropkameras eine im Vergleich zu größeren Sensoren notwendige größere Signalverstärkung: kleinere Sensel bekommen auf Grund ihrer geringeren Fläche bei gleicher Beleuchtungsstärke weniger Photonen pro Sensel ab.
 
... Was jedoch stattfindet ist in Cropkameras eine im Vergleich zu größeren Sensoren notwendige größere Signalverstärkung: kleinere Sensel bekommen auf Grund geringerer Fläche bei gleicher Beleuchtungsstärke weniger Photonen pro Sensel ab.

Das ist eine, für den grundsätzlichen Vergleich unzulässige Annahme. Der kleinere Sensor führt nicht zwingend zu kleineren Sensels.

Die, für eine allgemeine Betrachtung des Crops getroffene Annahme des gleichen Lichtstroms pro Fläche gilt zwar weiterhin.

Nur bedeuten unterschiedliche Größen der Sensel einen Bruch der Kriterien für den allgemeinen Vergleich, da ein weiterer Freiheitsgrad, nämlich die Senselfläche ins Spiel kommt.

Gruß
ewm
 
Ja, aber i.d.R. ist die Vergrößerung von der Helligkeit entkoppelt.
Das ist physikalisch unmöglich. Der zweite Hauptsatz der Thermodynamik gilt immer noch - es gibt kein perpetuum mobile.

Nein und nochmals nein.

Es kommt nicht auf das, auf die Gesamtfläche fallende Licht an.
Doch.

Es kommt auf den Lichtstrom pro Fläche, also die Beleuchtungsstärke an.
Für die Belichtungsmessung nicht. Für das Endergebnis, also das Bild das Du betrachten willst schon.


Wenn ich eine Kamera mit Cropfaktor 2 benütze genügt mir das zentrale Viertel im Vergleich zu Kleinbild vollauf. ;)
Auch auf dem finalen Bild? Oma Ernas Augen, Nase, Mund reichen und das Kinn, die Stirn und die Ohren willst Du nur sehen, wenn Du in KB fotografierst?

Bezüglich Vergrößerer halte ich den Vergleich nach wie vor für etwas unglücklich, nicht passend, eventuell sogar irreführend. Ein solcher Vorgang findet bei Digital nicht statt.
Doch, der findet statt. Nur halt mit der A->D Wandlung als Zwischenschritt, der bei der analogen Fotografie fehlt (da wird Licht in Chemische Schritte umgewandelt).
 
Das ist eine, für den grundsätzlichen Vergleich unzulässige Annahme. Der kleinere Sensor führt nicht zwingend zu kleineren Sensels.
OK, hätte dazuschreiben sollen 'im allgemeinen kleinere Sensel".
Vergleicht man Extreme, z. B. Kleinbild 48 Megapixel mit 4/3 12 Megapixel so sind sie tatsächlich gleich groß.
 
Auch auf dem finalen Bild? Oma Ernas Augen, Nase, Mund reichen und das Kinn, die Stirn und die Ohren willst Du nur sehen, wenn Du in KB fotografierst?
Deine Argumentation wird nun absurd.
Wo hätte ich geschrieben oder angedeutet dass ich das ganze Gesicht nur bei Kleinbild sehen will? :confused:
Vielmehr verwende ich bei Crop 2 entweder ein Objektiv mit halber Brennweite und bekomme denselben Bildausschnitt, oder mit Absicht ein Objektiv mit identischer Brennweite um mit dem kleineren Ausschnitt ein Motiv formatfüllender zu bekommen. Vom Telekonverterersatz schon mal gehört?


Doch, der findet statt. Nur halt mit der A->D Wandlung als Zwischenschritt, der bei der analogen Fotografie fehlt (da wird Licht in Chemische Schritte umgewandelt).
Nochmals: ein solcher findet nicht statt.
Oder vergrößerst du, um ein Bild auf dem Monitor zu sehen oder an die Wand hängen zu können, je nach Sensorgröße der verwendeten Kamera 1/1,7", 1", APS-C, Kleinbild... irgendwas mit unterschiedlicher Belichtungszeit? :rolleyes:
 
Deine Argumentation wird nun absurd.
Wo hätte ich geschrieben oder angedeutet dass ich das ganze Gesicht nur bei Kleinbild sehen will? :confused:
Überhaupt nicht. Du hast den unzulässigen Schluss gezogen, da die Lichtmenge pro Fläche gleich wäre, wäre auch die gesamte Lichtmenge gleich. Das stimmt aber nicht, da das Ergebnis beim kleinen Sensor auf die 4fache fläche aufgeblasen wird. Licht ist Energie, es gilt der Energieerhaltungssatz. Du musst dann auch die Lichtmenge vervierfachen.


Nochmals: ein solcher findet nicht statt.
Oder vergrößerst du, um ein Bild auf dem Monitor zu sehen oder an die Wand hängen zu können, je nach Sensorgröße der verwendeten Kamera 1/1,7", 1", APS-C, Kleinbild... irgendwas mit unterschiedlicher Belichtungszeit? :rolleyes:
Nein, das Bild wird bereits im Digitalisierungsschritt auf das gleiche Format gebracht. Es unterscheidet sich in digitaler Form von seinen Parametern her nicht mehr von dem Bild aus der Großsensorkamera. Nur in seinem Inhalt.

Ich bin immer wieder erstaunt, wie schwer es für manche Leute ist, einfachste physikalische Zusammenhänge zu erfassen.

Ich bin dann erstmal raus. Wetter ist sonnig, Rad steht bereit.
 
...Ich bin immer wieder erstaunt, wie schwer es für manche Leute ist, einfachste physikalische Zusammenhänge zu erfassen. ...

Sorry, aber in diesem Fall sitzt DU im Glashaus :rolleyes:


Um einfachste physikalische Zusammenhänge zu erklären, sollte man mit einfachen Denkansätzen beginnen. Im Verlauf der (Er)Klärung kann man diese verfeinern, also mit weiteren Einflussgrößen ergänzen.

Als einfachen Denkansatz habe ich für den Vergleich den Einsatz des gleichen Objektivs und das Fotografieren einer homogenen einfarbigen Fläche vorgeschlagen. Weiterhin soll der Pixelpitch beider Sensoren gleich sein, sprich, die Sensel beider Sensoren sind gleich groß.

Das Ergebnis dieses einfachen Modells ist, dass das Foto mit dem kleineren Sensor einem nachträglichen Ausschnitt "Crop" aus dem Foto des größeren Sensors absolut gleicht. Da wird nichts anders verstärkt, nichts anders interpoliert...

Dieses Ergebnis kann man nun Stück für Stück um weitere Freiheitsgrade ergänzen und die jeweilige Auswirkung betrachten.

Das ist für mich eine Herangehensweise, die gut zu beschreiben und an jeder Stelle nachvollziehbar ist.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten