• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

FT/µFT MfT Bildqualität ist schlechter als APS-C und Vollformat. Warum?

Status
Für weitere Antworten geschlossen.
Wie kommst Du darauf? Ich habe nicht von "meinen Arbeiten" gesprochen. Irgendwelche Fotos aus verschiedenen Kameras, wer die gemacht hat, spielt ja offensichtlich keine Rolle, sondern nur die verwendete Hardware.



Na umso besser. Ich wäre nur gerne Zeuge, wenn Du deine Fähigkeiten ausspielst. Nicht mehr und nicht weniger

Wir sprechen hier vom Kameratechnik und Physik. Wenn mir jemand sagt, dass er mit seiner 50Mp Phase One detailreichere Fotos machen kann als jemand mit einer Sony 61MP A7VR, glaube ich das sofort. Weil es so ist. Deshalb brauche ich aber noch lange keine Phase One.

Lade dir doch einfach mal RAW Dateien von verschiedenen Kameras runter und spiele damit.

20240625-281-DSCF0032.jpg

Aber - es gibt den Sättigungseffekt. Wenn etwas gut genug ist - reicht es. [Beispielfoto APS-C / auf 1500x1000Px reduziert]

Ich hole mir gewiss kein Spitzenzoom a la RF 24-70 2.8 für >2500€, wenn ich ein "gutes" Zoom wie das Tamron 17-70 2.8 für APS-C und ca. 22% Anschaffungspreis verglichen zum RF bekomme. Bei typischen Urlaubs/Streetfotos sind mir z.B. die Farben wichtiger als die "letzte Schärfe" bzw. "Detailauflösung"

Möchte ich künstlerisch werden, nutze ich Festbrennweiten. Mit einem 35 1.4er / 105 1.4 an VF ist es schlicht einfacher, hochwertige Fotos die künstlerischen Ansprüchen genügen zu machen als mit MFT/APS-C. Es ist - wie immer - eine Frage des Anwendungszwecks. Brauchts ein 85 1.2er? Oder reicht das 85 1.8er? Sind da Welten zwischen? Rechtfertigt das 1.2er den doppelten bis dreifachen Preis? Die einen werden "ja" sagen, genau so viele sicherlich dagegen sprechen.

Ich würde niemandem widersprechen, der mir erklärt, dass er mit Fuji GFX und Spitzenglas eine bessere Detailauflösung erzielt als eine MP vergleichbare VF Kamera.
 
Wenn hier viele Fotoexperten seine Meinung, inkl. was sie alles in Internet gelesen haben, haben hier auch vieles geschrieben, fast Niemand hat hier die Antwort geschrieben und andere liebe Fotokollegen nichts richtiges gefunden, was wirklich generell schade ist. :(

Also, die Gesamtfläche eines Bildsensor ist in der Tat fast unwichtig. Wichtig ist nur der Typ von Sensors, ob es CCD, oder CMOS, oder BSI ist, und nur das gilt. Auch die Pixelmenge, aber nicht viel. Auch freilich die Empfindlichkeit von den einzelnen Pix. Die neueste Sensoren, die BSI haben um etwas kleineres im Moment die haben etwas größere Empfindlichkeit für die Lichtfotonen. Aber es ist auch im Moment, sehr, sehr kleinen Vorsprung.

Wichtig aber ist zu wissen, das alle Sensoren, große oder kleine, oder kleinste, genauso gleich Rauschen. Aus ca. 60% rauscht die Luminanz, die im jedem Bildbearbeitungsprogramm heute leicht zu entfernen ist. Das andere Rauschen ist schon schwieriger zu eliminieren. Es sei dem, das der Fotograf einen modernen Programm mit KI benutzt.
Niemand von uns und auch nicht die manche Plattformen, die sich mit Bewertungen von neuen Kameras beschäftigen, wie und ob ist das Rauschen bei RAW und JPG in der Kamera, heute schon mit KI reduziert und wie viel, die Menge auch. Das ist freilich Firmengeheimnis. Und, freilich sind solche Plattformen auch von den Kamera - Herstellern unterstützt.

Große Sensorfläche oder kleine Sensor Fläche ist heute für Digi schon wurscht; das war Damals, wenn man noch mit Film fotografierte ... :)

.A 020_ Canon D5 II..jpg
 
Zuletzt bearbeitet:
Da hier grade so der Schwung raus ist, möchte ich nun mit der ultimativen Wahrheit herausrücken ;)

These 1: Sensoren gleicher Größe und Bauart mit weniger Pixeln rauschen weniger. Das stimmt.
Die heutigen Kamerasysteme sind so gut, das Dinge wie elektromagnetische Störungen von außen und innen keine entschiedene Rolle mehr spielen. Das einzige was bleibt ist das Photonenrauschen. Eine vollkommen homogene, perfekt gleichmäßig ausgeleuchtete Fläche sollte bei einem Foto in jedem Pixel die gleiche Anzahl an Photonen generieren. Tut sie aber nicht. Photonen verteilen sich nicht homogen. Dadurch kommt es zu statistischen Abweichungen zwischen einzelnen Pixeln, die sich als unterschiedliche Helligkeiten darstellen. Das Bild rauscht.
Nun weiss jeder, der sich ein wenig mit Statistik auskennt, das mit der Anzahl der Samples die statistische Ungenauigkeit sinkt. Ein Sensor mit 12 MP sammelt pro Pixel doppelt so viele Photonen wie ein Sensor mit 24MP. Die statistische Abweichung sinkt, der Sensor rauscht weniger. Gut, nun könnte man das 24MP Bild entrauschen in dem man Mittelwerte bildet oder einen noch besseren Algorithmus nutzt aber damit verliert man defacto auch Auflösung und landet am Ende beim gleichen Ergebnis.

These2: Ein MFT-Sensor sammelt bei gleicher Brennweite und Blende weniger Licht. Das ist falsch
Ein Objektiv wirft an die Rückwand der Kamera einen runden Bildkreis. Die Größe des Kreises wird durch den doppelten Feldwinkel (manchmal auch Bildwinkel oder Sichtwinkel) beschrieben. Dieser ist von der Bauart des Objektivs abhängig und hat nichts mit der Brennweite zu tun. Allerdings bestimmen Brennweite und Sensorgröße den benötigten Bildwinkel. Dieser Bildkreis ist im Idealfall für klassische Kameras (Als Abgrenzung zur Fachkamera) ein wenig größer als der Sensor, so daß dieser aus dem Kreis ein entsprechendes Rechteck "machen" kann. Durch verkleinern des Bildwinkels, kann auch der Bildkreis verkleinert, (Nochmal, das hat nichts mit der Brennweite und der Abbildungsgröße zu tun) und so an die Sensorgröße angepasst werden. MFT-Objektive haben einen kleineren Bildwinkel als KB-Objektive. Damit ist ebi passenden Objektiven bei gleicher Blende/Brennweite auch die Lichtausbeute gleich.
Das funktioniert natürlich nicht, wenn man ein KB-Objektiv an ein APC-Sensor packt. Dort verliert man Licht, weil der Bildkreis für den Sensor zu groß ist.

Das reicht erstmal.

Gruß
 
Ein MFT-Sensor sammelt bei gleicher Brennweite und Blende weniger Licht. Das ist falsch

Für die (stillen) Mitleser die es noch nicht wissen und vielleicht verstehen wollen.

Gleiche Belichtungszeit und Blende sorgen dafür das jeder Quadratmillimeter eines Sensors gleich viel Licht abbekommt, deshalb gilt das Belichtungsdreieck (Zeit, Blende und ISO) für alle Sensorgrößen gleich und auch bei einem externen Belichtingsmesser muss man keine Sensorgröße angeben.

Ein mFT Sensor hat 224,9 Quadartmillimeter Fläche zur Verfügung um Licht aufzunehmen.
Ein KB Sensor hat 864 Quadratmillimeter Fläche.

Jetzt bekommt jeder dieser Quadratmillimeter gleich viel Licht ab!
224,9 x 3,841 = 864

Ganz exakt bekommt ein KB Sensor also 3,841 mal so viel Licht ab, bei gleichen Belichtungseinstellungen, wie ein mFT Sensor.
Die Aussage 4x so viel ist für den allgemeinen Gebrauch also hinreichend exakt um den Sachverhalt zu beschreiben (y)
 
Wichtig aber ist zu wissen, das alle Sensoren, große oder kleine, oder kleinste, genauso gleich Rauschen.
Hier kann man gut sehen, dass mit abnehmender Sensorgröße (Fuji GFX (Mittelformat) --> Canon R (Vollformat) --> OM-1 (mft) --> FZ1000 (1" Sensor)) das Rauschen deutlich steigt. Die Ausschnitte sind extra auf eine Ausgabegröße gebracht ("COMP" in dem tool von dpreview).


Überzeugen wird dich das wahrscheinlich nicht, aber stehen lassen kann man so eine Aussage eigentlich auch nicht.
 
Dieser Thread ist verschwendete Lebenszeit.
Denk dir, das hier wäre eine Reality-Soap-Doku auf Super-RTL - man ergötzt sich an der Dämlichkeit der Protagonisten und sieht zu wie sie sich selbst immer tiefer in die Scheiße reiten. Ja, das Niveau und der intellektuelle Anspruch sind zweifellos geringer als z.B. bei Scobel aber der Unterhaltungswert (🍿) kann durchaus höher sein. Die Einschaltqutoen sprechen jedenfalls für RTL und letztendlich lebt auch dieses Forum von Klicks.
 
Zuletzt bearbeitet:
um nicht auch meinen unnötigen Senf dazu zu geben habe ich pquattro auf ignorieren gesetzt. Was für eine innere Ruhe plötzlich einkehrt!😉😎
 
Tja lieber daduda, so sehr ich auch deine Bilder und sonstigen Beiträge schätze, ich fürchte du hast gar nicht verstanden was ich geschrieben habe.
 
Da hier grade so der Schwung raus ist, möchte ich nun mit der ultimativen Wahrheit herausrücken ;)

These 1: Sensoren gleicher Größe und Bauart mit weniger Pixeln rauschen weniger. Das stimmt.
Die heutigen Kamerasysteme sind so gut, das Dinge wie elektromagnetische Störungen von außen und innen keine entschiedene Rolle mehr spielen. Das einzige was bleibt ist das Photonenrauschen. Eine vollkommen homogene, perfekt gleichmäßig ausgeleuchtete Fläche sollte bei einem Foto in jedem Pixel die gleiche Anzahl an Photonen generieren. Tut sie aber nicht. Photonen verteilen sich nicht homogen. Dadurch kommt es zu statistischen Abweichungen zwischen einzelnen Pixeln, die sich als unterschiedliche Helligkeiten darstellen. Das Bild rauscht.
Nun weiss jeder, der sich ein wenig mit Statistik auskennt, das mit der Anzahl der Samples die statistische Ungenauigkeit sinkt. Ein Sensor mit 12 MP sammelt pro Pixel doppelt so viele Photonen wie ein Sensor mit 24MP. Die statistische Abweichung sinkt, der Sensor rauscht weniger. Gut, nun könnte man das 24MP Bild entrauschen in dem man Mittelwerte bildet oder einen noch besseren Algorithmus nutzt aber damit verliert man defacto auch Auflösung und landet am Ende beim gleichen Ergebnis.

These2: Ein MFT-Sensor sammelt bei gleicher Brennweite und Blende weniger Licht. Das ist falsch
Ein Objektiv wirft an die Rückwand der Kamera einen runden Bildkreis. Die Größe des Kreises wird durch den doppelten Feldwinkel (manchmal auch Bildwinkel oder Sichtwinkel) beschrieben. Dieser ist von der Bauart des Objektivs abhängig und hat nichts mit der Brennweite zu tun. Allerdings bestimmen Brennweite und Sensorgröße den benötigten Bildwinkel. Dieser Bildkreis ist im Idealfall für klassische Kameras (Als Abgrenzung zur Fachkamera) ein wenig größer als der Sensor, so daß dieser aus dem Kreis ein entsprechendes Rechteck "machen" kann. Durch verkleinern des Bildwinkels, kann auch der Bildkreis verkleinert, (Nochmal, das hat nichts mit der Brennweite und der Abbildungsgröße zu tun) und so an die Sensorgröße angepasst werden. MFT-Objektive haben einen kleineren Bildwinkel als KB-Objektive. Damit ist ebi passenden Objektiven bei gleicher Blende/Brennweite auch die Lichtausbeute gleich.
Das funktioniert natürlich nicht, wenn man ein KB-Objektiv an ein APC-Sensor packt. Dort verliert man Licht, weil der Bildkreis für den Sensor zu groß ist.

Das reicht erstmal.

Gruß
SUPER !!!!!! BESSER ES SCHREIBEN GEHT NICHT !!!!
 
wenn mein Handy mit einem Cropfaktor von 3,5 bei einem Landschaftsbild 5 Auslösungen generiert und diese als relativ rauscharmes HDR zusammen fügt, dann hätte ich theoretisch einen gewissen Faktor an weiteren Lichtinformationen (Thema Signal-Rauschabstand), die zusätzlich eingefangen werden. Dies geht über die reine Physik eines Sensors mit Crop 3,5 drüber hinaus. Es wird ein Vorteil geschaffen. Dieser liegt sicherlich nicht im Bereich 5 Auslösungen, aber vermutlich bei einem Faktor, der den Crop im Endergebnis auf einen theoretischen Wert auf unter 2 sinken lässt. Mit einem ruhigen Stand und einem guten IBIS im neusten Apfel-Pro-Phone könnte man den MFT Sensor übertreffen.

So gesehen kann man mit einer MFT Mehrfachbelichtung bzw. Pixelshift auch den Vollformatsensor übertreffen :unsure: Gibt es eigentlich User, die das an einer modernen OM System OM1 oder Pana G9ii nutzen?
 
Ich schätze Dir sind jetzt die Begriffe "Mehrfachbelichtung", "HDR" und "HiRes" durcheinander gekommen :)
Die eingebaute HDR Funktion finde ich immer wieder praktisch.
Den HiRes-Mode hab ich nich gebraucht (was mach ich mit 80 Megapixel) ^^
Die Mehrfachbelichtung wird man eher in der Nachbearbeitung erledigen. Aber es ist nett, dass die Kamera das auch eingebaut hat.

PS: Diese Funktionen hatten aber schon die Olympus-Vorgängermodelle. Ich selbst hab keine der zeitgemäßen Boliden
 
Zuletzt bearbeitet von einem Moderator:
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten