• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

FT/µFT MfT Bildqualität ist schlechter als APS-C und Vollformat. Warum?

Status
Für weitere Antworten geschlossen.
Also, die Gesamtfläche eines Bildsensor ist in der Tat fast unwichtig. Wichtig ist nur der Typ von Sensors, ob es CCD, oder CMOS, oder BSI ist, und nur das gilt. Auch die Pixelmenge, aber nicht viel. Auch freilich die Empfindlichkeit von den einzelnen Pix. Die neueste Sensoren, die BSI haben um etwas kleineres im Moment die haben etwas größere Empfindlichkeit für die Lichtfotonen. Aber es ist auch im Moment, sehr, sehr kleinen Vorsprung.

Gibt es überhaupt noch CCD Sensoren in "normalen" Fotokameras? BSI und stacked Aufbau waren die letzten größeren Verbesserungen bei den CMOs Sensoren. Tiefpassfilter konnten dank hoher Auflösung entfernt werden. Dank moderner Prozessoren können auch immer höhere Auflösungen rauscharm und noch schnell genug digitalisiert werden. Damit ermöglicht man auch 60 MPX Vollformatsensoren, die eine höhere Detailauflösung als MFT bieten können .
 
Da hier grade so der Schwung raus ist, möchte ich nun mit der ultimativen Wahrheit herausrücken ;)

These 1: Sensoren gleicher Größe und Bauart mit weniger Pixeln rauschen weniger. Das stimmt.
Die heutigen Kamerasysteme sind so gut, das Dinge wie elektromagnetische Störungen von außen und innen keine entschiedene Rolle mehr spielen. Das einzige was bleibt ist das Photonenrauschen. Eine vollkommen homogene, perfekt gleichmäßig ausgeleuchtete Fläche sollte bei einem Foto in jedem Pixel die gleiche Anzahl an Photonen generieren. Tut sie aber nicht. Photonen verteilen sich nicht homogen. Dadurch kommt es zu statistischen Abweichungen zwischen einzelnen Pixeln, die sich als unterschiedliche Helligkeiten darstellen. Das Bild rauscht.
Nun weiss jeder, der sich ein wenig mit Statistik auskennt, das mit der Anzahl der Samples die statistische Ungenauigkeit sinkt. Ein Sensor mit 12 MP sammelt pro Pixel doppelt so viele Photonen wie ein Sensor mit 24MP. Die statistische Abweichung sinkt, der Sensor rauscht weniger. Gut, nun könnte man das 24MP Bild entrauschen in dem man Mittelwerte bildet oder einen noch besseren Algorithmus nutzt aber damit verliert man defacto auch Auflösung und landet am Ende beim gleichen Ergebnis.

These2: Ein MFT-Sensor sammelt bei gleicher Brennweite und Blende weniger Licht. Das ist falsch
Ein Objektiv wirft an die Rückwand der Kamera einen runden Bildkreis. Die Größe des Kreises wird durch den doppelten Feldwinkel (manchmal auch Bildwinkel oder Sichtwinkel) beschrieben. Dieser ist von der Bauart des Objektivs abhängig und hat nichts mit der Brennweite zu tun. Allerdings bestimmen Brennweite und Sensorgröße den benötigten Bildwinkel. Dieser Bildkreis ist im Idealfall für klassische Kameras (Als Abgrenzung zur Fachkamera) ein wenig größer als der Sensor, so daß dieser aus dem Kreis ein entsprechendes Rechteck "machen" kann. Durch verkleinern des Bildwinkels, kann auch der Bildkreis verkleinert, (Nochmal, das hat nichts mit der Brennweite und der Abbildungsgröße zu tun) und so an die Sensorgröße angepasst werden. MFT-Objektive haben einen kleineren Bildwinkel als KB-Objektive. Damit ist ebi passenden Objektiven bei gleicher Blende/Brennweite auch die Lichtausbeute gleich.
(y)
Das funktioniert natürlich nicht, wenn man ein KB-Objektiv an ein APC-Sensor packt. Dort verliert man Licht, weil der Bildkreis für den Sensor zu groß ist.
Ein F1.8 KB-Objektiv adaptiert an mFT wird die gleiche Menge an Licht auf der Fläche des mFT-Sensors verteilen, wie ein natives F1.8 µFT-Objektiv.
Fakt ist aber: das adaptierte KB-Objektiv wird bez. des Bildkreises nur zu einem 1/4 seiner nutzbaren Fläche (kreisrund ab Mitte) bez. der Projektion auf den µFT-Sensor, genutzt:
Vorteil: es wird der mittige Sweet-Spot und somit der leistungsstärkste Bereich des Objektivs genutzt
Nachteil: KB-Objektive (gerade die älteren) sind nicht für die Pixeldichte eines modernen µFT-Sensors gerechnet = d.h.: sie liefern unter Umständen nicht die benötigte/erwünschte Auflösung und bilden daher nicht so scharf ab, wie moderne native µFT-Objektive (Ausnahmen gibt es).

Nachtrag: mit einem Focal-Reducer (wie etwa einem Speed-Booster) zwischen µFT-Sensor und KB-Objektiv würde man den ges. Bildkreis nutzen und die dadurch "einfallende" Gesamtlichtmenge des KB-Objektivs auf den µFT-Sensor (flächenreduziert) bündeln können, was (im Falle KB zu µFT) die Brennweite um x0.71 (bei Metabones Canon EF->µFT um x0.64) zwar reduziert, jedoch um eine Blende erweitert ("geöffnet"). Das wirkt in etwa wie eine Lupe, welche das einfallende Licht bündelt. Da hierbei aber ein weiteres quasi "(Glas)Filter" vor dem Sensor gesetzt wird, bringt dies auch Bildstörungen/Unschärfe/etc. oft mit sich.

Nach mal kurz bez. Bildrauschen im Verhältnis zur Sensorgrösse:
Die Gesamtfläche eine KB-Sensors ist 4x grösser, als die eines µFT-Sensors. Das ist richtig. Resultierend daraus wird bei gleicher Lichtstärke des verwendeten Objektivs (z.B. F1.8) die x4 grössere KB-Sensorfläche ggü. µFT mit eintspr. mehr Lichtmenge (absolut) bedient,
aber !
Das Rauschverhalten und die damit eingehenden Störungen/Bild-/Farbfehler/Rauschen resultieren aus der Lichtmenge (Photonen), welche pro Fotodiode (Pixel) "eingefangen" und interpretiert (erst analog dann digital) werden. Je kleiner die Fotodioden(Pixel) und je dichter diese auf der gleichgrossen Sensorfläche angeordent sind, desto mehr Bildstörungen/Fehler/Rauschen entstehen dadurch - weil weniger Licht pro Pixel zum Interpretieren vorhanden ist. Und diese Interpretation erfolgt pro Pixel einzeln und nicht global durch die ges. Sensorfläche.

Daher ist der im Posting #92 zitierte Wiki-Eintrag bez. der Grösse und Dichte der Fotodioden (Pixel) und des daraus resultierenden Bildrauschen tatsächlich korrekt.
Hier gerne noch mal:

"Das Rauschen bei einem Bildsensor steigt bei höheren Belichtungsindizes (nach ISO) an. Bildrauschen wird auch durch die Pixelgröße sowie den Pixelabstand des Bildsensors beeinflusst. Je geringer der Abstand zwischen den einzelnen Pixeln (hier:Fotodioden) eines Bildsensors sind und je kleiner die Pixelgröße ist, desto weniger Photonen (Licht) können die einzelnen Pixel aufnehmen, und das bewirkt mehr Rauschen bzw. mehr Störsignale beim Bildsensor. Im Englischen wird der Abstand der Pixel bzw. Fotodioden untereinander, d. h. die Pixel-Dichte, als „pixel pitch“ eines Bildsensors bezeichnet. In der Praxis bedeutet dies, je mehr Pixel beispielsweise ein APS-C-Format-Bildsensor hat, desto größer wird das Bildrauschen gegenüber anderen APS-C-Format Sensoren mit weniger Pixeln, denn mehr Pixel bedeutet zugleich einen geringeren Pixelabstand und eine geringere Pixelgröße der einzelnen Fotodioden am Bildsensor. Diese Aussagen beziehen sich allerdings nur auf einen Vergleich der Bilder bei 100-%-Darstellung am Bildschirm, also bei unterschiedlichen Ausgabegrößen."

Reduziert man die 1:1 Ausgabefläche (also die Dimension der 1:1 Fotoaufnahme) eines hochaufgelösten KB-Sensors auf die eines weniger aufgelösten KB-Sensors (ob digital im Rechner - oder analog ausgedruckt), so relativiert sich das - aber exakt "besser/schlechter" wird das nicht, sondern ähnlich,
womit der Zusatz des Wiki-Artikels dem entspr. sinngemäß ebenfalls korrekt ist:

"Werden die Bilder dagegen in der gleichen Ausgabegröße betrachtet, ist das Rauschverhalten bei gleicher Größe und Bauart des Sensors weitgehend unabhängig von der Pixelgröße bzw. dem „pixel pitch“.[2]"

Daher wäre das Bildrauschen eines KB-Sensors mit rund 80MP-Auflösung bei gleicher Base-ISO bei 1:1 Ausgabe vergleichbar mit dem eines 20MP-µFT-Sensors (gleicher Generation)

-
Quelle: https://de.m.wikipedia.org/wiki/Bildrauschen
 
Zuletzt bearbeitet:
Begriffe "Mehrfachbelichtung", "HDR" und "HiRes" durcheinander gekommen
ja, je nachdem wie man die Einzeldaten nutzt. Für HiRes ist zumeist eine Sensorverschiebung auf Pixelebene sinnvoll. Ansonsten wird es schwierig.
Aber auch ohne eine Verschiebung könnte man ja mit mehreren einzelnen Aufnahmen das Rauschen heraus rechnen.
Wenn ein jedes Bild eine andere Belichtung hat, sind Spiele wie HDR möglich. Wobei man HDR und Rauschreduzierung wiederum kombinieren kann.

Darum ging es mir. Eigentlich stimmt dann der Crop 2 für MFT nicht mehr so ganz. Man hätte zwar die Tiefenschärfe von Crop 2, aber alle anderen Kriterien wären besser als Crop 2. Vermutlich könnte man Rauschverhalten und Dynamikumfang eines Kleinbildsensors deutlich übertreffen.
 
Alle Plattformen, die Bilder zum Kauf anbieten, geben sie mir zurück wegen irgendwelcher Qualität. :(
Dann überschreibe doch einfach die EXIF Daten in den JPGs, vor allem nimm den Hinweis auf das Smartphone raus und ersetze ihn durch irgendeine Leica oder so. Du wirst Dich wundern, wie sich das auf die vermeintliche "Qualität" auswirkt.... ich bin mir absolut sicher, dass viele Bilder einfach nur nach Kameranamen beurteilt werden, weil nicht sein kann, was nicht sein darf....
 
Wenn hier viele Fotoexperten seine Meinung, inkl. was sie alles in Internet gelesen haben, haben hier auch vieles geschrieben, fast Niemand hat hier die Antwort geschrieben und andere liebe Fotokollegen nichts richtiges gefunden, was wirklich generell schade ist. :(

Also, die Gesamtfläche eines Bildsensor ist in der Tat fast unwichtig. Wichtig ist nur der Typ von Sensors, ob es CCD, oder CMOS, oder BSI ist, und nur das gilt. Auch die Pixelmenge, aber nicht viel. Auch freilich die Empfindlichkeit von den einzelnen Pix. Die neueste Sensoren, die BSI haben um etwas kleineres im Moment die haben etwas größere Empfindlichkeit für die Lichtfotonen. Aber es ist auch im Moment, sehr, sehr kleinen Vorsprung.
...
Große Sensorfläche oder kleine Sensor Fläche ist heute für Digi schon wurscht; das war Damals, wenn man noch mit Film fotografierte ... :)
Scheisse - du hast den Code geknackt. Du bist da an was ganz großem dran... lass dich nicht von der Kameraindustrie verarschen.
Natürlich sind kleine Sensoren mindestens so toll wie Große; ach - wenn nicht sogar besser.

So - ich lade mal nen 110er Film in die AGFA Pocket und zeige dem Großformat, was ne Harke ist...
 
ja, je nachdem wie man die Einzeldaten nutzt. Für HiRes ist zumeist eine Sensorverschiebung auf Pixelebene sinnvoll. Ansonsten wird es schwierig.
Aber auch ohne eine Verschiebung könnte man ja mit mehreren einzelnen Aufnahmen das Rauschen heraus rechnen.
Wenn ein jedes Bild eine andere Belichtung hat, sind Spiele wie HDR möglich. Wobei man HDR und Rauschreduzierung wiederum kombinieren kann.

Du vervielfachst damit aber auch die Aufnahmezeit.
Selbst bei statischen Motiven mit Tageslicht kann eine HiRes-Aufnahme unbrauchbar werden, weil der Wind die Blätter, Wasseroberfläche, Wolken etc. bewegt hat.
 
Du vervielfachst damit aber auch die Aufnahmezeit.
Selbst bei statischen Motiven mit Tageslicht kann eine HiRes-Aufnahme unbrauchbar werden, weil der Wind die Blätter, Wasseroberfläche, Wolken etc. bewegt hat.
alles eine Frage der Geschwindigkeit. Die Einzelbilder dürfen eben nur wenig auseinander liegen. Eine Kamera mit 10 Bildern pro Sekunde könnte eine Belichtungsreihe schnell in 0,5 Sekunden fertig haben. Und das freihändig. Kompliziert wird das mit sich stärker bewegenden Objekten. Aber auch das bekommt ein Handy erstaunlich gut hin.

Eine Nikon Z6M3 kann doch 30...60 Bilder pro Sekunde. Es muss nicht neu fokussiert werden. Zu erledigen sind exakt 5 Aufnahmen. Aber eine OM1 kann das doch auch
 
Eine Nikon Z6M3 kann doch 30...60 Bilder pro Sekunde.
Und genau da liegt das gleiche "Probelm" wie bei KI Entrauschung, ich kann solche Methoden die das Ergebnis verbessern natürlich bei allen Sensorgröße anwenden!

Das ändert nichts an den Unterschieden bei den Sensoren, die ergeben sich nun einmal vor allem durch die Größe, die verwendete Technik (Generation) und zu einem kleinen Teil aus dem Pixelpitch.
 
Und genau da liegt das gleiche "Probelm" wie bei KI Entrauschung, ich kann solche Methoden die das Ergebnis verbessern natürlich bei allen Sensorgröße anwenden!

Das ändert nichts an den Unterschieden bei den Sensoren, die ergeben sich nun einmal vor allem durch die Größe, die verwendete Technik (Generation) und zu einem kleinen Teil aus dem Pixelpitch.
angewendet wird das zumeist aber selten oder gar nicht.

Zeigt sich in einer Ricoh GR3, die keine Panoramaaufnahmen kann und auch keine Softwarehilfe anbietet, um es wenigstens irgendwie zu vereinfachen.
Und wenn das eine Kamera kann, dann kann das Bild nicht in der Kamera zusammen gebaut werden. Und wenn doch, dann kommt ein lächerliche 8-Bit Datei Namens "JPG" dabei raus, welche dann später kaum nachbearbeitet werden kann.
Betrifft Panoramas, HDR, Hi-Res, Fokus-Stacking, ..., ..., ..., ... egal ob MFT oder Kleinbild. Entweder gar nicht oder nur außerhalb der Kamera oder nur JPG
 
Abgesehen davon - die Ausgangsbasis dieser Berechnung muss ja die Verschlusszeit der Einzelaufnahme sein.
Welche je Blende/ISO ja schon "von Dauer" sein kann.
Ich z.Bsp. schließe die Blende recht oft auf 7.1 - 11 - je nach Motiv/Situation/Tiefe
Und diese muss dann verfünffacht werden - oder wie viele Aufnahmen die HiRes eben so benötigt.
 
angewendet wird das zumeist aber selten oder gar nicht.
Da verstehe ich jetzt nicht was du meinst.

Die Z6III macht ja sogar Pixeshift Aufnahmen, die sollten natürlich auch das Rauschen noch mal verbessern.
Wurde zumindest bei der OM-1 so beworben und bei meiner Pentax ist es auch so, obwohl die bei Pixelshift nicht die Auflösung erhöht.
 
Hier von mir ein Foto vom 2008, das hatte mit einer Sigma SD 14 / 4,5 MP, geschossen. Foveon Sensor - dreilagig -der kleinste APS-C Sensor, 1,7 Crop, sehr schlechte Bewertung in DXO, aber in England haben es anders gesehen.... :)

SDIM0314_Sigma SD14_APS-C_1,7.jpgs gesehen... :)
 
Zuletzt bearbeitet:
(y)
Macht man statt einer längeren Aufnahme mehrere kurze, hat man ja keinen Gewinn.

Für Einzelfälle kann ich es mir durchaus vorstellen, allgemein ist für mich Fotografie aber das Einfangen von Momenten.
Nichts NEUES! :) Das machen wir, ohne Ausnahme, alle... :)
 
Macht man statt einer längeren Aufnahme mehrere kurze, hat man ja keinen Gewinn.
das ist nicht unbedingt richtig. Anstelle 1 Sekunde lang, könnte man 5x 0,2 Sekunden belichten. Addiert man die Ergebnisse kommt doch das 1 Sekunde Bild wieder raus. So machen es Handys mit der Live-Vorschau bei Nachtaufnahmen. Zudem kann man dann auch noch etwas die Einzelbilder untereinander vergleichen und ggf. das Rauschen optimieren.
 
Na dann wars das wohl mit dem Belichtungsdreieck!
Ich werde mich ab jetzt an Smartphone-Algorithmen orientieren ^^
 
Anstelle 1 Sekunde lang, könnte man 5x 0,2 Sekunden belichten.
Ist mir nicht wichtig genug um es auszuprobieren, ich würde aber vermuten der einzige Vorteil ist das man kein Stativ braucht.
Kennst du Beispiele wo so etwas verglichen wurde?

Nimmt man die Sekunde um "weiches Wasser" oder Lichtspuren zu bekommen, wäre es wohl sogar von Nachteil.
 
Die Größe der Ausgabe eines 20-MP-Vierdrittel-Sensors liegt bei seiner Auflösung und nicht bei der Größe seiner physikalischen Fläche ...
Das ist die Aussage von einem, der den Wald vor lauter Bäumen nicht mehr sieht. Du solltest dir wirklich abgewöhnen, gedanklich ausschließlich an den Pixeln zu kleben. Tatsächlich liegt die Größe der Ausgabe eines 20-MP-Vierdrittel-Sensors (oder jedes anderen Sensors) weder bei seiner Auflösung noch bei seinen physikalischen Abmessungen. Stattdessen liegt sie im allein im Wunsch und Ermessen des Bildbearbeiters. Wenn ich ein Foto z. B. im Format DIN A3 printen will, dann – tu ich das einfach. Egal, wie groß der Sensor war, mit dem das Bild aufgenommen wurde, oder wieviele Pixel der hatte.

Aus der (freien) Entscheidung für ein Ausgabeformat ergibt sich dann in natürlicher Weise die Ausgabeauflösung (in Pixel pro Zoll) und der Vergrößerungsfaktor (um wieviel der Print linear größer ist als der Sensor). Diese beiden Parameter sind unabhängig voneinander, weil für gegebene Ausgabegröße die Ausgabeauflösung nur von der Pixelzahl abhängt und der Vergrößerungsfaktor nur von der Sensorgröße. Die relative Ansichtsgröße (in Prozent) ist wieder etwas anderes: sie gilt nur für gerasterte Ausgabemedien – zum Beispiel Monitore – und gibt an, wieviele Ausgabepixel linear pro Eingabepixel verwendet werden. Die sich für eine bestimmte relative Ansichtsgröße ergebende absolute Ausgabegröße hängt ab von der Pixelzahl des Sensors und dem Pixelabstand des Ausgabegerätes.

Wenn dir das alles zu kompliziert ist – kein Problem. Man muß all das nicht wissen, um Digitalfotos zu machen, anzugucken und herumzuzeigen. Aber dann versuche bitte nicht, mir (oder sonstwem) zu erzählen, wovon "die Größe der Ausgabe eines 20-MP-Vierdrittel-Sensors" abhängig sei.

.
Und beurteilt wird die Ausgabe 1:1 und nicht ausgedruckt auf A4, A0 oder sonst was.
Ach so. Na, mit dieser Aussage hast du dich endgültig disqualifiziert und auf pquattro-Niveau begeben.

.
Im Grunde frag ich mich, seit ich hier im Forum stöbere: warum eigentlich wird nicht aufgrund der faktischen Pixelgröße das Bildqualitäts-Faß aufgemacht ...?
Weil das dumm wäre.

.
... die physikalischen Limits beziehen sich letzten Endes doch eh nur auf diese?
Eben nicht. Wenn's so wäre, dann wäre die Bildqualität der exzellenten Digitalkameras von vor 20 Jahren um eine Größenordnung besser als die der miserablen Schrott-Dinger von heute ...

.
Selbst das ganze DxO-Team ist doch angeblich "dämlich" ...
Nicht das DxO-Team ist dämlich, sondern diejenigen, die die bei DxO Mark veröffentlichten Meßwerte als Rangordnung für Digitalkameras mißverstehen. Aber da werden gar keine Digitalkameras bewertet, sondern nur deren Sensoren. Natürlich sind Sensoren wichtig ... aber sie sind dennoch nicht das einzige, was den Wert einer Digitalkamera bestimmt. Sich beim Kauf der nächsten Digitalkamera von DxO Mark leiten zu lassen, ist dämlich.

.
[...] Will man beste plastische Bildwirkung, nimmt man [Kleinbildformat].
Ach so. Und Mittelformat kommt auf keinen Fall in Frage, weil es dann zu plastisch würde, nicht wahr?

.
Wenn mir jemand sagt, dass er mit seiner Phase One mit 50 MP detailreichere Fotos machen kann als jemand mit einer Sony A7R V mit 61 MP, glaube ich das sofort.
Tatsächlich? Also, ich glaub's nicht. Hieße es "bessere" Fotos, im Sinne von "qualitativ überzeugendere", das würde ich eventuell glauben ... oder sagen wir: für möglich halten. Aber "detailreichere" nicht.

.
Da hier grade so der Schwung raus ist, möchte ich nun mit der ultimativen Wahrheit herausrücken ;)
Bin nicht sicher, ob du das ernst oder als Satire gemeint hast, oder als Beispiel für eine gelungene Provokation. Da das aber ggf. außer mir wohl auch sonst nicht jeder raffen wird, hier eine Klarstellung:
These 1: Sensoren gleicher Größe und Bauart mit weniger Pixeln rauschen weniger. Das stimmt.
Nein, stimmt nicht. Sie rauschen etwa gleich stark.
These 2: Ein Vierdrittel-Sensor sammelt bei gleicher Brennweite und Blende weniger Licht. Das ist falsch.
Weniger Licht als was? Als ein größerer Sensor? Dann wär's nicht falsch, sondern richtig.

Daß die größere Fläche bei gleicher Belichtung mehr Licht sammelt, ist so selbsverständlich wie daß vier größer ist als zwei. Frag mal jemanden, der Solaranlagen installiert, ob zwei Solarpanele nebeneinander wirklich mehr bringen als eines ...

.
... aber!
Das Rauschverhalten und die damit eingehenden Störungen, Bild- und Farbfehler resultieren aus der Lichtmenge (Photonen), welche pro Fotodiode (Pixel) "eingefangen" und interpretiert [...] wird. Je kleiner die Fotodioden und je dichter diese auf der gleichgroßen Sensorfläche angeordnet sind, desto mehr Rauschen entsteht dadurch – weil weniger Licht pro Pixel zum Interpretieren vorhanden ist.
Wenn man keine Ahnung von Stochastik hat, sollte man nicht versuchen, anderen Leute das Phänomen des Rauschens zu erklären.

Gewiß rauscht (bei gleicher Belichtung) ein kleines Pixel stärker als ein großes. Doch das ist nur die halbe Wahrheit. Denn es gilt zugleich: Viele Pixel rauschen (bei gleicher Belichtung) geringer als wenige. Und bei gleicher Sensorgröße gibt's bei kleineren Pixeln entsprechend mehr davon. Daher mittelt sich das Rauschen pro Flächenelement (z. B. pro Quadratmillimeter) unterm Strich wieder aus. Somit gibt's bei gleicher Zahl von Quadratmillimetern auch gleich viel Rauschen – einerlei ob's viele große oder ganz viele kleine Pixel sind.

.
Und diese Interpretation erfolgt pro Pixel einzeln und nicht global durch die gesamte Sensorfläche.
Das ist eben dein (und nicht nur dein) Denkfehler. Wenn du's ums Verrecken nicht glauben willst, dann probier's doch einfach aus (siehe Beitrag #84)!
 
Zuletzt bearbeitet:
Nein, stimmt nicht. Sie rauschen etwa gleich stark.
Ich habe es lang und breit erklärt. Du stellst nur eine Behauptung auf. Das ist schwach

Weniger Licht als was? Als ein größerer Sensor? Dann wär's nicht falsch, sondern richtig.

Daß die größere Fläche bei gleicher Belichtung mehr Licht sammelt, ist so selbsverständlich wie daß vier größer ist als zwei. Frag mal jemanden, der Solaranlagen installiert, ob zwei Solarpanele nebeneinander wirklich mehr bringen als eines ...
Auch das habe ich lang und breit erklärt. Deine Antwort zeigt, dass du es nicht gelesen oder nicht verstanden hast.
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten