• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lichtausbeute VF vs. Crop

Nach meinem Verständnis wird die Lichtausbeute durch die Konstruktion und Größe des einzelnen Pixels bestimmt aber nicht durch die Fläche des Gesamtchips.

Wir reden aber über die "Lichtausbeute" des gesamten Sensors (="Chip"), und dafür ist es weitgehend unerheblich, in wieviele Pixel der unterteilt ist, solange die Abdeckung der Fläche ähnlich ist.


Gruß, Matthias
 
@BDLefty
Niemand baut einen Sensor-Chip, wo zwischen den Senseln Platz für noch weitere 2,5 Sensel wäre. So betrachtet hättest Du recht, hat aber Nix mit der Realität zu tun.

Zum großen Canon-Sensor: Gehen wir davon aus, dass er im üblichen KB-Bauverfahren von 2010 erstellt worden ist (es könnte ja auch Crop sein), dann wird er entweder ein Pixelpitch von KB~6.4µm (oder Crop~4.3µm) haben. Ich halte "diesen" Sensor einfach nur für einen nicht produkt-zugeschnittenen Sensor, sprich, im Optimalfall einen Wafer als einen Sensor betrachten.
 
Zuletzt bearbeitet:
Man kann die Sensorfläche (Chip) auch mit der Sensorfläche (Pixel) gleichsetzen, die einzelne Pixelgröße ist bei der Flächenbetrachtung egal.
 
..ich hab mir von Masi angewöhnt, die Einzelsensoren Sensel zu nennen, denn Pixel sind es nicht. Der Sensor besteht aus vielen Senseln.
 
Wir reden aber über die "Lichtausbeute" des gesamten Sensors (="Chip"), und dafür ist es weitgehend unerheblich, in wieviele Pixel der unterteilt ist, solange die Abdeckung der Fläche ähnlich ist.

Das ist mir durchaus klar. Letztendlich ist aber die Gesamtfläche nur die Summe seiner Einzelteile. Daher kommt es sehr wohl auf den einzelnen Pixel/Sensor an. So fällt zwar auf den Chip als ganzes immer die selbe Menge Licht, egal in wie viele Einzelsensoren man das unterteilen mag. Die Menge des detektierten Lichts ist aber wie gesagt von der Beschaffenheit des Einzelsensors abhängig. Somit kann man diesen auch nicht einfach außer Acht lassen.

Ich ziehe nicht in Zweifel, dass die Größe des Gesamtchips eine Relevanz hat. Ich bezweifle aber, dass man die Einzelsensoren vernachlässigen kann wie hier manchmal geschrieben.
 
Das ist mir durchaus klar. Letztendlich ist aber die Gesamtfläche nur die Summe seiner Einzelteile. Daher kommt es sehr wohl auf den einzelnen Pixel/Sensor an. So fällt zwar auf den Chip als ganzes immer die selbe Menge Licht, egal in wie viele Einzelsensoren man das unterteilen mag. Die Menge des detektierten Lichts ist aber wie gesagt von der Beschaffenheit des Einzelsensors abhängig. Somit kann man diesen auch nicht einfach außer Acht lassen.

Ich ziehe nicht in Zweifel, dass die Größe des Gesamtchips eine Relevanz hat. Ich bezweifle aber, dass man die Einzelsensoren vernachlässigen kann wie hier manchmal geschrieben.

Für die Lichtmengendiskussion kann man die weglassen, denn die einfache Darstellung stößt ja schon auf Widerstand. Bei der Qualitätsbetrachtung geht's nicht ohne die, wobei da aber auch viele andere Dinge mit reinspielen (Architektur, A/D-Wandler, Signalwege, etc).
 
@BDLefty
Auf wieviel Prozent oder Promille genau hätten's denn gerne? Unterm Strich ist diese Betrachtung absolut ausreichend und funktionsfähig - wenn man Sensoren aus zwei verschiedenen Dekaden nimmt oder verschiedene Sensortechniken (CMOS vs CCD oder Sony versus Canon-Sensoren) heranzieht, darf man auch darüber nachdenken - aber es ist ein unnötiger Diskurs - die Erkenntnis ist nicht größer und deutlich komplexer, wer will schon über den Ausbeutenvorteil von Gapless-Lenses sprechen, welche dabei aber auch einen Einfluss auf das Bildergebnis haben. Ein völlig unnötiger Rattenschwanz.

mfg chmee
 
Richtig, aber da eh wieder am Ende Pixelbetrachtungen gemacht werden und mit Pixel auch jeder was anfangen kann, belasse ich es mal so, ...ist umgangssprachlich akzeptiert. ;)

Das, was die meisten "mit Pixeln anfangen" kölnnen, ist aber leider meistens ziemlicher Blödsinn. "Pixeldenken" eben.


Gruß, Matthias
 
@BDLefty
Auf wieviel Prozent oder Promille genau hätten's denn gerne? Unterm Strich ist diese Betrachtung absolut ausreichend und funktionsfähig - wenn man Sensoren aus zwei verschiedenen Dekaden nimmt oder verschiedene Sensortechniken (CMOS vs CCD oder Sony versus Canon-Sensoren) heranzieht, darf man auch darüber nachdenken - aber es ist ein unnötiger Diskurs - die Erkenntnis ist nicht größer und deutlich komplexer, wer will schon über den Ausbeutenvorteil von Gapless-Lenses sprechen, welche dabei aber auch einen Einfluss auf das Bildergebnis haben. Ein völlig unnötiger Rattenschwanz.

mfg chmee

Betrachtet man die ursprüngliche Frage stimme ich zu. Ich habe mich einfach von der darauffolgenden Diskussion die sehr ins technische abgleitet hinreißen lassen.
 
Hier wird immer mit Statistik argumentiert, dass wenn mehr Pixel auch mehr Informationen zur Verfügung stehen (kommt mir irgendwie so vor wie ein Verkäufer von Spritsparlösungen und komplexe physikalische Erklärungen).

Wenn ich meinen 300 MP VF Sensor mit einem 12 MP 1/2,3 Zoll Sensor vergleiche, rauscht der 12 MP Ausschnitt des VF Sensor identisch, wenn ich ihn in der gleichen Ausgabegröße wie die 12 MP des kleinen Sensor betrachte. Die 288 MP aussenherum spielen da keine Rolle.
Warum sollen dann die 300 MP insgesamt weniger rauschen als 12 MP in Vollbildansicht (gleiche Ausgabegröße), nur weil es verkleinert ist? Es gibt keine zusätzlichen Informationen (für das menschliche Auge).

Nehme ich 25 kompakte 12 MP Bilder und reihe sie aneinander, kommt bzgl. Rauschen dasselbe Ergebnis heraus.
Die Sensorgröße spielt beim rauschen also keine Rolle, nur indirekt, weil beim größeren Sensor die Pixel größer sein können.

Und Pixeldenken ist analog zum Teilchenmodell-Denken der Physiker. Ist das etwa auch nicht zielführend?
 
Zuletzt bearbeitet:
Warum sollen dann die 300 MP insgesamt weniger rauschen als 12 MP in Vollbildansicht (gleiche Ausgabegröße), nur weil es verkleinert ist? Es gibt keine zusätzlichen Informationen (für das menschliche Auge).

Ich hatte schon mehrfach eine kurze Googelei nach "Photonenrauschen" empfohlen. Ich kann das nur nachdrücklich wiederholen.

Und Pixeldenken ist analog zum Teilchenmodell-Denken der Physiker. Ist das etwa auch nicht zielführend?

Nein, es ist analog zum "Sample-Denken" in der digitalen Audio-Technik, bloß da habe ich noch nie davon gehört.



Gruß, Matthias
 
Zuletzt bearbeitet:
Ich hatte schon mehrfach eine kurze Googelei nach "Photonenrauschen" empfohlen. Ich kann das nur nachdrücklich wiederholen.


Fruß, Matthias

Erkläre das doch bitte selbst, dann ersparst du uns allen viel Arbeit und tust was gutes. Aber es scheint ziemlich komplex oder falsch zu sein, so dass ich mir nicht die Mühe machen werde.
Wenn du es verstanden hast, dann wäre das die einfachste Variante. Warum gingen wir in die Schule? Ergooglen sich heute die Schüler ihr Wissen, sind Lehrer zu teuer?
 
Zuletzt bearbeitet:
Erkläre das doch bitte selbst, dann ersparst du uns allen viel Arbeit und tust was gutes. Aber es scheint ziemlich komplex oder falsch zu sein, so dass ich mir nicht die Mühe machen werde.

Du meinst, weil Du zu faul bist, soll ich es Dir vorkauen? Nein, mein Lieber, selber denken macht schlau. Übrigens habe ich es schon hunderte Male erklärt, Du müsstest bloß ein bisschen lesen.


Gruß, Matthias
 
Hier wird immer mit Statistik argumentiert, dass wenn mehr Pixel auch mehr Informationen zur Verfügung stehen (kommt mir irgendwie so vor wie ein Verkäufer von Spritsparlösungen und komplexe physikalische Erklärungen).

Wenn ich meinen 300 MP VF Sensor mit einem 12 MP 1/2,3 Zoll Sensor vergleiche, rauscht der 12 MP Ausschnitt des VF Sensor identisch, wenn ich ihn in der gleichen Ausgabegröße wie die 12 MP des kleinen Sensor betrachte. Die 288 MP aussenherum spielen da keine Rolle.
Warum sollen dann die 300 MP insgesamt weniger rauschen als 12 MP in Vollbildansicht (gleiche Ausgabegröße), nur weil es verkleinert ist? Es gibt keine zusätzlichen Informationen (für das menschliche Auge).

Nehme ich 25 kompakte 12 MP Bilder und reihe sie aneinander, kommt bzgl. Rauschen dasselbe Ergebnis heraus.
Die Sensorgröße spielt beim rauschen also keine Rolle, nur indirekt, weil beim größeren Sensor die Pixel größer sein können.

Und Pixeldenken ist analog zum Teilchenmodell-Denken der Physiker. Ist das etwa auch nicht zielführend?

Wie kommst du darauf?
 
Wie kommst du darauf?

Bring bitte ein stichaltiges Argument dagegen?

Wenn ich 25 12 MP Sensoren nebeneinanderlege und belichte und separat auslese, behaupte ich erhalte ich dasselbe Bild wie mit einem einzigen Sensor mit 300 MP. Die Pixel des 300 MP Sensors sind ja nicht z. B. über neuronale Netze vernetzt?
Und nehme ich dann ein beliebiges 12 MP Segment und bringe zur selben Ausgabegröße des korrespondieren 12 MP Ausschnitts des 300 MP Sensors ist das Ergebnis auch identisch.
 
Zuletzt bearbeitet:
Gut, du stehst nicht so auf schmale Schärfentiefe, ...ich übrigens auch nicht.
Ebenso wenig stehe ich auf völlig undefinierbare Hintergründe, für mich gehören die bei einer Bildaussage mit dazu.

:top:

Dann hat dein Einwurf aber direkt nichts mit dem Zusammenhang von Schärfentiefe und Freistellung zu tun, so konnte man das aber (eigentlich unmissverständlich) annehmen. ;)

Ja vielleicht.
Jedoch wehre ich mich gegen den Kausalzusammenhang Schärfentiefe und Freistellung.
 
@-rabu-

Es gibt einige Rauschvergleiche im Netz, in denen teilweise auch die RAWs beiliegen. Was hindert dich daran, solche RAWs zu laden, selbst zu Entwickeln, um sie dann auf die gleiche Ausgabegröße zu bringen. Dann kannst du selbst vergleichen. Einer der es für viele Nikonkameras gemacht hat, ist z.B. AndyE, siehe hier.
Wenn ich mir die Bilder dort betrachte, komme ich auf das gleiche Ergebnis wie Masi hier schon zigmal geschildert hat und das kann man auch aus den Diagrammen von DxOMark erkennen.

Wieso weigerst du dich so strickt dagegen deinen eigenen Augen zu trauen, die bei jedem reinzommen ins Bild das größer werdende Rauschen erkennen?
 
WERBUNG
Zurück
Oben Unten