• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lichtausbeute VF vs. Crop

Fangen die Sensel mehr Photonen ein, wenn man sie nur auseinanderrückt?

Also war meine Annahme in #283, erster Satz, doch richtig?

C.
 
Und Du meinst, diese Technik würde dann nicht auch bei größeren Sensoren eingesetzt werden?
naja wenn noch parallel jemand eine Zauberformel findet welche die Lichtbrechung aushebelt, kaufen wir alle eine Lichtfeldkamera und alle Sorgen sind gelöst*

* theoretisch, denn wir reden von einem Hobby, und das kann per Definition nicht sorgenfrei werden. Wir werden uns dann streiten ob eine Brechungsmatrix aus Polymer- oder Silikatglas die einzig seligmachende Variante ist.
 
Liebe Leute,

ich lese fleißig mit, mir wird immer deutlicher, dass mein Eingangsthread wohl zu naiv formuliert war. Was ihr wisst, welche Themen und Aspekte ihr hier ansprecht - sorry, da bin ich noch viel zu unwissend. Schade ist nur, dass ihr euch manchmal heftig in die Haare bekommt, das wollte ich bestimmt nicht. Bin aber trotzdem dankbar, dass ihr meine Anfrage so leidenschaftlich diskutiert. Bin bei Themen, die ich mir zutraue, genauso leidenschaftlich. Und, ich denke, dass man da auch mal heftige Worte mit der Leidenschaft zum Thema rechtfertigen darf. Für mich habt ihr jedenfalls viele neue Gedanken eingebracht, welche mich in nächster Zeit sicher gut beschäftigen werden.

Danke dafür schon mal an ALLE Teilnehmer!

Bei mir bleibt momentan hängen:

  • - Bei VF habe ich bei höherer ISO weniger Rauschen, kann also beruhigter hochdrehen.
    - Bei VF ist Schärfe/Tiefenschärfe schwieriger zu beherrschen
    - Bei VF geht Freistellen besser, allerdings mit weinger Spielraum im scharfen Bereich

    - Lichtstärkere Objektive würeden mich -sofern ich sie mir leisten könnte/wollte- weiterbringen in meinem Bestreben AL zu fotografieren. Allerdings müsste ich mich damit abfinden, dass die Beherschung der Tiefenschärfe bei offener Blende eine neue Herausforderung werden würde.

    Ich lese weiter fleißig und interessiert mit, bitte aber um Verständnis dafür, dass ich mich nicht spontan eibringen kann.

    DANKE!
    Der Nidabaya
 
Ich feiere Heute mit. Masi, wenn Du es zulässt, gebe ich Dir beizeiten, wenn ich in Hamburg bin, ein Getränk aus.

Ich bin zum 1. Mai in Berlin. Wäre nett.


Gruß, Matthias
 
Nein, es liegt nicht an deren Größe, sondern an der Flächenbedeckung. Das geht auch mit vielen kleinen Senseln, siehe D7000<>D800.

In meinem Fall (und den darauf basierenden weiteren Fragen) waren es bei APS-C und KB aber beidesmal 18MP.

Falls Du die Übersicht verloren hast, stelle ich die Fragen und Antworten nochmal kurz zusammen. Es reicht aber, wenn Du einfach den Zitaten folgst.

C.
 
Aber auch damit bekomme ich nur ein (zwei, vielleicht drei) Gleise in der Bahnhofsachse scharf, die Schärfenebene wird ja nur gedreht, größer wird sie nicht

Wenn du die Schärfeebene "flach" auf den Boden legst und durch Abblenden den Schärfekeil "verdickst" solltest du das schon hinkriegen …

Die Beilage ist mit dem Lensbaby Edge80 entstanden. Der Glasrand vorne oben ist bewusst unscharf geblieben …
Daten: D300 / f:11
 
Zuletzt bearbeitet:
Wenn eines der Vorteile des größeren Sensors doch darin besteht, bei mehr Pixel mehr Details zu zeigen,
Der Vorteil des größeren Sensors besteht darin, größer zu sein. Mehr Fläche zu haben.
Mehr Pixel zu haben, ist ein (nur bis zu einem gewissen Grad vorhandener) Vorteil eines höher auflösenden Sensors. Das sind zwei verschiedene Dinge.

dann werden auch z. B. die CAs sichtbar, die bei weniger Pixel nur einen halben Pixel breit waren und nicht sichtbar waren, wenn die Optik nicht der höheren Pixeldichte gerecht wird, oder?
Nehmen wir der Einfachheit halber erstmal an, die CAs wären nicht einen halben, sondern einen ganzen Pixel groß gewesen. Jetzt vervierfachen wir die Pixelzahl - das bedeutet eine Verdoppelung in jeder Dimension. Jetzt sind die CAs zwei Pixel breit. In der 100%-Ansicht sind sie jetzt also doppelt so breit wie vorher. Wenn du aber - das vergisst du immer noch - die Bilder der beiden Sensoren in der gleichen Größe ansiehst, sind die Pixel des höher auflösenden Sensors in der Darstellung auch in jeder Dimension nur halb so groß. Die CAs sind deswegen statt einen breiten Pixel jetzt zwei halb so breite Pixel groß - also wieder genauso groß wie vorher. Wie vorhin beim Rauschen kürzt sich die Auflösung raus.
Nun zum konkreten Beispiel mit dem halben Pixel. Dadurch dass der Farbsaum jetzt weniger als einen Pixel breit ist, ist er ja nicht einfach weg. Er mischt sich quasi in den / die Pixel, in dessen / deren Bereich er fällt, mit rein. Wenn wir jetzt wieder die Auflösung erhöhen wie oben, hat der Farbraum jetzt also sein ganz eigenes privates Pixel, nur für sich. (Nehmen wir mal an, er würde zufällig genau auf eines fallen.) Wenn wir das Bild jetzt wieder in Ausgabegröße betrachten, verschwindet eben dieser Pixel entweder schon bei der Ausgabe oder spätestens in deinem Auge wieder in einem größeren "Pixel" der wahrnehmbaren Auflösung. Die CAs bleiben genau gleich.

Noch anders: Stell dir vor, es gäbe einen gigantisch hoch auflösenden idealen Sensor, so hoch, dass wir bei keiner machbaren Vergrößerung einzelne Pixel sehen können. Und es gäbe einen genauso hochauflösenden idealen Drucker. Wenn ich jetzt ein Bild mit diesem Sensor mache und mit diesem Drucker ausdrucke - sagen wir auf A3, dann wird dieser Ausdruck weder durch die Auflösung des Sensors noch des Druckers begrenzt, er ist in dieser Hinsicht ideal. Wenn du dich jetzt in zwei Meter Entfernung zu dem Ausdruck aufstellst, sind die Details, die du erkennen kannst, durch zwei Dinge begrenzt: Das bei der Aufnahme verwendete Objektiv und deine Augen.
Jetzt gehst du ganz nah an den Druck heran und betrachtest eine Kontrastkante mit einer starken Lupe. Jetzt kannst du ganz deutlich einen Farbsaum sehen. Und jetzt legst du die Lupe weg und gehst wieder auf zwei Meter Abstand. Hat sich das Bild jetzt verändert? Nein.

Der Sensor unterscheidet bei Details doch nicht zwischen CAs und einem Maschendraht.

Natürlich nicht. Aber ein höher auslösender Sensor ist nur einen Tick näher am oben beschriebenen "idealen" dran als der weniger hoch auflösende. Solange die Auflösung hoch genug ist, d.h. das Bild bei der Ansicht nur vom Ausgabemedium und deinen Augen begrenzt wird, macht es keinen Unterschied.
 
Doch @CUA. Dein Konstrukt, die Sensel aus nem Cropsensor auf ner KB-Fläche zu verteilen, bringt nur RIESENGAPS (Löcher) zwischen den Senseln/Pixeln, aber mit Sicherheit keine höhere Lichtausbeute.

ich zitiere Masi
.. liegt nicht an deren Größe, sondern an der Flächenbedeckung...
In beiden Fällen, Crop oder KB-Sensor, ist der Sensor an sich "flächendeckend" gefüllt mit lichtempfindlichen Bauteilen (Sensel/Pixel/wieauchimmer). Genau daraus ergibt sich die einfache Rechnung -> KB Sensor erhält 2,56 (1.6*1.6) mal mehr Licht (bzw. Photonen). Unterm Strich ist es egal, ob es 8 Millionen Pixel sind oder 36 - im Endergebnis (unbeschnitten) sind alle Pixel für das ganze Lichtaufkommen im Ergebnis zuständig. Das Gleiche kann man auch über µFT oder Cropsensoren sagen, nur sind diese kleiner, ergo werden da deutlich weniger Photonen gefangen.

@Masi passt, kriegen wir hin.

mfg chmee
 
@grundstoffkonzentrat

hier ein Auszug aus einem interessanten Dokument der Firma Schneider-Kreuznach
http://www.schneiderkreuznach.com/p.../know-how/optik-fuer-die-digitale-fotografie/

Danach sollen Farbsäume deutlich kleiner als 1 Pixelgröße sein. Wie ich vermutete:) Und wenn die Pixelgröße kleiner wird, dann müssen auch Farbsäume schmaler werden. Bei älteren Objektiven besteht also die Gefahr, dass sie sichtbar werden ... (aktuelle Beispiele ältere L Objektive an APS-C, siehe auch the-digital-picture.com)

Zitat: "Unabhängig von diesen Betrachtungen ist noch zu beachten, daß natürlich Farbsäume (ebenso wie
in der klassischen Fotografie) störend wirken, sie sollten daher deutlich kleiner als eine Pixelgröße
sein, was man durch spezielle Glasauswahl mit sog. apochromatischen Konstruktionen erreichen
kann."
 
Zuletzt bearbeitet:
@CUA: Matthias hat es doch jetzt diverse Male geschrieben: Flächenabdeckung, wenn du die gleichen Pixel (Anzahl und Größe) auf eine größere Fläche verteilst, dann ist die Flächenabdeckung und ergo auch das Rauschen identisch. Den Vorteil spielt ein größere Sensor natürlich nur aus, wenn die Fläche auch genutzt wird. Also entweder mehr Pixel der gleichen Größe oder die gleiche Anzahl, aber größere Pixel. Nur weil du es nicht verstehst oder um zu provozieren nicht verstehen willst, muss er es ja nicht ständig noch mal schreiben.
 
Naja, das ist ja das Gedankenexperiment. Exakt die (Anzahl, Art, Größe) Sensel eines APS-C, verteilt auf KB (so dass wieder ein Sensor daraus wird): Hat dann die größere Fläche (mit mehr Licht etc.) noch den Rauschvorteil?

Nein, da du die größere Fläche ja nur einnimmst, aber nicht durchgehend nutzt um Photonen einzufangen. Nimm dafür die Wassereimer-Analogie (auch wenn ich selber viel lieber Vergleiche mit Autos ziehe :D ).

Man erkennt, dass die KB-Sensoren gleich viel Wasser aufnehmen, ob sich nun die Fläche in vier sehr flächige Eimer aufteilt oder in 16 kleine (also die sehr großen Pixel eines 4Mp-Sensors oder die kleinen Pixel eines 16Mp-Sensors).
Der APS-C Sensor bekommt sehr viel weniger Wasser/Photonen ab, egal ob das nun in vier aufgeteilt ist oder in 16 oder ob man diese Pixel/Eimer wie in dem Gedankenexperiment weiter voneinander aufstellt.
 

Anhänge

Die Ausführungen sind unnötig. CUA ist schlau genug, es kapiert zu haben, er hat ja auch Joe James und Emil Martinec gelesen.. (scheinbar ist dieser Thread der Auslöser für die "larmoyant-sarkastischen" Einwürfe.)
 
Zuletzt bearbeitet:
hier ein Auszug aus einem interessanten Dokument der Firma Schneider-Kreuznach
http://www.schneiderkreuznach.com/p.../know-how/optik-fuer-die-digitale-fotografie/
Hmm, interessante Dokumente.

Danach sollen Farbsäume deutlich kleiner als 1 Pixelgröße sein.
Interessanterweise steht in diesem Dokument, die Farbsäume sollten kleiner als 2 Pixel sein. Anscheinend kommt dein Zitat unten noch woanders her? Und: Anscheinend sind die sich auch nicht ganz einig... ;)

Wie ich vermutete:) Und wenn die Pixelgröße kleiner wird, dann müssen auch Farbsäume schmaler werden. Bei älteren Objektiven besteht also die Gefahr, dass sie sichtbar werden ... (aktuelle Beispiele ältere L Objektive an APS-C, siehe auch the-digital-picture.com)

Die sagen aber in diesem Dokument auch:
Nun muß noch die sehr wichtige Frage geklärt werden, bis zu welchen Strukturfeinheiten eine Kontrastübertragung überhaupt sinnvoll ist, denn was das Auge nicht mehr sehen kann, braucht auch nicht übertragen (abgebildet) zu werden.

Es muss auch berücksichtigt werden, dass diese Dokumente offensichtlich nicht mehr ganz neu sind. Die gehen von hochmodernen Sensoren mir 4-6 MP aus. (Und noch experimentellen Labor-Strukturgrößen bei Halbleitern von 100 nm. Inzwischen fertigt man Prozessoren in Serie mit 28 nm...)
Was ich sagen will: Es geht nicht darum, was nun genau auf ein Pixel fällt oder ein Pixel ausfüllt, sondern darum, was sichtbar ist. Und da sind wir wieder bei der Wiedergabeauflösung, bzw. der "Augenauflösung".

Dennoch finde ich interessant, dass die eine Grenze (oder verschiedene Grenzen) für die Breite des Farbsaumes in Sensorpixeln angeben. Ich halte das nach wie vor nicht für sinnvoll. Vielmehr sollte man die Grenze in der Breite im Ausgabemedium aus Betrachtungsabstand angeben. Ich vermute, das ist hier eine Vereinfachung, da die zum einen von einer bestimmten (recht geringen) Sensorauflösung ausgehen, und es zum anderen einfacher ist, als auch noch eine Abhängigkeit vom Ausgabeformat und -medium reinzukriegen. (Ansonsten nehmen sie ja einfach A4 in 25 cm Abstand an.)

Du siehst das Problem schon daran, dass die Ausgabe (spätestens mit "Augenauflösung"!) im Allgemeinen eine geringere Auflösung hat als der Sensor, sodass dessen Pixel ohnehin wieder runtergemittelt werden. Und dann ist es wieder egal, ob ich ein Pixel zusammenrechne aus einem komplett korrekten und einem, das zur Hälfte aus Farbsaum besteht (25% Farbsaum drin) oder aus 4 Pixeln, von denen eins komplett mit Farbsaum ausgefüllt ist (wieder 25% Farbsaum).
 
Zuletzt bearbeitet:
Danach sollen Farbsäume deutlich kleiner als 1 Pixelgröße sein. Wie ich vermutete:) Und wenn die Pixelgröße kleiner wird, dann müssen auch Farbsäume schmaler werden. Bei älteren Objektiven besteht also die Gefahr, dass sie sichtbar werden ... (aktuelle Beispiele ältere L Objektive an APS-C, siehe auch the-digital-picture.com)

Und Du merkst dabei nicht, dass auch das wieder von 100%-Ansichten ausgeht? Wenn "Dein Auge" in einem betrachteten Bild (wie gehabt: feste Ausgabegröße, fester Betrachtungsabstand) jeweils 100 Pixel als einen "Fleck" erkennt, aber nicht mehr auflöst, wozu sollte dann eine Störung kleiner als 1 Pixel sein?



Gruß, Matthias
 
Ich habe 18 OT Beiträge entfernt. Das kann doch nicht so schwer sein mal sachlich über das Thema zu diskutieren anstatt sich hier persönlich anzugreifen. Hat ja gestern tagsüber ganz gut funktioniert. Es ist eure Entscheidung. Aber lange schaue ich mir das nicht mehr an.
 
@masi, @grundstoffkonzentrat

Kann es sein, dass ihr immer wieder vergisst, dass wir in der 100 Prozent-Ansicht am Monitor keine realen Pixel des Sensors betrachten können, sondern genaugenommen nur die math. Resultate der Verrechnung von mehreren Nachbarpixel aufgrund der Bayermatrix?

Das bedeutet aber, dass die Frage, ab wann sich Farbsäume im späteren Bild bemerkbar machen nicht generell beantworten lassen und eher ein Erfahrungswert darstellen. Es spielt also eine Rolle, welche Bayer-Matrix ich verwende, wie stark ein Sensorbild überhaupt vergrößert werden muss und wie groß die Pixel auf dem Sensor überhaupt sind...

Epitox
 
@masi, @grundstoffkonzentrat

Kann es sein, dass ihr immer wieder vergisst, dass wir in der 100 Prozent-Ansicht am Monitor keine realen Pixel des Sensors betrachten können, sondern genaugenommen nur die math. Resultate der Verrechnung von mehreren Nachbarpixel aufgrund der Bayermatrix?

Das bedeutet aber, dass die Frage, ab wann sich Farbsäume im späteren Bild bemerkbar machen nicht generell beantworten lassen und eher ein Erfahrungswert darstellen. Es spielt also eine Rolle, welche Bayer-Matrix ich verwende, wie stark ein Sensorbild überhaupt vergrößert werden muss und wie groß die Pixel auf dem Sensor überhaupt sind...

Epitox

Das gilt dann aber für alle Pixelgrößen, 100%-Ansichten, und diese Betrachtung lehnen sie ja auch ab. Am fertigen Auszug sieht die Sache immer ganz anders aus und die reden auch weniger über das Rauschen, CAs etc. ;)
 
WERBUNG
Zurück
Oben Unten