• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Schärfentiefe bei Mittelformat?

Welche Nachteile entstehen denn "beim Transport"? Heutige Sensoren wandeln 50% und mehr der auftreffenden Photonen in erfasste Elektronen um und das Ausleserauschen ist praktisch irrelevant. Wo spielt da der Transport noch mit rein?


Gruß, Matthias

Nunja verschiedene Sensoren haben auch verschiedene Transfer-Effizienzen. Selbst bei einer Effizienz von 99,999% gehen bei nem 6Mpx Sensor ca. 2% des letztens Pixels verloren.
 
Auf Pixelebene vielleicht,

Pixel haben nichts damit zu tun.

aber warum sollte sich bei gleicher Betrachtungsgröße etwas unterscheiden? Die Auflösung scheint mir wichtig zu sein, weil sonst bei zu starker Vergrößerung das Bild interpoliert werden muss und insgesamt unschärfer wird. Was meinst du mit kleinerer Unschärfe auf dem Sensor?

Natürlich muss die Auflösung ausreichend sein, aber ab da ist sie irrelevant.

Also nochmal: Du machst mit der gleichen Brennweite und Blende aus der gleichen Entfernung 2 Bilder mit verschieden großen Sensoren. Auf beiden wird die Fokusebene gleich scharf abgebildet und davor und dahinter gibt es den gleichen Schärfeverlauf (auf dem Sensor!). Ein Punkt in 10m Entfernung hinter der Fokusebene wird vielleicht 0,1mm groß abgebildet.

Jetzt vergrößere ich beide Bilder auf die gleiche Ausgabegröße (also bspw. 40x60cm²). Das Motiv ist auf dem Bild vom kleinen Sensor jetzt größer, weil das Bild ja stärker vergrößert werden muss. Und der Punkt in 10m Entfernung wird auch als größerer Fleck dargestellt, ist also unschärfer. Wenn beim großen Sensor etwas aus 1m hinter dem Motiv geradwe noch akzeptabel scharf war, dann ist es das beim kleinen Sensor nicht mehr, da endet die Schärfentiefe vielleicht schon 70cm hinter der Fokusebene.

Dieser Vergleich ist nun allerdings nicht besonders sinnvoll, denn die beiden verglichenen Bilder sind unterschiedlich. Aberv er zeigt immerhin: Schärfentiefe ist keine Eigenschaft einer Brennweite, Blende, Sensorgröße oder auch nur des Negativs/Dias/der Bilddatei, sondern hängt von der Betrachtung ab (Vergrößerung vom Aufnahme- auf's Ausgabeformat und Betrachtungsabstand).



Gruß, Matthias
 
Nehmen wir an du hast einen Sensor mit 4 Phasen-System in senkrechter Richtung und 3 Phasen in horizontaler bei 3x2Mpx. Du hast einen Ladungsverlust von 0,0001% pro Gate, dann kommst du somit auf eben knapp 2%. ( 0,0001%x(2000x4+3000x3) ) - Das gilt für einen CCD!
 
@Matthias: Jetzt verstehe ich, was du meinst. Ich bin davon ausgegangen, dass wir den gleichen Abbildungsmaßstab verwenden, wodurch die Mitte bei beiden Fotos gleich groß wäre, aber das größere Format eben außenrum noch mehr hätte (dass also die Aufnahme des Crop-Sensors wirklich ein Crop aus dem größeren Bild wäre). In dem von dir genannten Fall (wobei ich mir nicht sicher bin wie praxisnah das ist, da der Blickwinkel sich ja unterscheidet) ist alles vergrößert, wodurch man unscharfe Bereiche eher als solche erkennen kann. Aber die Unschärfe wäre doch in der Aufnahme des größeren Sensors genauso vorhanden (nur müsste man eben genauer hinsehen), physikalisch müsste das also identisch sein?
 
@Matthias: Jetzt verstehe ich, was du meinst. Ich bin davon ausgegangen, dass wir den gleichen Abbildungsmaßstab verwenden,

Tun wir auch, aber Du verstehst Abbildungsmaßstab falsch: Er meint die Abbildung auf dem Sensor.

Aber die Unschärfe wäre doch in der Aufnahme des größeren Sensors genauso vorhanden (nur müsste man eben genauer hinsehen), physikalisch müsste das also identisch sein?

Das habe ich doch nun auch schon mehrfach gesagt: Auf dem Sensor ist der Schärfeverlauf in diesem Fall gleich. Aber die Schärfentiefe unterscheidet sich, denn die ist eben nicht "reine Physik", sondern entsteht beim betrachten, abhängig von Ausgabegröße und Betrachtungsabstand. Wenn Du das Bild größer vergrößerst, wird sie kleiner. Wenn Du mit der Nase näher rangehst, auch.



Gruß, Matthias
 
Natürlich kann man das, sofern man die Technologie beherscht! Ein heutiger Kompaktkamerasensor mit 10Mpx hat natürlich auch ähnlich viele Details wie ein (evtl imaginärer) aus den 80/90 er Jahren. Das größt Problem ist momentan noch die Umwandlung/Transport der eh schon wenigen Photonen auf den Sensor fallenden Pixel.
Das spielt keine Rolle, wenn die Belichtung gleich ist. Bei kleineren Sensoren ist die typische Brennweite auch kleiner, und damit wird das Bild eben klein und dafür subjektiv heller abgebildet. Bei grossen Formaten muß die gleiche Lichtmenge für eine weitaus größe Fläche reichen. Daher kann man bei MF oder gar GF auch fast nicht ohne Schwarztuch hinter der Mattscheibe arbeiten.
 
Wenn ich mit einer Kleinbildkamera eine Szene aufnehme und dann das gleiche Objektiv an eine Crop-Kamera schraube und die Szene mit genau den gleichen Parametern fotografiere, dann entspricht das Ergebnis der Cropkamera doch der Mitte der Kleinbildaufnahme. Der Kleinbildsensor nimmt lediglich mehr vom Bildkreis des Objektives auf, also mehr unscharfe Randbereiche. Aber der fokussierte Bereich sollte doch identisch sein!
Hier hast Du einen Denkfehler. Die Schärfe ist eine Ebene, egal wie groß der Ausschnitt ist. Der von Dir bezeichnete Randbereich ist nicht shcärfe oder unschärfer wie der fokussierte (falsch ausgedrückt!) Bereich.

Der Effekt, daß ein größeres Aufnahmeformat eine geringere Schärfentiefe hat, kommt dadurch, dass man bei gleichem Bildausschnitt entweder näher rangeht, oder eine größere Brennweite nimmt, um das gleiche Bild zu erhalten.

Die reine Sensorfläche/Filmgröße hat daher keinen direkten Einfluss, wohl aber einen indirekten (der Film hinten kann ja nix von der Art und Typ der Optik wissen *gg*)
 
Das spielt keine Rolle, wenn die Belichtung gleich ist. Bei kleineren Sensoren ist die typische Brennweite auch kleiner, und damit wird das Bild eben klein und dafür subjektiv heller abgebildet. Bei grossen Formaten muß die gleiche Lichtmenge für eine weitaus größe Fläche reichen. Daher kann man bei MF oder gar GF auch fast nicht ohne Schwarztuch hinter der Mattscheibe arbeiten.

Wie kommt es aber dann, dass (gleicher Film vorausgesetzt), man den mit einem externen Belichtungsmesser gemessenen Wert sowohl auf eine KB als auch eine GF Kamera übertragen kann und in beiden Fällen das Bild korrekt belichtet ist?

Und einem Mittelformatfotografen mit schwarzem Tuch bin ich bisher noch nicht begegnet. Höchstens vielleicht mit einer Linhof Technika und Super-Rollex Back...
 
Zuletzt bearbeitet:
Das spielt keine Rolle, wenn die Belichtung gleich ist. Bei kleineren Sensoren ist die typische Brennweite auch kleiner, und damit wird das Bild eben klein und dafür subjektiv heller abgebildet. Bei grossen Formaten muß die gleiche Lichtmenge für eine weitaus größe Fläche reichen. Daher kann man bei MF oder gar GF auch fast nicht ohne Schwarztuch hinter der Mattscheibe arbeiten.

Gleiche Belichtung bedeutet gleiche Lichtmenge pro Fläche. Bei gleicher Blende und Belichtungszeit (und Motivhelligkeit) bekommt jeder mm² des großen Sensors genauso viel Licht ab wie jeder mm² des kleinen.



Gruß, Matthias
 
Wie kommt es aber dann, dass (gleicher Film vorausgesetzt), man den mit einem externen Belichtungsmesser gemessenen Wert sowohl auf eine KB als auch eine GF Kamera übertragen kann und in beiden Fällen das Bild korrekt belichtet ist?
Weil die Blende keine feste Größe ist, sondern ein Ratio aus Blendenöffnung und Brennweite. Größere Brennweite, größere Blendenöffnung ....

*hust* öhm ... stimmt ... eigentlich kommt dann auch mehr Licht rein ... :angel:
 
Gleiche Belichtung bedeutet gleiche Lichtmenge pro Fläche. Bei gleicher Blende und Belichtungszeit (und Motivhelligkeit) bekommt jeder mm² des großen Sensors genauso viel Licht ab wie jeder mm² des kleinen.
Hoppla ... dann hab ich mich wohl irritieren lassen, weil die größeren Sucherbei MF und GF in meinen Augen immer dunkler erschienen ... vielleicht lag das an der schlechten Mattscheibe. :evil:
 
Hier hast Du einen Denkfehler. Die Schärfe ist eine Ebene, egal wie groß der Ausschnitt ist. Der von Dir bezeichnete Randbereich ist nicht shcärfe oder unschärfer wie der fokussierte (falsch ausgedrückt!) Bereich.

Der Effekt, daß ein größeres Aufnahmeformat eine geringere Schärfentiefe hat, kommt dadurch, dass man bei gleichem Bildausschnitt entweder näher rangeht, oder eine größere Brennweite nimmt, um das gleiche Bild zu erhalten.
Ich weiß nicht ob du mich richtig verstanden hast: Ich meine, dass die Aufnahme eines Crop-Sensors genau das ist: Ein Crop. Hätten wir verschieden große Sensoren mit genau gleicher Technologie (also auch gleichem Pixel Pitch), dann ließe sich die Aufnahme des Crop-Sensors 1:1 auch aus den größeren Aufnahmen ausschneiden (da das nicht so ist, ist der Crop gleichzeitig auch eine Vergrößerung bzw. Brennweitenverlängerung). Der Bereich der Aufnahmen, der scharf ist, ist also immer gleich (Vergrößerungen jetzt mal außen vor gelassen).

Aber die größeren Formate nehmen mehr auf. Natürlich nehmen sie nicht einfach nur Unschärfe auf: Wenn sich die Schärfeebene durch die Mitte des Fotos zieht, dann wird sie in den Randbereichen natürlich fortgeführt. "Oben" und "unten" geht es dann aber im Raum weiter nach hinten/vorne, und damit werden diese Bereiche unschärfer.

Deswegen kann dann bei gleicher Brennweite und Blende auf dem Foto eines kleineren Sensors fast die gesamte Fläche scharf sein, während beim Foto eines größeren Sensors viel mehr Unschärfe erkennbar ist – einfach weil bei gleicher Brennweite viel mehr abgebildet wird und so auch Bereiche abseits der Schärfeebene sichtbar sind. Deshalb sind die äquivalenten Werte zum Vergleichen sinnvoller (das war mein ursprünglicher Punkt).
 
Zuletzt bearbeitet:
Nehmen wir an du hast einen Sensor mit 4 Phasen-System in senkrechter Richtung und 3 Phasen in horizontaler bei 3x2Mpx. Du hast einen Ladungsverlust von 0,0001% pro Gate, dann kommst du somit auf eben knapp 2%. ( 0,0001%x(2000x4+3000x3) ) - Das gilt für einen CCD!

Und für was spielen diese fehlenden 2% eine Rolle? :confused:


Gruß, Matthias
 
Und für was spielen diese fehlenden 2% eine Rolle? :confused:


Gruß, Matthias

Nunja bei MF Rückteilen kommt man schon schnell auf 5% und mehr, aber natürlich macht das alleine den Braten auch nicht fett. Es ist halt aber eine Rauschquelle die eben mit einem digitalem Pixel verhindert werden könnte. Und das wahrscheinlich um einen noch größeren Faktor da ja früher umgewandelt wird.
 
Scheimflug "bis der Arzt kommt".
Durch Scheimflug kann man ...
Tilt/Shift ist Scheimflug, ...
Olle Scheimpflug lässt grüssen, ...
Spendiere ein "p" und wusste noch gar nicht, dass "Olle" eine Kurzform von Theodor sei.
http://de.wikipedia.org/wiki/Theodor_Scheimpflug ;)

on-topic: richtig variabel in der Einstellung ist man erst mit einer Fachkamera, bei der wiederum die Größe des Sensors nicht notwendigerweise das Mittelformat überschreiten muss (Linhof, Arca-Swiss, Rollei, Fuji).

Bei der Produktfotografie gilt allerdings auch: wichtiger als die Kamera ist das Licht / die Ausleuchtung und das handwerkliche Geschick des Menschen hinter dem Apparat. Ein versierter Fotograf wird wohl in den meisten Fällen ein besseres Ergebnis mit einer KB-Ausrüstung (meinethalben auch mit Tilt-Optik) hinbekommen, als ich mit einer Sinar Großformatkamera mitsamt Grandagon.
 
Beispiel:
Ich mache zwei Bilder, gleiche Perspektive und gleicher Bildausschnitt.
Einmal im Kleinbildformat und einmal Mittelformat.
Die Schärfentiefe soll bei beiden gleich sein.
Unterscheidet sich dann die Beugungsunschärfe?

Wenn man von Effekten wie sphärischer Aberration absieht und
Nachbearbeitungen rausläßt (Focus Stacking, kodierte Blende),
sind Schärfentiefe, Beugung und die räumliche Lichtausbeute fest
miteinander verkoppelt.

Sie sind keine Eigenschaft des Objektivs, sondern des aufgefangenen
Lichtbündels.
 
WERBUNG
Zurück
Oben Unten