• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Oktober 2025.
    Thema: "Abendstimmung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Oktober-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Abblenden und Schärfentiefe der SD10/14

Ich würde sagen für praktische Anwendungen und guter schärfe bei 100% ansicht, macht der 50% Kontrast Wert von oben am meisten Sinn. Also f/10.
Einen feststehenden Wert wie er immer propagiert wird gibt es nicht.
 
Danke Dominic. :)
Also am besten mal je nach Motiv ein paar Fotos mit unterschiedlichen Blenden machen.

Grüße, Heinz
 
Vieles hängt auch davon ab wie groß das später mal dargestellt werden soll, und was den Kompromiss zwischen Tiefenschärfe und Beugung angeht muss man das in der Tat denk ich ausprobieren bis man einigermassen ein Gefühl dafür kriegt.
 
Mir ist durchaus klar was CA ist aber nicht worauf du hinaus willst.
Beugung ist immer von der Wellenlänge abhängig und die blende ist für alle Wellenlängen gleich groß.
Offensichtlich verstehe ich nicht, was du eigentlich meinst.

Einmal rechnest du bei der 20D allein von der Pixelmatrix und Blende die Maximalauflösung aus, aber du vergißt bei deiner Rechnung, dass zwischen Objektiv und Sensor ja noch ein Tiefpassfilter sitzt. Außerdem kannst du ja nicht wissen, inwieweit die Signalverarbeitung die Kantenkontraste anhebt, und so noch ein bißchen mehr Auflösung herausinterpoliert, als eigentlich ankommt.

Dann sprichst du im nächsten Posting von einer Beugungsbegrenzung für Rot bei Blende 14,4. Bei einer solch kleinen Blende werden jedoch alle Längenwellen gebeugt, bzw. das Bild erreicht nicht mehr die maximal mögliche Schärfe. Wo soll der Effekt für Rot denn da sein?

Ferner ist mir nicht klar, wie du auf Zerstreuungskreise von z.B. 0,0081mm bei APS-c kommst? Da würde die Beugung ja bereits um Blende 5,6 herum einsetzen.
 
Ferner ist mir nicht klar, wie du auf Zerstreuungskreise von z.B. 0,0081mm bei APS-c kommst?

Das passt schon, das müsste so etwa die Pixelbreite einer 20D/30D sein (ich habs jetzt nicht exakt nachgerechnet. Allerdings hängt die Beugung nicht von der Pixelgröße ab, sondern ausschließlich von der absoluten Blendenöffnung. Und nur weil diese bei gleichem Bildwinkel zwischen verschiedenen Sensorformaten unterschiedlich ist, wirkt sich auch die Sensorgröße aus. Daher ist die begrenzende Blende bei Vollformat eben kleiner und bei einer Kompaktkamera größer als bei einer Cropkamera.

Die Pixelgröße dagegen hat nur Auswirkungen auf den akzeptablen Zerstreungskreisdurchmesser. Dieser wird für Kleinbild mit 30 µm angegeben. Für Cropfaktor 1,5 folgt daraus 20 µm, für Cropfaktor 1,6 19 µm, für Cropfaktor 1,7 18 µm. Nun sind aber die Pixel der meisten Kameras kleiner, weswegen die Anwendung der normierten Zerstreuungskreisdurchmesser z. B. für die Schärfentiefe bei 100%-Ansicht (und auch nur dort!) unscharfe Bilder bringen kann. Man nutzt also die Möglichkeiten einer hochauflösenden Kamera (für Filme mit hoher Auflösung gilt genau das gleiche) nur durch entsprechend höhere und normübersteigende Forderungen für den Zerstreuungskreisdurchmesser aus. Das heißt aber nicht, dass die Bildqualität bei Nichteinhaltung dieser höheren Forderung schlechter würde als bei einer niedrigauflösenden Kamera. Wenn man z. B. für eine 2-MP-Kamera bei Cropfaktor 1,5 den Normzerstreungskreisdurchmesser von 20 µm ansetzt und das gleiche bei einer 8-MP-Kamera mit gleichem Cropfaktor, dann hat letztere keinen Auflösungsnachteil gegenüber der 2-MP-Kamera.

Für die Sigma heißt das, dass die großen Pixel bezüglich der Beugungsanfälligkeit nicht günstiger sind als bei einer Kamera mit kleineren Pixeln.

Da würde die Beugung ja bereits um Blende 5,6 herum einsetzen.

Woraus leitest Du das denn ab?
 
Das passt schon, das müsste so etwa die Pixelbreite einer 20D/30D sein (ich habs jetzt nicht exakt nachgerechnet. Allerdings hängt die Beugung nicht von der Pixelgröße ab, sondern ausschließlich von der absoluten Blendenöffnung.
Wenn du von 0.0081mm ausgehst, bekommst du allerdings ganz andere Werte für Schärfentiefe und das Beugungslimit als mit 0.02mm.

Es sind einfach zwei verschiedene Ansätze - der eine geht vom Einzelpixel aus, der andere vom fotografischen Bild.

Außerdem geht die Auflösungsrechnerei nach Pixelgröße davon aus, dass die Einzelpixel, bzw. Mikrolinsen wie auf einem Schachbrett lückenlos nebeneinander liegen. Tun sie das wirklich immer? Und wenn man jetzt nicht die horizontale oder vertikale, sondern die diagonale Auflösung wissen will, wie rechnet man dann? Und was, wenn die Sensoren gar nicht horizontal nebeneinander, sondern versetzt zueinander liegen, wie z.B. bei Fujis Super-CCD?

Für die Sigma heißt das, dass die großen Pixel bezüglich der Beugungsanfälligkeit nicht günstiger sind als bei einer Kamera mit kleineren Pixeln.
Aber genau das ist ja hier der Knackpunkt, genau darum geht's ja in diesem Thread.

Woraus leitest Du das denn ab?
Ich habe, um ehrlich zu sein, aus Zeitmangel und Faulheit den Schärfentiefenrechner benutzt. http://www.uni-giessen.de/~gk1030/div/Schaerfe.html

Klar dürfte aber sein, dass, wenn man die Auflösung immer weiter erhöht, das Beugungslimit auch immer früher einsetzt. Wenigstens theoretisch. Natürlich muss man erst mal Objektive haben, die diese Auflösung auch bringen.
 
Das passt schon, das müsste so etwa die Pixelbreite einer 20D/30D sein (ich habs jetzt nicht exakt nachgerechnet. Allerdings hängt die Beugung nicht von der Pixelgröße ab, sondern ausschließlich von der absoluten Blendenöffnung.

Nö das ist nicht die Pixelbreite, die ist 0,0064mm, was ich ausgerechnet habe ist wieviel die Kamera überhaupt auflösen kann, und das wäre eine 0,0081mm breite Linie die auf den Sensor fällt. Also ist das das was trotz Beugung noch auf dem Sensor ankommen sollte, dann hab mit dem rayleigh limit berechnet bei welcher Blende das noch der Fall ist.
 
Ferner ist mir nicht klar, wie du auf Zerstreuungskreise von z.B. 0,0081mm bei APS-c kommst? Da würde die Beugung ja bereits um Blende 5,6 herum einsetzen.

Der Sensor ist 15mm hoch, die Kamera kann maximal 1850 Linien auflösen, macht 0,0081mm höhe für eine Linie oder halt für den z-kreis. Dann hab ich mich wieder leicht verrechnet, also nochmal für nen Kontrast von 50% zwischen Linien: Auflösung in Linienpaaren pro mm = 0.38 / (W*N) wobei N die Blende und W die Wellenlänge des Lichts ist. Gibt im vorliegenden Fall von 62 linienpaaren / mm dann f/11.
 
Zuletzt bearbeitet:
Wenn du von 0.0081mm ausgehst, bekommst du allerdings ganz andere Werte für Schärfentiefe und das Beugungslimit als mit 0.02mm.

So isses.

Es sind einfach zwei verschiedene Ansätze - der eine geht vom Einzelpixel aus, der andere vom fotografischen Bild.

Das kann man so sehen. Anders gesagt: Wenn ich die Auflösung der Kamera voll ausnutzen will, also eine scharfe 100%-Ansicht haben will, muss ich mit den 8 µm (für z. B. die 20D/30D) rechnen. Das erfordert bei gleicher Anforderung an die Schärfentiefe kleinere Blenden und leider auch kürzere Belichtungszeiten zur Vermeidung von Verwacklungen und Bewegungsunschärfe. Daran sieht man schon, dass das in der Realität nur bedingt machbar ist. Man muss sich also damit abfinden, dass man die volle Auflösung einer hochauflösenden Kamera nur bedingt ausnutzen kann.

Außerdem geht die Auflösungsrechnerei nach Pixelgröße davon aus, dass die Einzelpixel, bzw. Mikrolinsen wie auf einem Schachbrett lückenlos nebeneinander liegen. Tun sie das wirklich immer? Und wenn man jetzt nicht die horizontale oder vertikale, sondern die diagonale Auflösung wissen will, wie rechnet man dann? Und was, wenn die Sensoren gar nicht horizontal nebeneinander, sondern versetzt zueinander liegen, wie z.B. bei Fujis Super-CCD?

Natürlich muss man da schematisieren, die von DominicGroß bereits erwähnten Auflösungsverluste kann man rechnerisch auch schlecht erfassen. Da der Super-CCD von Fuji keine versetzt angeordneten Pixel ausgibt (wie sollte er auch?), kann man da auch nur schematisch umrechnen.

Die Rechnung mit der Pixelbreite als zulässigem Zerstreuungskreisdurchmesser geht allerdings davon aus, dass die Sensorauflösung zum begrenzenden Faktor werden soll, man betrachtet den Zerstreuungskreis als Kreis, der vollständig im Pixel liegt. Wenn man von dieser Prämisse abrückt, z. B. den schematischen Pixel genau in den Zerstreuungskreis einpasst, müsste man mit der Pixeldiagonalen rechnen.

Klar dürfte aber sein, dass, wenn man die Auflösung immer weiter erhöht, das Beugungslimit auch immer früher einsetzt. Wenigstens theoretisch. Natürlich muss man erst mal Objektive haben, die diese Auflösung auch bringen.

Ja. Bei weitergehender Steigerung der Sensorauflösung heißt das, dass man bestimmte Schärfentiefebereiche nicht mehr bei voller Sensorauflösung realisieren kann.
 
Nö das ist nicht die Pixelbreite, die ist 0,0064mm, was ich ausgerechnet habe ist wieviel die Kamera überhaupt auflösen kann, und das wäre eine 0,0081mm breite Linie die auf den Sensor fällt.

Ok, das ist dann die Rechnung mit der realen Auflösung. Bei den Canons habe ich die Maße und Zerstreuungskreisdurchmesser auch nicht so genau im Kopf. Bei der D2X rechne ich einfach mit 5 µm (theoretische Pixelbreite), das lässt sich so schön einfach rechnen.
 
Und nochmal zum Thema rot:

Wenn man mal _nur_ Rot betrachtet, die Auflösung für rote linien wird bei der 20D aufgrund der nur ca. 2 Millionen rote Pixel hat nicht sehr hoch sein, daher ergibt sich ein viel größerer z-kreis.

Wenn man aus der rotauflösung von anderen Kameras mit Bayersensor (z.b. der 10D) rückschlüsse zieht dann kriegt man als z-kreis ca. 0,014mm oder auch 35 Linienpaare, setzt man das mit der Wellenlänge von rotem Licht in die Formel aus meinem letzten Posting ein kommt ca. f/15 raus.
 
So isses.

Das kann man so sehen. Anders gesagt: Wenn ich die Auflösung der Kamera voll ausnutzen will, also eine scharfe 100%-Ansicht haben will, muss ich mit den 8 µm (für z. B. die 20D/30D) rechnen. Das erfordert bei gleicher Anforderung an die Schärfentiefe kleinere Blenden und leider auch kürzere Belichtungszeiten zur Vermeidung von Verwacklungen und Bewegungsunschärfe. Daran sieht man schon, dass das in der Realität nur bedingt machbar ist. Man muss sich also damit abfinden, dass man die volle Auflösung einer hochauflösenden Kamera nur bedingt ausnutzen kann.

Natürlich muss man da schematisieren, die von DominicGroß bereits erwähnten Auflösungsverluste kann man rechnerisch auch schlecht erfassen. Da der Super-CCD von Fuji keine versetzt angeordneten Pixel ausgibt (wie sollte er auch?), kann man da auch nur schematisch umrechnen.

Die Rechnung mit der Pixelbreite als zulässigem Zerstreuungskreisdurchmesser geht allerdings davon aus, dass die Sensorauflösung zum begrenzenden Faktor werden soll, man betrachtet den Zerstreuungskreis als Kreis, der vollständig im Pixel liegt. Wenn man von dieser Prämisse abrückt, z. B. den schematischen Pixel genau in den Zerstreuungskreis einpasst, müsste man mit der Pixeldiagonalen rechnen.

Ja. Bei weitergehender Steigerung der Sensorauflösung heißt das, dass man bestimmte Schärfentiefebereiche nicht mehr bei voller Sensorauflösung realisieren kann.

Aus der Praxis heraus würde ich alles das hier gesagte bestätigen.

Gerade der letzte Absatz ist wichtig, bestimmte Schärfentiefenbereiche kann man bei voller Sensorauflösung nicht mehr realisieren. Ehrlich gesagt war das bei KB-Film aber auch absolut nicht anders. Ich habe mich auch dort nie auf die Schärfentiefenskalen auf den Objektiven verlassen, denn die dort "erlaubten" Zerstreuungskreisdurchmesser sind schon richtig heftig manchmal. Aber abhängig von den eigenen Ansprüchen mag man das noch als "hinreichend scharf" empfinden.

Ich seh jedenfalls im Moment hier keinen nennenswerten Unterschied zwischen einer ca. 3 MP Sigma- und einer 6-8 Bayer-Kamera mit gleichem Sensorformat, die erlaubten Grenzblenden, wenn man die maximale Sensorauflösung nutzen möchte, sind doch bei allen diesen Kameras dann logischerweise ziemlich gleich und hängen eben, wie Dominic Groß sagt, von der erreichbaren Auflösung in Linienpaaren/Bildhöhe oder vergleichbarer Einheit ab. Egal wie diese nun zustandekommt, also durch einen Bayersensor mit vielen oder einen Foveonsensor mit entsprechend wenigen Einzelpixeln.

Gruß
Thomas
 
Der eigentliche Blödsinn ist die Grenzblende bei Bayersensoren an der Pixelgröße festzumachen, soviel können sie sowieso nicht auflösen.
Daher ist auch die Megapixel-Auflösung nach Farben (RGB) kein wirkliches Kriterium, denn fotografische Aufnahmen bestehen weniger aus den reinen Farben Rot, Grün, Blau, sondern aus (undendlich) vielen Mischfarben, die wiederum interpoliert werden müssen. Damit geht der Bereich der Grenzblende beim Bayer-Filter bestückten Sensor letztendlich in der durch die Interpolation entstehenden Unschärfe unter.
 
So und jetzt nochmal was zu der Sache mit der MTF die ich gestern erwähnt hatte, es kann ja sein das etwas immernoch aufgelöst ist, der Kontrast dazwischen aber so gering ist das es unscharf aussieht, daher das 50% limit in den vorhergehenden Postings. Jetzt stellt sich aber noch die Frage wie der Sensor bei solchen Auflösungen reagiert, hier ist mal eine theoretische MTF Kurve (in Matlab berechnet) für die SD9 (blau) und SD10 (grün), wie man sieht ist bei 1512 linien pro Bildhöhe (also der maximalen Auflösung) der Kontrast "nur" noch 70% für die SD10.*

Jetzt hatte ich ja den Kontrast durch die Beugung von 50% bei voller Auflösung vorrausgesetzt, und hatte dafür f/12.5 erhalten.
Davon bleiben jetzt aber nur noch 50%*70% übrig, also 35%. Ein Objektiv wird bei den Auflösungen auch keine 100% mehr liefern, sondern vielleicht so 70%, macht dann 50% (Beugung) * 70% (Sensor) * 70% (Objektiv) = 24,5%

Beim Bayersensor wird das noch schlimmer, da hatte ich f/11, der Kontrast ist da oft nur noch 35% bei maximaler Auflösung (was auch einer der Gründe dafür ist das die X3 Bilder schärfer wirken).

Die Auflösung ist in beiden Fällen gleich, der Schärfeeindruck ist es aufgrund der unterschiedlichen Kontraste nicht, damit er gleich ist muss nun entweder mehr nachgeschärft werden oder eine noch weiter geöffnete Blende als f/11 gewählt werden.


*Der Unterschied zwischen SD9 und SD10 entsteht durch die Sammellinsen auf jedem Pixel der SD10.
 
Ich glaube, jetzt hab' ich's kapiert. Der ganze Rechenaufwand dient also nur dazu, zu zeigen, dass die SD10 trotz der geringeren Linienauflösung keine schlechtere Kamera ist, als die Konkurrenz mit Bayer-Sensor, richtig?
 
Nö, der Rechenaufwand diente dazu zu zeigen was alles die Resultate beinflusst und was dabei rauskommt wenn man mit der realen Auflösung der Systeme und nicht mit irgendwelchen Pixelangaben rechnet. Wer letztlich dabei besser wegkommt ist mir egal.

Das die SD10 in etwa auf dem level von 6-8mp Bayerkameras rangiert dürfte auch ohne langatmige Beweise klar sein, mir ging es hier nur darum mal die ganzen Faktoren zu sammeln die hier übersehen wurden. Wenn du mal zurückblätterst wirst du sehen das hier im Anfang nur mit der Pixelgröße argumentiert wurde und sich niemand Gedanken über die wirkliche Auflösung der Systeme und die Bildschärfe gemacht hat. Dabei kam ein Ergebnis heraus was sehr stark zu gunsten der SD10 verfälscht war. Wäre ich darauf aus zu zeigen das die SD10 keine schlechte Kamera ist hätte ich es dabei belassen können, denn mein Ergebnis für SD10 und 20D liegen ja viel dichter beieinander als die die hier anfänglich geposted wurden.
 
Die wesentlichen Punkte der rumrechnerei:
- Es macht keinen Sinn mit der Pixelgröße zu rechnen
- Für den Schärfeeindruck des Bildes ist nicht nur die Auflösung entscheidend

daraus ergeben sich deutlich andere Grenzwerte für die Blende als bei Rechnungen die allein auf der Pixelgröße basieren.
 
WERBUNG
Zurück
Oben Unten