• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Auflösungsbetrachtung am Beispiel von „Altglas“

EDV-TIPP

Themenersteller
Ich weiß nicht, ob es jemanden interessiert, aber ich habe mal versucht mit einfachen Mitteln herauszufinden, ob meine alten Objektive ("Pentacon auto 1.8 50mm" bzw. "Canon FD 50mm 1:1.4") an einer neuen Fuji X-T20 überhaupt scharf genug abbilden.

Hier der Versuch einer Analyse: Auflösungsbetrachtung am Beispiel von „Altglas“ .

Da der Aufsatz ein paar grundsätzliche Sachen beschreibt, habe ich es mal hier unter "Technik" eingestellt.

Grüße
Stefan
 
Hallo Stefan,
Ich weiß nicht, ob es jemanden interessiert...
Bestimmt. Das ist ein durchaus interessanter Aufhänger.

Allerdings ist es ein gutes Stück weit ungünstig, wenn am Thema interessierte User nun allesamt permanent "zwischen einer externen Quelle und dem Forum switchen müssen". Das bremst - wie man sieht ;) - den möglichen Austausch zum Fotografie-Thema enorm ein.

Entsprechend bietet es sich an, die Themenbasis hier im Thread darzulegen und nicht lediglich auf eine externe Plattform/Seite zu verlinken. :)
 
Hallo Chris,

ja so ist das im Internet. Nicht immer steht alles da wo man es sich erhofft oder wünscht. ;-)

Um aber die Diskussion evtl. doch noch anzustoßen, habe ich nachstehend einmal die Strategie bzw. die Schrittfolge aufgelistet:

Ziel ist es, mit einfachen Mitteln (und damit für jeden nachvollziehbar), die Auflösung in „Line Widths per Picture Height“ (LW / PH), also die Linienbreite bezogen auf die Bildhöhe zu bestimmen. Und das für eine bestimmte Objektiv/Kamera-Kombination bei verschiedenen Blenden.


1. Man fotografiert ein Bild mit Siemenssternen (im RAW-Format).

2. Für eine möglichst unbeeinflusste Auswertung isoliert man mit Hilfe des Tools "DCRaw" das Graustufenbild aus dem RAW.

3. Mittels Photoshop (oder Gimp, oder...) ermittelt man den Durchmesser des nicht mehr aufgelösten Kreises im Inneren des Siemenssterns aus dem jeweiligen Bild.

4. Mit Hilfe der entsprechenden Formel wird die „Line Widths per Picture Height“ errechnet.

4. Das Ergebnis wird in Tabellenform bzw. als Grafik aufbereitet.

FERTIG

Details siehe im o.a. Link
 
Zuletzt bearbeitet:
In der Regel sind moderne Objektive leistungsstärker als solche von vor 30 oder 40 Jahren – insbesondere wenn die neuen auch noch für ein kleineres Aufnahmeformat gerechnet sind. Natürlich gibt's hie und da Ausnahmen. Aber daß du auf gleich zwei solcher Ausnahmen gestolpert bist, und dann auch noch bei Objektiven, bei denen man nicht unbedingt damit rechnen würde, ist doch merkwürdig. Noch merkwürdiger ist, daß das Fujinon erst bei Blende 22 mit den anderen Testkandidaten gleichauf liegt, doch bei auch schon beugungsbelasteten Blenden wie 11, 16 oder 19 stets ein deutlicher Vorsprung zugunsten des Altglases vorliegt.

Solange deine Ergebnisse also nicht von unabhängiger Seite bestätigt werden, halte ich sie für Pfusch. Irgendwo in deiner Methodik steckt der Wurm drin. Naheliegendste Vermutung: das Fujinon war wohl nicht richtig fokussiert ... oder es hat einen Treffer. So schwach ist normalerweise nicht einmal ein billiges Kit-Objektiv. Es gibt aber auch noch viele andere mögliche Gründe für irreführende Testresultate.
 
AW: Re: Auflösungsbetrachtung am Beispiel von „Altglas“

Aber daß du auf gleich zwei solcher Ausnahmen gestolpert bist, und dann auch noch bei Objektiven, bei denen man nicht unbedingt damit rechnen würde, ist doch merkwürdig.

Als Ergänzung habe ich noch ein Pentaflex 50mm 2.8 und ein Zeiss Tessar 50mm 2.8 ausgewertet. Die sind DEUTLICH schlechter als das Fuji.

Warum alte Objektive "schärfere" Bilder liefern können, aber nicht unbedingt bessere, habe ich versucht zu erklären.

Wir haben bis jetzt auf diese Art und Weise 16 Objektive an 3 Kameras (Fuji, Nikon, Canon) ausgewertet und die Werte waren bis dato immer stimmig.
 
Hallo Stefan,

eine schöne Fleißarbeit hast Du gemacht!

Hast Du Blitzbeleuchtung verwendet?
Wurde bei jeder Blende (mehrmals) neu fokussiert?
Sind die Ergebnisse reproduzierbar?

Zum Text nur einige Anmerkungen:

Vor der Formel taucht "PW", in der Formel ohne Kommentierung "PH" auf. Das ist etwas verwirrend.
In der Grafik ist dann einfach von "normiert" die Rede.

Da hätte ich etwas mehr Erläuterung erwartet, z.B.

Wenn auf jede weiße oder schwarze Linie des Siemensstern genau 1 Pixel kommt beträgt die Auflösung 100%.
Dividiert man also die Linienzahl 2*NS des Sterns durch die Pixelzahl des Kreisumfangs, so erhält man direkt den normierten Wert.

[ (2 * NS ) / ({Durchmesser in Pixeln} * Pi) ] * 100%



Der Unterschied zwischen "Pentacon auto 1.8 50mm" bzw. "Canon FD 50mm 1:1.4" ist merkwürdig. Der Erklärungsversuch überzeugt mich auch nicht.
Bei einem früheren Vergleich der beiden Objektive war das Canon Objektiv besser als das Pentacon, das ich zur Zeit wegen eines Umbaus nicht verwenden kann.


Heute habe ich einen (einmaligen) Vergleich zwischen dem Canon Objektiv und einem Sony Kit Objektiv an der A6000 gemacht und nach Deinem Vorschlag, das entspricht etwa MTF(10), ausgewertet. Berücksichtige ich alle möglichen Fehlerquellen, so sehe ich (in Bildmitte) kaum einen Unterschied zwischen den beiden Objektiven.

Beim Vergleich meiner Ergebnisse mit Deinen sollte man berücksichtigen, dass die A6000 (Pixelpitch 3,9 µm) weniger hohe Anforderungen an die Objektive stellt als die Fuji X20 (Pixelpitch 2,2 µm). Die Messergebnisse beziehen sich ja immer auf die Kombination Kamera + Objektiv!
Gruß
Stuessi
 

Anhänge

Zuletzt bearbeitet:
Hi Stuessi,

danke, das sich wenigsten einer mit dem Thema inhaltlich beschäftigt hat.

Hast Du Blitzbeleuchtung verwendet?

Nein. Alle Bilder wurden bei Tageslicht im Freien, ohne direktes Sonnenlicht aufgenommen. Mit Stativ und Fernauslösung. Bei der Nikon und der Canon mit Spiegelvorauslösung.

Wurde bei jeder Blende (mehrmals) neu fokussiert?

Nein, aus Zeitgründen habe ich nur bei jedem zweiten Blendenwert neu fokussiert bzw. kontrolliert. Und zwar manuell (bei der X-T20 per Focuszoom). Ich muss aber sagen, dass da nur "gefühlt" was nachzustellen war.
Werde das zukünftig aber via HDMI auf einen großen Monitor führen. Mal sehen, ob das mehr bringt.

Sind die Ergebnisse reproduzierbar?

Ja, im Rahmen der Messgenauigkeit. Da das Verfahren nicht automatisiert und 100% objektiv abläuft, ist "etwas Gefühl" gefragt um den Kreisdurchmesser wirklich gut zu bestimmen.
Besonders dann, wenn die horizontale und die vertikale Auflösung unterschiedlich sind. Ich habe mich dann immer mit dem Unschärfekreis sehr konservativ verhalten.
Mit ein wenig Übung hat man aber schnell raus, wie der Unschärfekreis zu legen ist. Und man kann das dann gut reproduzieren. Aber der Faktor Mensch bleibt!!!!

Mir geht es aber dabei auch nicht um den absoluten Wert, sondern um den Trend und den groben Vergleich.

Zum Text nur einige Anmerkungen:

Vor der Formel taucht "PW", in der Formel ohne Kommentierung "PH" auf. Das ist etwas verwirrend.

Ja, sorry Tippfehler. Habe das im Originaltext schon berichtigt.

In der Grafik ist dann einfach von "normiert" die Rede.

Da hätte ich etwas mehr Erläuterung erwartet, z.B.

Wenn auf jede weiße oder schwarze Linie des Siemensstern genau 1 Pixel kommt beträgt die Auflösung 100%.
Dividiert man also die Linienzahl 2*NS des Sterns durch die Pixelzahl des Kreisumfangs, so erhält man direkt den normierten Wert.

[ (2 * NS ) / ({Durchmesser in Pixeln} * Pi) ] * 100%

Ja, ist im Prinzip OK so.

Ich bin aber anders vorgegangen. Mein Siemensstern hat in der Mitte keinen 1-Pixel-Punkt, sondern einen Mittelpunktkreis auf den die Linien hin laufen.
Der ist bei meinen Nikon-Bildern z.B. 84 Pixel und bei der Fuji etwa 70 Pixel im Durchmesser. Hängt auch etwas davon ab, wie man das Chart im Vollbild getroffen hat. Die 84 Pixel bzw. 70 Pixel habe ich in "Line Widths per Picture Height" umgerechnet und den Wert zu 100% gesetzt. Alle anderen Werte beziehen sich auf die max. zu erreichenden Auflösung (beim Mittelpunktkreis von z.B. 84 Pixels).

Werde das bei Gelegenheit im EDV-TIPP ergänzen.

Der Unterschied zwischen "Pentacon auto 1.8 50mm" bzw. "Canon FD 50mm 1:1.4" ist merkwürdig. Der Erklärungsversuch überzeugt mich auch nicht.

Ja, so ist die Welt. Ich hatte auch nicht den Anspruch Dich zu überzeugen. Ich kann nur aufzeigen, was ich bei meinen Objektiven mit einer bestimmten Kamera gemessen habe und wer kennt nicht den alten Spruch "Wer viel misst, misst viel Mist". Ich bin da ganz schmerzfrei, aber nicht beratungsresistent. ;-)

Also, es geht mir nicht um absolute Zahlen, sondern um das "Verfahren für den Hausgebrauch" und um sich damit Gedanken über Schärfe zu machen. So Antworten wie hier https://www.dslr-forum.de/showthread.php?t=429784 fand ich wenig hilfreich.

Heute habe ich einen (einmaligen) Vergleich zwischen dem Canon Objektiv und einem Sony Kit Objektiv an der A6000 gemacht und nach Deinem Vorschlag, (...) ausgewertet.

Hast Du mit DCRaw die Graustufenbilder isoliert?

Was mir bei Dir gut gefällt, ist die lineare Darstellung der Blendenstufen. Das ergibt keine so "eckigen" Kurven wie bei mir.
Ich habe aber, um die Unterschiede zwischen den Objektiven größer herauszustellen, den Auflösungsbereich der Y-Achse in der Grafik gespreizt.

Beim Vergleich meiner Ergebnisse mit Deinen sollte man berücksichtigen, dass die A6000 (Pixelpitch 3,9 µm) weniger hohe Anforderungen an die Objektive stellt als die Fuji X20 (Pixelpitch 2,2 µm). Die Messergebnisse beziehen sich ja immer auf die Kombination Kamera + Objektiv!

Zuerst, wenn ich darf, eine kleine Korrektur: Ich habe die Fuji X-T20. Das ist auch eine APS-C mit Pixel pitch von 3,9 µm/Px (23,6mm/6032Px*1000) Vergleich siehe hier.

Ja, so ist das aber. Es gibt generell keinen Sinn unterschiedliche Kombinationen übereinander zu legen.

Ich hatte das ansatzweise mit den Messwerten meiner Nikon D810 (Pixel pitch 4,87 µm) gemacht und die Messwerte der Fuji X-T20 drübergelegt. Ist aber meiner Meinung nach nicht zulässig.


das entspricht etwa MTF(10)

Was entspricht "etwa MTF(10)". Wo kommt der Kontrast her in Deiner Überlegung?

Bei einem früheren Vergleich der beiden Objektive war das Canon Objektiv besser als das Pentacon

Da stimme ich Dir zu 100% zu. Die besseren Bilder (mit einem besseren, ja schärferen Gesamteindruck) macht -meiner Meinung nach- in der Tat das Canon und nicht das Pentacon. Das Pentacon ist viel zu flau und ohne jedweden Kontrast, im Vergleich zum Canon. Das siehst Du aber auf den "Graustufenbildern" einer RAW-Aufnahme nicht. ;-)

Darum spreche ich auch nur von Schärfe - nicht von Kontrast. Und damit nicht von MTF!

Grüße

Stefan
 
Nein, aus Zeitgründen habe ich nur bei jedem zweiten Blendenwert neu fokussiert bzw. kontrolliert. Und zwar manuell (bei der X-T20 per Focuszoom). Ich muss aber sagen, dass da nur "gefühlt" was nachzustellen war.
Werde das zukünftig aber via HDMI auf einen großen Monitor führen. Mal sehen, ob das mehr bringt.
Hast Du *für* den neuen Blendenwert erneut fokussiert oder *bei* dem neuen Blendenwert? I.a.W.: hattest Du zum Fokussieren das Objektiv in Offenblende und danach auf die Arbeitsblende abgeblendet oder hast Du in Arbeitsblenden-Einstellung fokussiert?
 
...
Was entspricht "etwa MTF(10)". Wo kommt der Kontrast her in Deiner Überlegung?...

Hallo Stefan,

in dem von Dir zitierten Artikel von Dr. Lenhardt steht

Die Auflösungsgrenze ist somit kein Maß für die Bildschärfe, es muß auch noch
angegeben werden, mit welchem Kontrast die Strukturen (in Linienpaaren pro Millimeter)
wiedergegeben werden. Je höher dieser Kontrast, umso besser ist die Optik !


Nach meiner Erfahrung entsprechen die bei visueller Beobachtung eines Siemenssterns bestimmten Auflösungswerte etwa den MTF(5) .. MTF(15) Werten, je nach Vorlage, Beleuchtung der Vorlage und Kontrast- und Schärfungseinstellung, meinem Befinden, momentanem Sehvermögen, Wunschdenken usw...

Mit dem Programm Quick MTF habe ich meine Bilder anhand der Kante bei B zusätzlich analysiert. Diese liegt allerdings nicht in Bildmitte A, wo ich visuell die Auflösung bestimmt hatte.

Bild 2 zeigt die Ergebnisse.


Gruß
Stuessi
 

Anhänge

Zuletzt bearbeitet:
Die Auflösungsgrenze ist somit kein Maß für die Bildschärfe, es muß auch noch
angegeben werden, mit welchem Kontrast die Strukturen (in Linienpaaren pro Millimeter)
wiedergegeben werden. Je höher dieser Kontrast, umso besser ist die Optik !


Nach meiner Erfahrung entsprechen die bei visueller Beobachtung eines Siemenssterns bestimmten Auflösungswerte etwa den MTF(5) .. MTF(15) Werten, je nach Vorlage, Beleuchtung der Vorlage und Kontrast- und Schärfungseinstellung, meinem Befinden, momentanem Sehvermögen, Wunschdenken usw...

Ja das Zitat kenne ich gut und der Zusammenhang ist vollkommen klar. Unklar war mir nur, wo Du den MTF-Wert her hattest. Aber ich denke, das ist nun klar geworden.


Mit dem Programm Quick MTF habe ich meine Bilder anhand der Kante bei B zusätzlich analysiert. Diese liegt allerdings nicht in Bildmitte A, wo ich visuell die Auflösung bestimmt hatte.

Das ist ja eine spannende Sache.

Die Software kannte ich bis jetzt noch nicht. Mal sehen: Werde mir die Demo-Version auf eine Virtuelle Maschine spielen und ein paar Testläufe machen.

DANKE Stuessi für die Rückmeldung und die Beteiligung an der Diskussion.

Zumindest zeigen mir Deine Kurven, dass mein Ansatz schon nicht schlecht ist. Auch wenn Schärfe ohne Kontrast nicht gerade zum Gesamteindruck eines Fotos beiträgt. ;) Aber das hatte ich ja im EDV-TIPP schon geschrieben.
 
Ich komme mit dem beschriebenen Verfahren überhaupt nicht klar.

Die Auswertung des Siemenssterns ist noch das unproblematischste, aber an allen anderen Stellen hakt es. Es gibt doch z.B. überhaupt keine Auflösung ohne Kontrast. Nur anhand eines Helligkeitsunterschieds (Kontrast) kannst du irgendeine Struktur erkennen. Und auch in Deinem Beispiel sieht das mit dem "flauen" Pentacon gemachte Bild kontrastreicher aus als das vom Canon-Objektiv.

Ich vermute einen gravierenden Haken bei der Verwendung der uninterpolierten Helligkeiten. Das kann eigentlich nur dann funktionieren, wenn alle Farben bei allen Objektiven immer gleich viel Energie abbekommen würden. Aber die Mikrofarbfilter lassen in den drei Farben unterschiedlich viel Licht durch und dazu kommt noch die Lichtfarbe der Beleuchtung. Eventuell kommt jetzt beim Pentacon durch eine schlechtere Vergütung einfach mehr Licht außerhalb des visuell sichtbaren Spektrums durch und verfälscht damit das Ergebnis.

Generell ist die Methode fragwürdig, weil es einfach kaum Objektive gibt, die bei den moderaten Auflösungen heutiger Sensoren an ihre Grenzen kommen. Offen in den Ecken sicherlich, aber in der Mitte wohl kaum. Und da Du mit der Methode ja einen sehr niedrigen Kontrast (die angesprochenen 5-15%) als Vergleichsgrundlage heranziehst, wirst Du nur wenige "Gurken" finden, die da richtig schlecht aussehen.

Dass die Messwerte dann noch massiv davon abhängen, wie genau Du das Poster "vollflächig" getroffen hast, ist dann nur noch ein kleineres Problem.

Viele Grüße,
Sebastian
 
Ich komme mit dem beschriebenen Verfahren überhaupt nicht klar.

Dann lösen wir uns doch mal für einen Augenblick vom Thema "Altglas" und wenden uns zwei Aufnahmen zu, die ich mit einer Nikon D810 gemacht habe. Jeder weiß, dass das 85mm Nikon schärfer abbildet als z.B. das 24-70 mm von Tamron.

Nachstehend findet Ihr eine Grafik mit meinen "Messergebnissen" und zwei Bilder. Bild 0244 ist von dem 85mm Nikon und Bild 0266 vom Tamron. Beides sind Graustufenbilder, aufgenommen bei Blende f5.6 und mit DCRaw aus dem RAW extrahiert.

Ich stelle hier bewusst die Graustufenbilder aus den RAW-Dateien zur Diskussion, weil die Kontrastunterschiede beim "Altglas-Test" dem RAW-Konverter geschuldet sind und wir uns somit auf einem Nebenkriegsschauplatz befinden, der uns in der Strategie nicht weiterbringt.

Ach, ich sehe gerade, dass man TIFF hier nicht einbinden kann. Also klickt auf die o.a. Bildernamen und ihr könnt Euch die Dateien im Original runterladen.
 

Anhänge

Zuletzt bearbeitet:


Hi Grünspan,

ja das kenne ich. Interessanter dürfe allerdings das hier von der Fakultät für Informations-, Medien- und Elektrotechnik (IME) in Köln sein (siehe Seite 6ff).

Dort wird das "Auflösungsvermögen einer Digitalkamera" berechnet. Wobei der Ansatz mit der Verwendung von einer Superfine-Komprimierung vermutlich der Entstehungszeit des Papiers geschuldet ist. Ich denke, hier ist mein Vorgehen mit der Verwendung eines Graustufenbildes besser. Aber im Prinzip soll das den Studenten ja nur die Unterschiede und Einflußgrößen im Hinblick auf die Auflösung näher bringen.


Noch interessanter dürfte die Diplomarbeit von Anke Neumann, Wuppertal bei Prof. Dr. Jörg Gutjahr mit dem Titel "Verfahren zur Auflösungsmessung digitaler Kameras" sein.
 
Dann lösen wir uns doch mal für einen Augenblick vom Thema "Altglas" und wenden uns zwei Aufnahmen zu, die ich mit einer Nikon D810 gemacht habe. Jeder weiß, dass das 85mm Nikon schärfer abbildet als z.B. das 24-70 mm von Tamron.[...]

Es bringt jetzt aber nichts, ein Verfahren damit zu verteidigen, dass man ein passendes Beispiel nimmt... Es wäre die sinnvollere Strategie, anhand von offensichtlich problematischen Beispielen so lange die Ursachen zu suchen, bis man das Verfahren optimiert hat.

Schon bei den von Dir bereitgestellten Bildern sieht man
a) das Bayermuster in Form von Helligkeitsunterschieden (die blauen Pixel sind immer viel dunkler als der Rest).
b) einen leichten Maßstabsunterschied (der bei Dir als Auflösungsunterschied in die Berechnung eingeht)
c) dass der Siemensstern für die D810 im Prinzip zu groß ist bzw. zu wenige Segmente hat. Die Segmente lassen sich im schärferen Bild fast bis zum Zentrum hin unterscheiden.

Ich verstehe ja, dass Du die Demosaikierung als "Fremdeinfluss" ausschließen möchtest, aber Du gewinnst mit der Betrachtung der unbehandelten Graustufenbilder nichts.

Durch die Helligkeitsunterschiede der Farbkanäle entsteht ein überlagerndes Muster, welches pixelscharf ist, und einen relativ konstanten, relativ hohen Kontrast an der Auflösungsgrenze zeigt. Du handelst Dir also auf verschiedenen Skalen Aliasing-Artefakte ein.

Lies mal in der von Dir verlinkten Diplomarbeit den Abschnitt 3.3 zur Linearisierung. Da sollte Dir klar werden, dass Du massiv zu hemdsärmelig an die Sache herangehst...

Viele Grüße,
Sebastian
 
Hallo Sebastian,

nochmals zur Karstellung. Die Bilder im EDV-TIPP mit der Fuji sind in Anlehnung an das Papier der Fakultät für Informations-, Medien- und Elektrotechnik (IME) direkt mit Photoshop ausgewertet worden. Ich hatte geträumt man könne das wirklich so einfach machen.

Da das zu Verfälschungen (Kontrast, Farbe) führte, habe ich das "Graustufenbild" als bessere Ausgangsbasis nachgeschoben. Du kannst das an der Struktur des textes schön erkennen.

aber Du gewinnst mit der Betrachtung der unbehandelten Graustufenbilder nichts.

Für mich gibt es also durchaus Sinn, sich hier auf die Graustufenbilder zu konzentrieren.

Schon bei den von Dir bereitgestellten Bildern sieht man
a) das Bayermuster in Form von Helligkeitsunterschieden (die blauen Pixel sind immer viel dunkler als der Rest).

Woran Du das erkennst ist mir leider unklar. Zumal ich erst mal auf das reine Graustufenbild schaue.

b) einen leichten Maßstabsunterschied (der bei Dir als Auflösungsunterschied in die Berechnung eingeht)

Der Maßunterschied geht nicht in die Betrachtung ein!

Jedes einzelne Objektiv sieht bei jeder eingestellten Blende immer das jeweilige kpl. SELBE Vollbild. Dadurch ergibt sich für jede Objektiv/Kamera-Konfiguration erst mal eine in sich schlüssige Berechnung und eine in sich schlüssige Kurve.

Für die Bestimmung der Sweet Area (die jeder gute Fotograf sowieso kennt) reicht das erst mal.

Erst beim Zuammenfügen der Einzelkurven in die Auswertegrafik muss man den Unterschied berücksichtigen. Ich habe das durch die Normierung auf den unterschiedlichen Mittelpunkt im Siemensstern berücksichtigt. Siehe Diskussion weiter oben.


c) dass der Siemensstern für die D810 im Prinzip zu groß ist bzw. zu wenige Segmente hat. Die Segmente lassen sich im schärferen Bild fast bis zum Zentrum hin unterscheiden.

Ja, darüber kann, nein muss man reden. Ich habe bewußt dieses Bild genommen. Bei Blende 2.8 wärst Du gar nicht auf den Gedanken gekommen. Da dort der Abstand zum Mittelpunkt deutlich größer ist. Ich habe mir aber schon andere Siemenssterne besorgt, weil ich zu der gleichen Erkenntnis gekommen bin.

Lies mal in der von Dir verlinkten Diplomarbeit den Abschnitt 3.3 zur Linearisierung. Da sollte Dir klar werden, dass Du massiv zu hemdsärmelig an die Sache herangehst...

"hemdsärmelig" - Ja, das war auch mein Ansinnen. ;) Zumal ich die Diplomarbeit - wie auch die anderen Unterlagen mehr als 1 x gelesen habe.

Grüße
Stefan
 
[...]Woran Du das erkennst ist mir leider unklar. Zumal ich erst mal auf das reine Graustufenbild schaue.

Wenn Du das "reine Graustufenbild" in der 100%-Ansicht anschaust, erkennst Du ein regelmäßiges Muster: In jeder zweiten Reihe ist jedes zweite Pixel deutlich dunkler als die anderen Pixel. Das sind die Pixel, die einen blauen Mikrofarbfilter über sich haben. Zwischen ihnen sitzt jeweils ein Pixel mit grünem Mikrofarbfilter und in der Zeile darunter wechseln sich Pixel mit rotem und grünem Farbfilter ab.

Da die Pixel mit dem blauen Farbfilter nun weniger Energie bekommen (wegen der Beleuchtungsfarbe oder der Filtereffizienz) weisen diese Pixel durchgängig einen niedrigeren Grauwert auf als die anderen Pixel. Der Kontrast zwischen einem "blauen" Pixel und einem "grünen" ist in den hellen Flächen verdammt hoch.

Du könntest jetzt analog zum Vorgehen der Dame mit der Diplomarbeit eine 16-Grauwert-Tafel aufnehmen und für alle Pixel einen passenden 'look up table' erzeugen. Dann hättest Du eine Fehlerquelle ausgeschlossen.

Der Maßunterschied geht nicht in die Betrachtung ein!

Laut Deiner Beschreibung doch. Du berechnest ja die Auflösung aus der Größe des unscharfen Kreises und der Gesamtbildhöhe. Wenn jetzt der Siemensstern (bei gleicher Objektivleistung) nicht gleich groß abgebildet wird, ist der unscharfe Kreis mal kleiner und mal größer, die Bildgröße aber immer gleich und das Ergebnis sollte unterschiedlich ausfallen, oder nicht?

Viele Grüße,
Sebastian
 
Hi Sebastian!

Wenn Du das "reine Graustufenbild" in der 100%-Ansicht anschaust, erkennst Du ein regelmäßiges Muster: In jeder zweiten Reihe ist jedes zweite Pixel deutlich dunkler als die anderen Pixel. Das sind die Pixel, die einen blauen Mikrofarbfilter über sich haben. Zwischen ihnen sitzt jeweils ein Pixel mit grünem Mikrofarbfilter und in der Zeile darunter wechseln sich Pixel mit rotem und grünem Farbfilter ab.

Da die Pixel mit dem blauen Farbfilter nun weniger Energie bekommen (wegen der Beleuchtungsfarbe oder der Filtereffizienz) weisen diese Pixel durchgängig einen niedrigeren Grauwert auf als die anderen Pixel. Der Kontrast zwischen einem "blauen" Pixel und einem "grünen" ist in den hellen Flächen verdammt hoch.

OK, jetzt habe ich begriffen, was Du meinst.

Ist aber für meine Holzhammer-Abschätz-Methode und der Dicke der Siemesstern-Linien nicht so wichtig. Aber der Einwand ist wirklich gut. Je dünner die Linien werden, um so größer wird der Einfluss. Er läßt sich aber weitgehend gedanklich "ausschalten", wenn man für die Festlegung des Unschärfekreises optisch den diagonalen Siemensstern-Strichen folgt. Ich will ja keine Studienarbeit daraus machen.

Laut Deiner Beschreibung doch. Du berechnest ja die Auflösung aus der Größe des unscharfen Kreises und der Gesamtbildhöhe. Wenn jetzt der Siemensstern (bei gleicher Objektivleistung) nicht gleich groß abgebildet wird, ist der unscharfe Kreis mal kleiner und mal größer, die Bildgröße aber immer gleich und das Ergebnis sollte unterschiedlich ausfallen, oder nicht?

Ja und nein.

1. Fall (sauber gearbeitet)

Innerhalb einer Belichtungsreihe ändert sich die Größe des Siemenssterns ja nicht. Abstand zur Tafel und das Objektiv bleiben gleich. Es ändert sich lediglich die Blende.

Nun kommen wir zur Änderung des Objektives. Und da vergleiche mal bitte die Größe der beiden Siemenssterne für das Nikon- und das Tamron-Objektiv in meinen beiden Graustufenbildern. Du wirst feststellen, dass sie bis auf einen Pixel beide einen Durchmesser von 1367 Pixel haben.

Das Verhältnis von Bildgröße zu Siemensstern bleibt also gleich. Nur der Durchmesser des Unschärfkreises ändert sich. Also KEIN Unterschied!

2. Fall (unsauber gearbeitet)

Wenn wir jetzt das Vollbild von Objektiv zu Objektiv nicht 100% gleich getroffen haben (wie im Fall der Fuji), so ändert sich INNERHALB einer Belichtungsreihe (mit einem Objektiv) erst mal nichts.

Jede Belichtungsreihe ist isoliert erst mal aussagekräftig. Jede Einzelberechnung hat irgendeinen Wert, der NUR abhängig von der Bildgröße (ändert sich nicht) und dem Unschärfekreis (ändert sich) ist.

Erst wenn man zwei solche Kurven ins Verhältnis zueinander setzt, wird es kritisch. Nun ändert sich (wie Du geschrieben hast) durch den unterschiedlichen Bildausschnitt die Größe des Siemenssterns.
In meinem Fall um 6%. Damit ändert sich auch der Durchmesser des Unschärfekreises bzw. das Verhältnis zur Bildgröße.

Nun habe ich einfach die beiden Innendurchmesser (auf den die Linien im Siemensstern hinauslaufen) ins Verhältnis gesetzt. Das war fehlerhaft. Während ich beim Außendurchmesser einen Unterschied von 6% habe, habe ich im Inneren nur noch einen Unterschied von 4,5% gemessen.

Die sich daraus ergebenden fehlerhaften Wert habe ich ins Verhältnis gesetzt, somit stimmen die Kurven zueinander nicht mehr.

Mein Fehler lag einfach daran, dass man den Außendurchmesser viel besser (weil größer) mit einem Kreis in Photoshop umschließen kann, als den Innendurchmesser.

Da muss ich über meine Formel nochmals nachdenken, bzw. einfach sauberer fotografieren, was sicher deutlich besser wäre.

Also, danke für den Hinweis.

Grüße
Stefan
 
Wenn Du das "reine Graustufenbild" in der 100%-Ansicht anschaust, erkennst Du ein regelmäßiges Muster: In jeder zweiten Reihe ist jedes zweite Pixel deutlich dunkler als die anderen Pixel. Das sind die Pixel, die einen blauen Mikrofarbfilter über sich haben. Zwischen ihnen sitzt jeweils ein Pixel mit grünem Mikrofarbfilter und in der Zeile darunter wechseln sich Pixel mit rotem und grünem Farbfilter ab.

Da die Pixel mit dem blauen Farbfilter nun weniger Energie bekommen (wegen der Beleuchtungsfarbe oder der Filtereffizienz) weisen diese Pixel durchgängig einen niedrigeren Grauwert auf als die anderen Pixel. Der Kontrast zwischen einem "blauen" Pixel und einem "grünen" ist in den hellen Flächen verdammt hoch.

Du könntest jetzt analog zum Vorgehen der Dame mit der Diplomarbeit eine 16-Grauwert-Tafel aufnehmen und für alle Pixel einen passenden 'look up table' erzeugen. Dann hättest Du eine Fehlerquelle ausgeschlossen.

Deutlich einfacher wäre es m.E., von vorneherein mit RawTherapee zu arbeiten. Dort kann man beim Demosaicing auch das Verfahren "mono" einstellen, das ohne Interpolation arbeitet. Wenn man dazu ein in der speziellen Lichtsituation erzeugtes Kameraprofil einsetzt, sollten die Helligkeitsunterschiede der einzelnen Farbkanäle automatisch angeglichen werden.
 
WERBUNG
Zurück
Oben Unten