• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Objektive: Auflösung mit Chart testen

rob70

Themenersteller
Hallo liebe Experten,

ich möchte das Auflösungsvermögen meiner Objektive selbst testen. Wie es grundsätzlich funktioniert ist mir nach einigem Lesen schon (mehr oder weniger) klar:

Testchart(s) fotografieren. Deren Auflösungs-Umrechnung kennen und mit dem Vergrößerungsfaktor (= Abstand/Brennweite) multiplizieren. Stimmt das so weit (ich hoffe schon)?

Aufbau ist klar, auch die Tipps zur Beleuchtung, zum Stativ, Auslösen, etc. habe ich schon verinnerlicht.

Ich habe nun auch schon einige Testbilder geschossen. Mein Problem ist folgendes:

Ich habe mit dem USAF-Chart gearbeitet und Bilder davon gemacht. Die Frage ist nun die: Wie kann ich beurteilen, welches die letzte Gruppe ist, die noch aufgelöst ist. Die Beispiele im Internet passen nicht zu meinen Ergebnissen. Die Internetbeispiele, die ich gefunden habe, sind alle auf Film gemacht.

Bei mir ist es anders:

Im Grenzbereich wird keine Linie mehr aufgelöst, sondern z.B. 3 Punkte im Bereich der Linie, so dass im Prinzip ein Unterschied schwarz/weiß aufgelöst wird, nur nicht in Form einer durchgezogenen Linie. Das sieht dann z.B. so aus (bitte noch etwas vergrößern und dann Gruppe 0, Elemente 5 und 6 betrachten):
Testbild Center-017.jpg

In diesem Beispiel sehe ich in Gruppe 0, Element 5 vertikal: 3 Punkte statt eines Balken, ebenso in Gruppe 0, Element 6 horizontal.
Gilt das dann noch als aufgelöst, oder muss ein durchgehender Balken zu sehen sein? Gruppe 0, Element 6 horizontal sind die 3 Linien z.B. eindeutig nicht mehr aufgelöst.
Hat das evtl. etwas mit den Sensorpixeln zu tun?

VG, Rolf
 
Hallo Thomas,
mit Aliasing kenne ich mich zu wenig aus. Das kann ich nicht beurteilen. Wenn ich es richtig auffasse, meinst Du, dass es aufgrund der Signalverarbeitung zu künstlichen Mustern kommt, die gar nicht da sind?

Grundsätzlich halte ich das für möglich. Die Sache ist jedoch die, dass die Punkte ja die Linie modellieren (an der richtigen Stelle), nur nicht ganz darstellen. Eine Linie ist aber da (tatsächlich). Außerdem gibt es eben rechts und links jeweils den schwarzen Balken und dazwischen noch einen hellen Bereich.
Wie gesagt: Ohne, dass ich mich auskenne: Wäre das nicht widersprüchlich?
VG, Rolf
 
Wenn ich es richtig auffasse, meinst Du, dass es aufgrund der Signalverarbeitung zu künstlichen Mustern kommt, die gar nicht da sind?
Ja. Grob gesagt: Wenn das abzutastende Bild (hier die Projektion auf dem Sensor) Details enthält die feiner sind als das Pixelraster, dann enthält das abgetastete Signal Fehler. (Darum haben Kameras Tiefpassfilter vor dem Sensor, aber es ist Mode geworden, diese Filter so schwach auszuführen, dass sie nicht mehr ganz effektiv sind. Falls der Begriff unklar ist: Ein Milchglasfenster ist auch eine Art Tiefpassfilter, nur etwas sehr viel stärker als was man vor einem Bildsensor erwarten kann.

Wie gesagt: Ohne, dass ich mich auskenne: Wäre das nicht widersprüchlich?
Kann ich nicht sagen. Das wird ja auch davon abhängen, wie der Algorithmus arbeitet, der das Bayer-Muster auflöst (Demosaicing). Der muss das Sensor-Signal irgendwie verrechnen, also aus dem abgetasteten RGB-Muster des Sensors die Entscheidung fällen, wie irgendein Pixel im Bild auszusehen hat. Und wenn das Signal fehlerhaft ist (Aliasing), dann könnte ich mir grundsätzlich schon vorstellen, dass da Strukutren entstehen, die "komisch" sind. Aber das ist echt nur gemutmaßt.

Falls du sagen könntest, dass der Abstand zwischen den Balken in der Projektion auf den Sensor so groß war, dass da locker ein Dutzend Sensor-Pixel dazwischen passt, dann läge es vielleicht wirklich nicht daran.

Nachtrag: Mir ist noch aufgefallen, dass diese Bereiche Farbfehler haben. Das spricht soweit ich es weiß auch für Aliasing.
 
Zuletzt bearbeitet:
Wenn ich das nun wieder richtig verstehe, ist Aliasing ein Hinweis darauf, dass das Objektiv feiner auflösen kann als der Sensor, da ja, wie Du sagst "das abzutastende Bild (hier die Projektion auf dem Sensor) Details enthält die feiner sind als das Pixelraster".
Die Farbfehler sind mir auch aufgefallen. Darüber hinaus habe ich den Eindruck gehabt, dass eine leichte Defokussierung manchmal zu einer besseren Auflösung führt. Ich glaube gestern gelesen zu haben, dass das eine Methode (bei mir nicht beabsichtigt) ist, um Aliasing zu verhindern.

Schlussendlich bleibt also die Frage: Was ist das letzte Element (in dem Chart), das meine Sensor-Objektiv-Kombination bei der gegebenen Entfernung auflöst.

Wenn es so ist, wie oben angenommen, gehe ich jetzt davon aus, dass das Objektiv die Linie noch auflöst, der Sensor aber aufgrund des "groben" Rasters drei Punkte daraus macht.

Noch eine Frage dazu: Der Vollformatsensor hat eine Breite von 36mm worauf 6000 px erfasst werden. Das macht maximal 83,3 Linienpaare pro mm, die theoretisch erfasst werden könnten.
Ich komme auf irgendwas um ca. 70 lp/mm mit dem Test. Das wäre ja falsch, wenn das Objektiv höher auflöst als der Sensor, oder?

Übrigens der Vollständigkeit halber: Kamera ist eine Sony A7 I (mit Tiefpassfilter, 6000x4000px)
Abstand zu den Testcharts war 2,25m. Objektiv: 50mm
 
Hallo liebe Experten,

ich möchte das Auflösungsvermögen meiner Objektive selbst testen.

Wenn Du wirklich Lust hast, die Zeit mit derlei zu verbringen, würde ich Dir MTFMapper ans Herz legen: http://www.dyxum.com/dforum/diy-lens-mtf-testing_topic103701.html
Die Freeware berechnet Auslösungswerte (ähnlich Imatest) und erzeugt Dir auch Testcharts als SVG Dateien.
Da gibt es unendlich viel zu beachten und auszuprobieren.
Die Software nimmt aber immerhin das Interpretieren ab und erzeugt automatisch die üblichen MTF Charts.

LPH (http://moments-4ever.de/LPH/english.htm) von einem Forenmitglied hier wird ja leider nicht mehr zum Download angeboten.
 
... ist Aliasing ein Hinweis darauf, daß das Objektiv feiner auflösen kann als der Sensor ...
So ist es.


Der Kleinbild-Sensor hat eine Breite von 36 mm ...
Wohl eher 35,85 mm.


... worauf 6000 Pixel erfasst werden. Das macht maximal 83,3 Linienpaare pro mm, die theoretisch erfaßt werden könnten.
Kommt etwa hin.


Ich komme auf irgendwas um ca. 70 lp/mm mit dem Test. Das wäre ja falsch, wenn das Objektiv höher auflöst als der Sensor, oder?
Nein, das ist richtig. Läge die Auflösungsgrenze des Objektives in der gleichen Größenordnung wie die des Sensors (was ein lausiges Objektiv wäre), so käme das Bild auf gut 40 lp/mm. Wenn du im Bild etwa 70 lp/mm mißt, so muß die Grenze des Objektives bei über 400 lp/mm liegen. Für einen übertragenen Kontrast, bei dem du reines Schwarz und reines Weiß direkt nebeneinander im Bild nur so gerade noch voneinander unterscheiden kannst, ist das durchaus realistisch.
 
Hallo Rolf

Zur Beurteilung der Linien verwende ich auch Fitswork.
Bearbeiten
Weitere Funktionen
Pixellinie als Diagramm anzeigen
Rechte Maustaste auf Bild, zeigt weitere Optionen (z.B. Bildstatistik zeigen)

Kurt
 
AW: Re: Objektive: Auflösung mit Chart testen

Nein, das ist richtig. Läge die Auflösungsgrenze des Objektives in der gleichen Größenordnung wie die des Sensors (was ein lausiges Objektiv wäre), so käme das Bild auf gut 40 lp/mm. Wenn du im Bild etwa 70 lp/mm mißt, so muß die Grenze des Objektives bei über 400 lp/mm liegen. Für einen übertragenen Kontrast, bei dem du reines Schwarz und reines Weiß direkt nebeneinander im Bild nur so gerade noch voneinander unterscheiden kannst, ist das durchaus realistisch.

Danke für die Antworten. Kannst Du mir noch erklären, wie Du auf 400 lp/mm kommst?

Wenn ich das insgesamt dann richtig sehe, erübrigt es sich wohl mit meinen Mitteln, ein Objektiv zu testen, weil ich seine Auflösung aufgrund der Beschränkung meines Kamerasensors gar nicht vermessen oder einschätzen kann. Dies scheint dann aber Deinen Aussagen zur Folge sogar generell der Fall zu sein, selbst für eine 50MPix Kamera.
 
Zuletzt bearbeitet:
Hallo Rolf

Zur Beurteilung der Linien verwende ich auch Fitswork.
Bearbeiten
Weitere Funktionen
Pixellinie als Diagramm anzeigen
Rechte Maustaste auf Bild, zeigt weitere Optionen (z.B. Bildstatistik zeigen)

Kurt

Hallo Kurt,

danke auch Dir. Ich habe Fitswork gleich ausprobiert. Sehe ich das richtig, dass ich die Pixellinie über einen Balkendreier ziehe und dann an Hand der (hoffentlich vorhandenen) Gräben beurteile, ob sich schwarze Balken vom Rest hinreichend abheben (oder überhaupt abheben).

VG, Rolf
 
mit Aliasing kenne ich mich zu wenig aus. Das kann ich nicht beurteilen. Wenn ich es richtig auffasse, meinst Du, dass es aufgrund der Signalverarbeitung zu künstlichen Mustern kommt, die gar nicht da sind?
Solche Artefakte umgeht man am besten, indem man das Demosaicing ganz ausschaltet- das ist bei Schwarzweissmustern schlieslich nicht nötig. Der Ausgleich der unterschiedlichen Dichten des Bayer-Pattern kann dann aber etwas tricky werden. Ein anderer erfolgversprechender Weg ist das direkte Auslesen des Grünkanals des Raws und dessen grafische Darstellung - mit der libraw ist das ein Progrämmchen von wenigen Zeilen. Dafür ist das USAF-Chart leider eine schlechte Basis, weil man idealerweise den Durchschnitt einer neben- oder untereinanderliegenden Pixelgfruppe abbildet. Das ist bei schrägen Mustern eher schwierig.

Allerdings ist die A7(1) keine besonders gute Kamera für solche Tests. Das liegt nicht nur an der eher bescheidenen linearen Auflösung, sondern vor allem daran, das ein sauberer Sensor-Readout nicht vorgesehen ist.

Zum einen kann die verlustbehaftete Raw-Kompression an harten Kontrastkanten für Halos sorgen und damit den Test verfälschen.

Zum anderen habe ich hier im Forum gezeigt, dass die Kamera im Raw Kontrastkanten aufsteilen kann - gemeinhin als Schärfung bezeichnet. Das ist nicht im Sinne objektiver Tests.

Zum dritten sitzen PDAF-Sensel auf dem Sensor, deren Rezeptionsverhalten sich von dem "normaler" Sensel unterscheidet und deshalb nachinterpoliert werden muss. Auch das ist ein Unsicherheitsfaktor, gerade wenn verhältnismässig kleine Teile des Targets untersucht werden sollen.

Wenn man aufgrund dieser Einflüsse die verlässliche lineare Auflösung sicherheitshalber halbiert, bleiben 6MPix über. Das ist nicht viel, wenn man bedenkt, dass im mft-System Auflösungen möglich sind, die mehr als 300MPix KB entsprechen. Gute Objektive können diese Auflösung im Zentrum auch bedienen.
 
Ein anderer erfolgversprechender Weg ist das direkte Auslesen des Grünkanals des Raws und dessen grafische Darstellung

Ich habe das gerade mit Photoshop mal probiert: Die Kontraste werden besser, die störenden Farbfehler sind verschwunden, an der erreichten Auflösung ändert sich trotzdem nichts für mich Erkennbares.

Allerdings ist die A7(1) keine besonders gute Kamera für solche Tests.[...]

Auch wenn ich nur alte Objektive damit testen möchte, macht das ganze wohl immer weniger Sinn, oder hast Du Tipps, wie ich mit meinem Equipment doch noch zu halbwegs aussagekräftigen Tests kommen kann?
Ich hätte auch noch eine 5DII, die aber von der Auflösung noch weniger zu bieten hat.

Evtl. werde ich die Charts noch einmal auf 45° gedreht fotografieren. Daraus müsste sich eine leicht verbesserte Auflösung ergeben.

VG, Rolf
 
Zuletzt bearbeitet:
Hallo Rolf,
ich denke, Du machst das richtig. Die sinnvolle Diskussion hier lässt erahnen, dass die Wirkungsweise der Sensoren und Bildaufbereitung grundsätzlich von der primären Frage: welches Objektiv hat welche Auflösung? getrennt betrachtet wird.
Ich bin ein alter analoger Film&Fotochemie-Sack, kann aber vielleicht etwas beitragen:
Auflösung definiert man wissenschaftlich über Raster mit sinusförmigen Intensitätsverlauf, nicht mit "rechteckigem" Intensitätsverlauf. Da der rechteckige / kantige Verlauf einfacher zu handhaben / drucken ist, benutzt man ihn praktischerweise und stellt einmalig eine konstante Relation fest, um wieviel höher die scheinbare Auflösung ist, wenn man scharfe Balken verwendet, die Zahlen der beiden Testmodi sind also zuverlässig umrechenbar.
Der Hintergrund ist, dass wir ja in der Praxis keine Mirentafeln aufnehmen, sondern beliebige Objekte, da hilft ein Objekt mit Sinusverlauf eher.
Ein Film kennt im Allgemeinen keine Auflösungsunterschiede in X- und y-Richtung, er ist isotrop. Der Chip ist das nicht, er hat Vorzugsrichtungen, was Dein Experiment klar zeigt. Auflösung soll man auf ein Objekt ohne Vorzugsrichtung beziehen, insofern ist die Idee, die Testtafel zu drehen, gut.
Praktisch wird das Unterschiede bringen, und erbsenzählenderweise müsste man beliebige Winkelungen messen und dann über alle Winkel mitteln, das macht natürlich (fast) keiner.
Dann sollte man beachten, dass man an die Auflösung strenge, d.h. eindeutige Anforderungen stellt, das spricht für Deine Version, die Linie muss durchgehend dargestellt sein. Es ist ein philosophisches Problem: wenn Du drei Punkte abgebildet hast statt einer Linie, könnten das in einem unbekannten Motiv ja auch drei Punkte gewesen sein. Nur weil mann WEISS, es war ursprünglich eine Linie, kann man nicht damit zufrieden sein, drei Punkte zu finden, die auf einer Linie liegen, das heisst man muss Mindestanforderungen stellen. In einer klassischen MTF-Kurve hat man sich häufig darauf geeinigt, eine Modulation von 30% oder mehr als Auflösungsgrenze zu benutzen. Wenn ein Strich statt mit 100% noch mit 30% Modulation kommt, ist er doch als Strich zu erkennen. Bei 10% Modulation ist es dann Raterei. Diese Vorgehensweise war zu Filmzeiten zugegebenerweise einfacher als heute, weil die Abbildung des primären Objektives heute kamerabedingt sehr stark manipuliert wird. Mit besseren Algorhythmen machst Du aus einem Mittelklasseobjektiv etwas Besseres, ich habe Kameras, die können das, ich hätte es nicht geglaubt.
Die Funktion "hohe Schärfe" in einer K5 lässt das Bild so aussehen als ob der AA ausgebaut wäre, der Preis ist Rauschen. Auflösung und Rauschen ist aber Zweierlei.
Therorie ist wichtig, aber scharfe Bilder sind Dein Ziel und wie Du feststellst, welche Linse das bei welcher Blende optimal kann. Vor diesem Hintergrund muss man es nicht beliebig kompliziert machen, der Weg über Mirentafeln ist gut. Vielleicht probierst Du, statt 90 Grad oder 45 Grad einmal 30 Grad Winkelung in der Bildmitte. Bayer hat bei 45° und 90° Vorzugsrichtungen, die bei 30° fehlen, nur so als Idee.
In den Randbereichen des Objektivs ist auch grob 30° Winkelung besser, um die radiale von der tangentialen Auflösung zu trennen, das machen alle so.
----------------------------------
Auch als alter Sack habe ich noch eine moderne Methode dazugelernt, die von blinden Prüfern erledigt werden kann und einen neuen, nicht uninteressanten Weg geht: Du nimmst ein fein strukturiertes Objekt unter standardisierten Bedingungen auf, Kontrast und Belichtung, alles muss passen. Dann schaust Du auf die Dateigrösse des jpgs. Das schärfere Bild hat die grössere Datei. Das gibt keine absoluten Auflösungszahlen, aber sagt, ob Objektiv A oder B schärfer ist. Manchmal reicht das, und die Methode ist extrem ökonomisch. Die Methode hat aber Grenzen, sie sollte eher im Monochrom-Bereich stattfinden, weil Farbsäume natürlich die Dateigrösse des jpg anheben, ohne Beweis für mehr Schärfe zu sein. Aber ohne strenge Wissenschaftlichkeit funktioniert dieser Weg bei mir auch häufig mit RGB-Dateien, obwohl theoretisch unsauber.
ois choaf, Grüsse aus der Eifel wünscht
maro
 
Zuletzt bearbeitet:
Nachtrag
Man muss nicht nur die Signalform normieren, sonder auch den Kontrast des Linienmusters. Ein Muster mit höherem Kontrast liefert höhere Auflösungszahlen ab.
Zu alten Kodakzeiten (die testeten sehr seriös und nachvollziehbar) wurden Auflösungszahlen für Hochkontrastobjekte 1000:1 und Niedrigkontrastobjekte (1,6:1) angegeben. Realistisch sind Kontastverhältnisse dazwischen, häufig wird 1:32 benutzt, also 1,5 Einheiten Abstand im Zehnerlogarhythmus, das geht drucktechnisch auch gut.
maro
 
Zuletzt bearbeitet:
Hallo Maro, danke für Deine ausführlichen Hinweise. Leider kapiere ich Einiges davon nicht (dazu fehlt mir der Hintergrund).

Da der rechteckige / kantige Verlauf einfacher zu handhaben / drucken ist, benutzt man ihn praktischerweise und stellt einmalig eine konstante Relation fest, um wieviel höher die scheinbare Auflösung ist, wenn man scharfe Balken verwendet, die Zahlen der beiden Testmodi sind also zuverlässig umrechenbar.

Heißt das, dass ich z.B. mit Hilfe von Software ermittle, um wie viel "schwärzer" und deutlicher getrennt vom weiß der ideale Balken im Vergleich zum Abbild ist? Wird dabei in % grau gemessen oder wie?
Ohne Hilfsmittel ist das für einen Laien wohl kaum zu bewältigen.

... insofern ist die Idee, die Testtafel zu drehen, gut.

werde ich also machen, falls ich weitere Testfotos mache.

Dann sollte man beachten, dass man an die Auflösung strenge, d.h. eindeutige Anforderungen stellt, das spricht für Deine Version, die Linie muss durchgehend dargestellt sein. Es ist ein philosophisches Problem: wenn Du drei Punkte abgebildet hast statt einer Linie, könnten das in einem unbekannten Motiv ja auch drei Punkte gewesen sein.

Das ist generell sicher richtig. Nur vermute ich bei mir, dass der Grund ein anderer ist (als die Interpolation der Kamera, die etwas hinrechnet, das gar nicht da ist): Wie oben schon angedeutet, sind die "Punkte" (statt des Balkens) wohl eher auf die Rasterung des Sensors zurückzuführen, weil ich in meinem Testbild schon nahe an der Pixelauflösung bin.

Wenn ich das für mich eben richtig berechnet habe (bitte mitdenken und korrigieren, wenn nötig), müsste die Dreiergruppe 0, Element 4 nur 6 Pixel breit sein (in Wirklichkeit: ca. 1,5mm aus einem Abstand von 2,25m fotografiert):

Meine Rechnung dazu ist so: Der Sensor hat 6000px in der Breite, das macht bei einem KB Sensor (oben wurde ich belehrt: der Breite 35,85mm) dann 167 px/cm. Mit dieser Vorgabe habe ich nun mein Bild aus Lightroom exportiert. Dann habe ich im Bildbetrachter IrfanView das Bild geöffnet und ein Quadrat um die Balkengruppe 0, Element 4 gezogen. IrfanView zeigt mir an, dass das Quadrat 6x6px misst.) Zumindest die Größenordnung ist glaubwürdig.

Irritierend für Euch Helfer war vermutlich mein ursprüngliches Bild, bei dem ich einen "Druck" aus Lightroom exportiert habe, der überhaupt nicht den echten Pixeln entspricht. Aber in dem Fall sollte es ja auch nur der Veranschaulichung von Punkten und Linien dienen.

Aufgrund der Anregungen von oben und meiner Überlegungen vermute ich nun, dass ich mit meiner 24MP Kamera die Objektive überhaupt nicht sinnvoll vermessen kann, weil ihre Auflösungsfähigkeit die des Sensors überschreitet.
Das erklärt auch, warum sehr viele Objektive ganz ähnlich abschneiden.

Theorie ist wichtig, aber scharfe Bilder sind Dein Ziel und wie Du feststellst, welche Linse das bei welcher Blende optimal kann.

Nach Augenmaß kann ich auch mit meinen Testbildern sehr gut "sehen" wo ein Objektiv die Bestleistung bringt, wo es noch unter einem Schleier von sphärischen Aberrationen leidet, wo die Diffraktion einsetzt und wie stark sie am "engen" Ende ausgeprägt ist.

NUR: Die eigentliche Hauptintention war es, meine 50 Objektive nach Leistungsfähigkeit (z.B. bei Optimalblende) zu vergleichen. Das scheint mir aber relativ unmöglich geworden zu sein mit meinen Möglichkeiten.

Vor diesem Hintergrund muss man es nicht beliebig kompliziert machen, der Weg über Mirentafeln ist gut. Vielleicht probierst Du, statt 90 Grad oder 45 Grad einmal 30 Grad Winkelung in der Bildmitte. Bayer hat bei 45° und 90° Vorzugsrichtungen, die bei 30° fehlen, nur so als Idee.
In den Randbereichen des Objektivs ist auch grob 30° Winkelung besser, um die radiale von der tangentialen Auflösung zu trennen, das machen alle so.

Weitere Bilder werde ich mit schiefen Testtafeln machen. Auch wenn ich glaube, dass es kaum einen Unterschied machen wird.

Trotzdem freue ich mich über weitere Anregungen. Ich lerne auf jeden Fall immer in bisschen was dazu. Am liebsten wäre mir die Bestätigung über die Sinnlosigkeit meines Unterfangens (als Expertenmeinung) oder umgekehrt ganz praktische Tipps dazu, wie es doch noch gelingen kann.


VG, Rolf
 
WERBUNG
Zurück
Oben Unten