• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Auflösung Linienpaare/mm - Verständnisfrage

MeikelTi

Themenersteller
Ich verstehe die Auflösung in Linienpaare/mm nicht.
Folgendes habe ich verstanden:
Um die Auflösung von Kameras und Objektiven miteinander zu vergleichen, kann man die Linienpaare pro Millimeter angeben. Darüber hinaus kann man die Linienpaare pro Millimeter in prozentuale Beziehung zur maximal möglichen Auflösung setzten. Denn eine Kamera mit 24 Megapixel löst geringer auf als eine mit 50 Megapixel.
Was ich nicht verstehe:
Im Netz finden sich unterschiedliche Angaben. Bei traumflieger.de (https://www.traumflieger.de/objektivtest/open_test/canon_50_14/overview.php) finden sich Werte in den 1000ern, bei digitalkamera.de (https://www.digitalkamera.de/Zubehör-Test/Testbericht_Canon_EF_35_mm_1_4_L_II_USM/9759.aspx) in den 10ern. Sicher, es sind zwei unterschiedliche Objektive an zwei unterschiedlichen Kameras, doch ich habe nicht verstanden, warum hier 1000er- und dort 10er-Werte angegeben werden.
 
Zuletzt bearbeitet:
Ohne jetzt die Vergleiche in den Links angesehen zu haben:

1000e von Linienpaaren pro Millimeter halte ich für unwahrscheinlich, zig durchaus üblich.
Vermutung: im ersten Fall sind Linienpaare pro Bildhöhe gemeint?
 
Vermutung: im ersten Fall sind Linienpaare pro Bildhöhe gemeint?
Da vermutest du meiner Vermutung nach richtig. Deshalb steht ja bei dem einen Test auch "Linien" und bei dem anderen "lp/mm (Kleinbild-äquiv)". So ein Kleinbild hat ja 24 mm Höhe. Nehme ich also die gemessenen ca. 100 lp/mm mal 24, so komme ich auf etwa die Werte, die man im anderen Test ablesen kann (knapp 2300 Linien). So dürften die Zahlen ja passen. (In den Links wurden aber zwei verschiedene Objektive verglichen.)
 
Danke. Das bedeutet, dass einmal die absoluten Werte angegeben werden und anderes mal die relativen. Die Höhe des Sensors ist bekannt: 24 mm. So bedeuten relative 50 Linienpaare pro mm bei einer Höhe von 24 Millimetern absolut 1200 Linienpaaren für den gesamten Sensor.
Danke, so kann ich vergleichen.
 
Re: Auflösung Linienpaare pro mm — Verständnisfrage

Folgendes habe ich verstanden: [...]
Ich fürchte, da hast du gar nichts verstanden, sondern dich von den heutzutage üblichen Narreteien in die Irre führen lassen.

.
Um die Auflösung von Kameras und Objektiven miteinander zu vergleichen ...
Man kann die Auflösung von Kameras und Objektiven nicht miteinander vergleichen. Man kann nur die Auflösungen von Bildern miteinander vergleichen. Und die Auflösung eines Bildes wird stets (in Sinne von: immer) sowohl vom Sensor als auch vom Objektiv begrenzt. Und dazu noch von weiteren Faktoren.
 
AW: Re: Auflösung Linienpaare pro mm — Verständnisfrage

Man kann die Auflösung von Kameras und Objektiven nicht miteinander vergleichen. Man kann nur die Auflösungen von Bildern miteinander vergleichen.


Man kann die Bilder von bestimmten Kameras und Objektiven miteinander vergleichen, mein Gott. Dass das immer bildbezogen gemeint ist, ist doch klar!

Aber ich schliesse mal eine Frage an: wenn ich Tests der Kameras lese und dazu die absoluten Auflösungen vergleiche, fallen mir Diskrepanzen zu meiner Wahrnehmung auf. Konkret: Die Fuji X-T3 hatte in einer Fotozeitschrift ca. 2200-2300 Lp/Bh, die Nikon Z6 unter 2000. Die X-T3 löste also feiner auf, hat ja auch ganze 2MP mehr. Klar, die Objektive, mit denen gemessen wird, sind unterschiedliche. Dennoch: Warum empfinde ich die Bilder der Z6 als feiner aufgelöst? Ich kann mir x Bilder (in etwa) gleicher Motive der beiden Kameras bei flickr ansehen und draufklicken. Immer "gewinnt" in meinem Beispiel die Nikon, und das auch schon mit dem Kitobjektiv 24-70/4. Wie kommt's? Gibt es doch den KB-Look?
 
AW: Re: Auflösung Linienpaare pro mm — Verständnisfrage


Da kann man nur spekulieren. Ich halte Vergleiche von Objektiv/Sensor -Paaren für sehr problematisch und interessiere mich eigentlich nur für Vergleiche von Objektiven am selben Sensor.

Vielleicht erkennt die Fuji die Testsituation und entrauscht bereits die Rohdaten entlang der Linien, während die Nikon traditionell entrauscht? Vieles ist möglich.
 
Hier finde ich diese Angaben:

Labortest (Tageslicht): Detailgenauigkeit / Schärfe 2132 / 1344 Linienpaare

Kann mir jemand erklären, wie Detailgenauigkeit bzw. Schärfe bestimmt werden?
 
vermeintlich "absolute" Auflösungszahlen sind alles Andere als absolut

Ich habe geringfügig physikalische Optik studiert und möchte ein wenig zur Beruhigung beitragen.
Es ist einerseits ein menschliches Interesse: "meine Objektiv kann soundsoviel" wie auch ein kommerzielles Interesse der Magazine, (Pseudo-) Daten zu liefern.
Es ist nicht schwer, es ist unmöglich, Auflösung in 5 Minuten zu behandeln.
Mehrere Verfahren:
- Objektiv auf eine optische Bank und mit einem Mikroempfänger das abgebildete Wellenmuster abfahren, aufzeichnen, auswerten
- Früher: maximal auflösenden Film in die Kamera tun, fotografieren, entwickeln, unter dem Mikroskop visuell auswerten oder automatisch einen Graphen erstellen
- Objektiv auf eine Digitalkamera tun und Mirentafeln aufnehmen
Egal, welchen Weg man geht, alle Zahlen fallen unterschiedlich aus.
Weitere Faktoren:
- Physikalisch definiert muss das Objekt eine harmonische Welle sein, also sinusförmig heller und dunkler werden. Werden schwarz/weisse Balkenraster verwendet, ist die praktische Auflösung um einen bestimmten Faktor höher wg des besseren Objektkontrastes, also geschönt. Fast alle praktischen Tests erfolgen mit reinen schwarz-weiss-Mustern, physikalisch unsauber.
- Die Schärfe / Auflösung erfolgt durch Auswerten der MTF ( modulation tranfer function) Kurve. Dazu muss man definieren, bei welchem Y-Wert man die Auflösungsgrenze definiert, üblich sind 30% Restmodulation, die bleiben müssen. Ein Pleite gegangener deutscher Fotokonzern hat die Daten seiner Filme so geschönt, dass er die Auswertung dort vornahm, wo die Kurve in der X-Achse verschwand, d.h. er hat z.B. 5% Modulation noch als praktisch verwertbar angegeben, zu Filmzeiten ein Unding.
- Es gibt effektive Methoden zur Schärfe/Auflösungssteigerung. Die klassische Methode ist unscharfe Maskierung, eher bekannt unter Scharfrechnung oder Nachschärfung. Das ist nichts Ehrenrühriges, das machen ALLE. Selbst der Film hat früher während der Entwicklung durch fotochemische Nachbareffekte sich selbst nachgeschärft, ich habe solche Brühen hergestellt.
- Auf einem wissenschaftlichen Vortrag (vom Schweizer Militär) durfte ich mit ansehen, wie Aufnahmen, auf denen das menschliche Auge zuerst nichts erkannt hat, nach ausgefuchster Behandlung mit Fouriertransformationen klar lesbare Schrift hervorbrachten. Was ist nun Auflösung? Die Information war ja im Bild drin!
Glaube keiner Statistik, die Du nicht selbst mitgefälscht hast, und glaube keiner Auflösungszahl, deren Randbedingungen der Erstellung Du nicht in jedem Detail kennst.
Diese Details kennen wir nicht.
Früher war unter den Filmherstellern Kodak der Seriöseste, denn Kodak hat dokumentiert, was und wie sie messen. Wer legt das heute noch offen im Digitalzeitalter?
In weiten Grenzen behaupte ich: legt ein Objektiv mit Sensor vor und wir finden einen Testaufbau, eine Nachbearbeitung und eine Auswertung, die eine gewünschte Zahl ergibt, hört sich vermessen an, ist letztlich aber fast nur eine Frage des Aufwandes oder der Methode.
Einige haben es bereits vermutet: diese Zahlen sind im direkten Vergleich nützlich, wenn man sonst alles gleich lässt. Diese Vergleichbarkeit ist aber selten gegeben.
Fuji rechnet sich dumm und dusselig zum Erreichen von guten Zahlenwerten.
Ich habe nichts gg Fuji, ganz im Gegenteil, die können was, sind innovativ, haben z.T. sehr gute Produkte (auch wenn der Trans-Sensor letztlich weniger auflöst als ein Bayer ohne AA).
Wer ein digitales Bild nicht scharfrechnet, bekommt Augenkrebs. Ich gebe mir viel Mühe, zu Fuss ein raw so scharf zu bekommen wie ein gut gemachtes jpg (z.B. Pentax KP). Ohne Scharfrechnen geht NIX! Aber hat das Scharfrechnen etwas mit der Auflösung des Objektives zu tun? Natürlich ja, das primäre Abbild des Objektes durch das Objektiv auf den Sensor ist aber nur die Basis für die nachfolgende Bildverrechnung / -bearbeitung.
Also müssten wir 10 Objektive nehmen, alle elektrischen Kontakte abkleben, auf ein allseits anerkanntes Gehäuse montieren, nach VORHER festgelegten Regeln die raws bearbeiten und so kämen wir der Prawda schon ein wenig näher. Wenn wir ein identisches Objektiv auf 10 verschiedene Gehäuse montieren, bekommen wir das Problem, dass die Optikrechnung den Filterpack vor dem Sensor optimal berücksichtigen muss. Ein Pentax-Objektiv auf einer mft-Kamera ist da falsch. Den Rechenweg vom Sensor auf die Speicherkarte kennen wir nicht, das ist das Pfund der Hersteller, das würde ich auch keinem verraten.
Wenn Kamerahersteller X jetzt in seiner Bildmaschine pfiffiger rechnet als Hersteller Y, kann Hersteller X mit einem "schlechteren" Objektiv oder einem "schlechteren" Sensor Hersteller Y überholen. Wir sehen ein Gesamtergebnis, das aber noch nicht final ist, weil unsere persönliche Nachbearbeitung noch kommt.
PS erlaubt mir eine Unscharfmaske mit 500% und radius 0,1px.
Wenn ein neuer PS mir 2000% mit rad 0,05px ermöglichen würde, werde ich schärfer.
Der Kamerahersteller hat diese Beschränkungen in seinen jpgs nicht, der programmiert das frei, deshalb kommt der weiter als ich mit PS.
Pentax demonstriert das mit der Nachschärfung im Modus "hohe Schärfe" bzw EX, leider haben die in diesem Modus die Schwelle falsch programmiert, sont wäre das der Knaller. Fuji ist bekannt dafür, in verschiedenen Bildregionen und bei verschiedenen Objektiven anders zu rechnen.
Ich hänge mich ins Fenster und fotografiere jahraus jahrein meinen Garten, die Weide dahinter und dann den Waldrand. In meinem kleinen System kann ich vergleichende Auflösungsaussagen machen, und so macht Ihr es auch, vertraut Euren Augen und Eurem sauberen Handwerk im Zweifelsfalle mehr als den Zahlen der Industrie, zumindstens ich kann damit nichts anfangen.
allzeit gutes Licht, Grüsse aus der Eifel
maro
 
Zuletzt bearbeitet:
Re: Auflösung Linienpaare pro mm — Verständnisfrage

Die Fujifilm X-T3 hatte in einer Fotozeitschrift ca. 2200 - 2300 Lp/Bh ...
Das ist bei 6240 × 4160 Pixel (26 MP) schon rein mathematisch nicht möglich, und physikalisch schon einmal gleich gar nicht. Diese Fotozeitschrift kannst du also in die Tonne treten.
 
Fuji rechnet sich dumm und dusselig zum Erreichen von guten Zahlenwerten.

Ich würde Fuji noch zu den vergleichsweise "ehrlichen" Firmen rechnen. Ich habe hier

https://www.dslr-forum.de/showpost.php?p=13871470&postcount=16

jedenfalls gezeigt, dass sie ihre Raws - im Gegensatz zu Sony - nicht vorschärfen.

X-Trans hat gegenüber Bayer Auflösungsvorteile im Grün- und Nachteile im Blau-Rotbereich. Es ist nicht zuletzt eine Frage der Software, welches Spektrum zur Strukturerkennung als Basis der Detailwiedergabe dient. Adobe - z.B. von dpreview genutzt - schneidet hier m.E. bei Fuji eher schlecht ab und ist keine gute Vergleichsbasis.
 
AW: Re: Auflösung Linienpaare pro mm — Verständnisfrage

Das ist bei 6240 × 4160 Pixel (26 MP) schon rein mathematisch nicht möglich, und physikalisch schon einmal gleich gar nicht.

So eng würde ich das nicht sehen. Es gibt diverse Möglichkeiten, die MTF eines Sensors mathematisch zu definieren und einige dieser MTF haben vertikal oder horizontal die doppelte Nyquistfrequenz des Sensors als Grenzfrequenz. Diagonal ist die Grenzfrequenz sogar noch höher. Die Objektiv/Sensor-Tester verraten leider nie, welche MTF Version sie für den Sensor verwenden.
 
AW: Re: Auflösung Linienpaare pro mm — Verständnisfrage

Ich kann mir vorstellen, dass es am "X-Trans" liegt? Der liefert für's menschliche Auge eine geringere Pixelschärfe als "Bayer"?!
www.dpreview.com/reviews/image-comparison

Das gibt es so wieder, wie ich es ebenfalls empfinde. Dort wirken auch die BIlder meiner früheren X-Pro2 i.V. zur X-T3 eine Idee knackiger, was ich ebenfalls so in der Praxis empfinde (bei gleicher Linse, eh klar!). Schon witzig und erfreulich, dass mich mein Sehsinn diesbezüglich nicht irrt!
 
... Denn eine Kamera mit 24 Megapixel löst geringer auf als eine mit 50 Megapixel. ...
kommt drauf an ... :D

Der 61-MP-Sensor einer Sony A7RIV löst mit 132 Pixelpaaren/mm deutlich geringer auf, als der 20-MP-Pixel-Sensor einer Sony RX100VII (207 Pixelpaare/mm; Effekte eines AA-Filters mal ausgeklammert). Alleine das mag veranschaulichen, dass man sich die jeweiligen Definitionen sehr genau ansehen und verstehen sollte, bevor man sich durch das halbe (oder ganze) Dutzend verschieden gewählter Definitionen in die Irre führen lässt.
 
Kommt nicht drauf an!:p

"Megapixel" ist eine konstante Größe, deine "Pixelpaare/mm" hingegen nur eine relative (nämlich zur gesamten ausgelesenen Sensorfläche).
 
. So ein Kleinbild hat ja 24 mm Höhe. Nehme ich also die gemessenen ca. 100 lp/mm mal 24, so komme ich auf etwa die Werte, die man im anderen Test ablesen kann (knapp 2300 Linien). So dürften die Zahlen ja passen. (In den Links wurden aber zwei verschiedene Objektive verglichen.)

Allerdings bestehen 100 Linienpaare aus 200 Linien. ;)
 
vordergründige Rechnung, erweiterte Rechnung, Praxis
Ein Sensor mit 4000 px in der Höhe wäre gedacht erst einmal in der Lage, 2000 Linienpaare darzustellen.
Das ist leider falsch.
Das gilt noch nicht einmal für einen Monochrom-Sensor, also ohne Bayer.
Wenn Herr Bayer dazukommt, wirz noch weniger, es wird interpoliert und interpretiert, angenommen und grenzwertig gelogen. ( nicht Ihr, die interne BV).
Jetzt das Gedankenexperiment:
Für ein Linienpaar in Pixelbreite braucht Ihr eine Reihe heller Pixel nebeneinander und eine Reihe dunkler Pixel nebeneinander ( im angenommenen SW-Modus).
Jetzt bewegt die Kamera um 1/2 Pixel Schwenkwinkel quer zur Linienrichtung: es resultiren nur GRAUE Pixel, halb weiss und halb schwarz belichtet, die Auflösung ist NULL.
Wer merkt etwas?
Man kann ( nicht ich hier und heute, aber Mathematiker können das) berechnen, wieviele Pixel man braucht, um ZUVERLÄSSIG ein Linienpaar darzustellen. Ich habe das Ergebnis gelesen, kann keine Referenz oder Formel präsentieren, mir reicht das grundlegende Verständnis: es sind ca. 3 px für die Darstellung eines Linienpaares nötig, wenn die Rest-Modulation ausreichend sein soll, das Linienpaar sicher (also ohne Artefakte/Fehler) darzustellen.
Jetzt fragen wir noch Herrn Bayer, was er uns abzieht, wenn er an Stellen, wo keine wirklich komplette Info vorgelegen hat, eine vermeintlich komplette Info an diesen Bildort hinrechnet.
------------------
Ich war lange reiner Analog-Fotograf und habe miterlebt, wie die Digitalwelt uns vorgerechnet hat (oder vorzurechnen versuchte) wie hoch die Auflösung von digitalen Sensoren ist. (die hatten den kommerziellen Druck) Dabei kam immer wieder die selbe Masche, eine Pixelzahl mit einer Auflösung gleichzusetzen. Das ist aber leider nicht so.
Heute bin ich überzeugter Vertreter der Digitalfotografie, aber versuche, mir bewusst zu sein, was Zahlen erklären können und was nicht.
Ich habe grossen Respekt vor Mathematikern und Ingenieuren der Digitalfotografie, aber ein Pixel ist nicht gleich einem sauber abgebildeten Punkt. Dafür braucht es mehrere Pixel.
Das Dilemma kommt nach meinem Verständnis historisch auch daher, dass die Digitalfotografie gezwungen war, sich mit einem zahlenmässigen Vergleich der Analogfotografie zu stellen und ihn gewinnen wollte, oder zumindestens gleichziehen.
In der heutigen Praxis sehe ich, dass ein 24 Mio Sensor so gut ist wie ein erstklassiges Kodachrome 25-Dia. Der Unterschied ist nur, die Datei kann ich verbessern, das Dia nicht, insofern bin ich Fan der Neuen Zeit, sie ermöglicht einfach mehr.
Ich habe einst mit einem massgeblichen Schneider-Kreuznach-Mann gesprochen, der berichtete mir:
Als die Digitalfotografie kam, dachten wir, da können wir schnell ein paar Objektive machen, der Anspruch der (damaligen) Sensoren ist ja nicht so hoch. Schneider hat damals schnell und richtig gelernt:
Die Endqualität eines Bildes ist das PRODUKT der mtf-Werte der Einzelkomponenten. Wenn eine Komponente mässig ist, ist es nötig, die andere Komponente erheblich besser zu machen.
Schlecht x schlecht gibt schlecht zum Quadrat.
Mässig x spitzenmässig ergibt gut als Produkt.
Das ist die Kombi aus Physik und Mathematik.
Heute liegt viel Potential darin, die Beschränkungen durch Bayer zu verlassen, der Pickselschub von Pentax und Olympus sind echte Verbesserungen, die man einwandfrei sehen kann, Respekt.
Man kann über andere Wege als Bayer nachdenken, Sigma tut es, Fuji tut es, es gibt noch weitere Optionen, die mehr können sollten, Fuji hatte das mit sechseckigen Pixeln einst angedacht, aber nicht richtig optimiert, da geht mehr, das kostet Geld und die Hersteller müssen den Sony-Mainstream verlassen, Fuji und Oly wären die Kandidaten mit dem grössten Interesse oder Nutzen.
Es bleibt chpannent
Grüsse aus der Eifel
maro
 
Hmmm :rolleyes:, da hast du wohl Recht. Dann geht meine Rechnung aber wieder nicht auf. Das ist wohl auch der Grund, weshalb ich lieber Fotos anschaue als Diagramme, oder noch schlimmer, Zahlen zu vergleichen... ;)

Reingefallen! :p

Jede Linie, außer die oberste und die unterste, ist Teil von 2 Linienpaaren (einmal als obere, einmal als untere Linie). Also LP= Linien minus 2.

Aufgrund dieser zahlreichen mathematischen Probleme versuche ich bei meinen Fotos grundsätzlich, parallel verlaufende Linien zu meiden; Sterne nur, wenn kein Siemensgerät im Bild zu sehen ist.
 
WERBUNG
Zurück
Oben Unten