• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Maximale Auflösung von Objektiven

Wieso ist die Annahme, daß die MTF von Objektiven einen Tiefpaß-Charakter hat, praxisfremd?
Ganz im Gegenteil, aber Du hast in Deine Ausführungen die Annahme gesteckt, daß die Kontrastübertragung immer hoch genug ist, wie zitiert sogar konstant. Bei realen Systemen zieht nicht die Nyquistgrenze die Wahrnehmbarkeitsgrenze, sondern eben der Kontrast.

Ganz abgesehen davon ist der menschliche Schärfeeindruck beim Betrachten eines Bilds mit dem Quadrat der MTF korrelliert. Soll heißen, daß Wahrnehmbarkeit und Schärfe verschiedene Paar Schuhe sind und mithin Dein Modell zu einfach für eine praxisrelevante Betrachtung.
 
Ganz im Gegenteil, aber Du hast in Deine Ausführungen die Annahme gesteckt, daß die Kontrastübertragung immer hoch genug ist, wie zitiert sogar konstant. Bei realen Systemen zieht nicht die Nyquistgrenze die Wahrnehmbarkeitsgrenze, sondern eben der Kontrast.

Ganz abgesehen davon ist der menschliche Schärfeeindruck beim Betrachten eines Bilds mit dem Quadrat der MTF korrelliert. Soll heißen, daß Wahrnehmbarkeit und Schärfe verschiedene Paar Schuhe sind und mithin Dein Modell zu einfach für eine praxisrelevante Betrachtung.

Ist es damit nicht eine Frage des Grenzwertes für die MTF? Der Ansatz mit den LZI-Systemen kann übrigens auch erfolgreich auf das menschliche Sehen übertragen werden (siehe "Systemtheorie der visuellen Wahrnehmung" von Gert Hauske). Die Schärfe ist nicht nur eine subjektive Empfindung, sondern hängt auch von weiteren Faktoren wie z.B. Helligkeit ab.

Vom Hundertsten kommt man ins Tausendste und es bleibt bei der beinahe religiösen Diskussion der Auflösung. Wäre es da nicht einfacher, mit Hilfe einer Näherung, welche die Parameter mit dem größten Einfluß berücksichtigt, den "tatsächlichen Bedarf" an Auflösungsvermögen abzuschätzen, um zum eigentlichen Thema dieses Thread zu kommen?
 
Es ist im Laufe der Diskussion einiges angeschnitten worden, was wichtig für die Antwort auf meine Frage ist.

Zunächst einmal stimme ich zu, dass technische, elektronische und optische Limits nur Teilaspekte der Fotografie sind. Ich stimme überein, dass die Bildgestaltung viel wichtiger ist, als das Pixel zählen. Doch wie richtig erwähnt, wird das Pixel- und Linienzählen bei Neuanschaffungen interessant, so man kein Geld wirkungslos zu verpfeffern hat.

Mir geht es nicht um einen theoretisch scharfen Grenzwert, der in der physik der Optik erreichbar wäre, sondern um die umsetzbare Praxis. Ich gehe davon aus, dass im Budget einer Spiegelreflexausrüstung, das meist unter 10.000 Euro liegen dürfte, mehrere Optiken mit drin sind, und dass die Kalkulation der Herstellungskosten dieser Objektive den Produzenten gewisse Limits setzt, was die optische Qualität der Systeme angeht.

Ich denke weiters, dass die DSLR-Fotografie in den nächsten fünf Jahren nicht von den derzeitigen Limits abheben und neue Schärfesphären erreichen wird. Nicht weil ich mich selber in der Materie auskenne, sondern weil ich denke, dass sich die Leute bei Leica damit auskennen und sich was dabei denken werden, wenn sie jetzt ein S-System mit 45 x 30 Sensor und derzeit spekuliertem Verkaufspreis von 25.000 Euro.

Was mich bei meiner Frage vor allem interessiert ist, ob man mit derzeit üblichen Objektiven in Preissegmenten zwischen ca. 1.000 und ca. 2.000 Euro (exklusive der teuren lichtstarken Tele- und Superteleobjektive) bei einer Aufrüstung von ca. 10 MP auf ca. 20 MP überhaupt eine wahrnehmbare Verbesserung im Endprodukt - einem hochwertigen Print - erreichen kann. Dazu wäre eben die Stimme eines Nutzers interessant, der tatsächlich schon diesen Schritt gegangen ist oder der soetwas testen konnte.

Für die Praxis ist dann eben auch immer das abwägen wichtig: Was passiert mit dem Rauschen bei mehr Auflösung? Was macht das zusätzliche Gewicht mit der Leistung und Speicherkapazität meines Computersystems? Und brauche ich überhaupt mehr Auflösung?

Ich bin recht begeistert von meiner D700, weil sie wirklich sehr geringes und dann charmantes Rauschen fabriziert. Dass sie dabei im derzeitigen MP-Rennen mit 12MP eher einen Nachzügler darstellt nehme ich dabei gerne in Kauf. Dafür ist sie wieder richtig flott. Langfristig halte ich aber wie bereits dargestellt 20MP für einen guten Grenzwert für KB DSLRs für einen breiteren Markt, weil ich damit wirklich A3 mit 300ppi abdecken kann (mit breitem Markt meine ich hier nicht den wirklich großen Massenmarkt der Gelegenheitsfotografen).

Über dieser Auflösung hinaus sehe ich schon auch sinnvolle Anwendungen für höher aufgelöste Systeme. Ein bekannter von mir fotografiert Landschaften im Panorama mit digitaler MF. Der kann Bilder printen lassen, die drei Meter breit und einen Meter hoch sind, und bei denen man immer noch bis an die Nasenspitze ans Foto ran treten und Details bestaunen kann. Aber dass so eine Auflösung von Optik wie Sensor in absehbarer Zeit bei KB DSLR möglich ist, kann ich mir nicht vorstellen.
 
Die meisten werden kaum jemals A3 Ausdrucke machen und haben daher für 3 Quadratmeter-Bilder :D erst recht keine Verwendung. In absehbarer Zeit ( nächsten 5 Jahre) wahrscheinlich nicht, aber sicher sein? Gerade Canon scheint noch einiges in der Pipeline zu haben (gapless microlenses aus der 50 D adaptiert für die neuen 1er.. vielleicht), was mit anderen Markenherstellern ist kann ich nicht sagen.

Ich habe jetzt den Threadverlauf nicht mehr in Erinnerung: Letztlich ging es um die praktisch sinnvolle Kombination von Objektiven und Sensorauflösung, wobei der limitierende Faktor mal das eine, mal das andere Element ist oder war.

20 MP halte ich mittelfristig für ausreichend, aber die Spirale wird da nicht enden. Der Kauf guter Objektive ist also sinnvoll. Ob es jetzt die besten sein müssen, sei dahingestellt. Als praktische Empfehlung kann man ordentliche Festbrennweiten der Hersteller empfehlen, deren Kontraststärke und Auflösungsvermögen in der Regel besser ist als jene von Zoom-Objektiven. Diese sind in der Regel auch halbwegs erschwinglich und sollten ( siehe mein Beispiel mit der 5 D und der 1 Ds III) auch bei 20 MP Auflösung noch ihr Ding tun.
 
Zuletzt bearbeitet von einem Moderator:
Gerade in der Werbung ist mehr als A3 kaum einmal sinnvoll. Poster und Plakate werden von fern betrachtet und meist mit sehr groben Rastern gefahren. Ich sehe den Wert von mehr Pixelauflösung, Schärfe und Kontrast in erster Linie in Bereichen der Kunst, bzw. wie bei dem von mir genannten Landschaftsfotografen, der seine Panoramen tatsächlich in der genannten Größe reproduziert und diese dann im öffentlichen Raum ausstellt.

Die Ursprungsfrage war, wo die Auflösung von Sensoren für KB-DSLRs so groß wird, dass das Mehr an Pixeln in der Unschärfe marktüblicher Objektive untergeht und damit keinen Zusatznutzen liefern, d.h. nicht mehr in einem höheren Schärfeempfinden der Prints resultieren.

Bisher reichen die Meinungen von 10MP sind für aktuelle Objektive genug, bis 100MP ist für KB-Objektive locker drin.

Bin ich eingangs noch davon ausgegangen, dass die optischen Leistungen von bezahlbaren Objektiven zwischen 20 und 30 MP völlig ausgereizt sein dürften, hat sich diese Meinung durch die Diskussion schon wieder aufgeweicht.

Im Gegenzug hat sich mein Eindruck verstärkt, dass 20MP ausgegebene Bildauflösung auch langfristig genug sein sollten, von Ausnahmen abgesehen, in denen ich aber nach wie vor eher die MF sehe. Ich bin gespannt, was die 5D bringen wird. Was ich bisher von der A900 gesehen habe, lässt mich vermuten, dass Sony zu weit gegangen ist. Dort wird eine zugegebenermaßen bei niedrigen ISO-Werten beeindruckende Detailschärfe mit einem schon bei ISO800 deutlich sichtbaren, äußerst hässlichen Farbrauschen erkauft, was die Kamera für mich absolut disqualifiziert.
 
Wäre es da nicht einfacher, mit Hilfe einer Näherung, welche die Parameter mit dem größten Einfluß berücksichtigt, den "tatsächlichen Bedarf" an Auflösungsvermögen abzuschätzen, um zum eigentlichen Thema dieses Thread zu kommen?

Sicher, statt eines vollständigen Modells nehmen wir eine Näherung. Da stimme ich Dir voll zu. Aber wie gut ist die Näherung? Warum dürfen wir die von Dir vorgeschlagenen Vereinfachungen machen, und welchen Fehler handeln wir uns damit ein? Wie muß ich die Zahl, die bei Deiner kleinen Dreisatzübung herauskommt ("Wenn 4m Auto auf 36mm Sensor abgebildet werden, wie groß ist die Abbildung eines Kratzers von 2mm?") interpretieren?

Um mich vielleicht etwas präziser auszudrücken: Mich interessiert, was am Ende auf dem Ausdruck oder Bildschirm zu sehen ist. Das hat aber wesentlich mit der Kontrastübertragung des Gesamtsystems Objektiv + Kamera + Bildverarbeitung zu tun. Genau die hast Du aber per Voraussetzung ausgeblendet. Das geht in die selbe Richtung, wie die Minidiskussion darüber, was besser ist, eine höher Objektivauflösung oder eine höhere Sensorauflösung. Wenn wir wirklich nur über Objektivauflösung diskutieren, dann ist die Antwort ganz einfach: Beugungsgrenze - Konstruktionsgrenze - Fertigungsfehler.
 
Wenn wir wirklich nur über Objektivauflösung diskutieren, dann ist die Antwort ganz einfach: Beugungsgrenze - Konstruktionsgrenze - Fertigungsfehler.

Genau davon bin ich ausgegangen. Und dass oberhalb dieser Grenze die durch Physik, Konstruktion und Produktion gegeben ist, ein Mehr an Auflösung des Sensors nur mehr dazu führt, dass ein unscharfer Übergang an den schärfsten Stellen einer Aufnahme nicht mit zwei oder drei Pixeln aufgebaut ist, sondern mit vier oder sechs, was zwar dem Bild nicht schadet, aber die Datenmenge völlig unnötig in die Höhe treibt. Und ich dürfte ja auch mit meinem laienhaften Verständnis optischer Gesetze nicht ganz daneben liegen, dass es eine absolut scharfe Trennung nicht gibt!?

Das ist es sogar heute schon. Eine Reihe der Gigapixelbilder, die im Internet besprochen werden, sind mit ganz normalen Amateur DSLRs gemacht worden, durch zusammenfügen mehrere Einzelbilder.

Ja. Ist klar. Hab ich auch schon gemacht. Ist aber, wenn man das Panorama nicht nur in einer Dimension zusammen stitcht, sondern in zwei, sehr mühsam. Da habe ich den Eindruck, dass eine g’scheites MF-Equiptment schon der DSLR-Flickerei vorzuziehen wäre.
 
Zuletzt bearbeitet von einem Moderator:
Und ich dürfte ja auch mit meinem laienhaften Verständnis optischer Gesetze nicht ganz daneben liegen, dass es eine absolut scharfe Trennung nicht gibt!?

Das ist genau auch mein laienhaftes Verständnis der Optik. Mi67 hat es ja schonmal kurz gebracht: Die Gesamtauflösung ist ungefähr durch
1/R_gesamt = 1/R_Optik + 1/R_Sensor​
gegeben, wenn man die kamerinterne Bildverarbeitung wegläßt. Man erhält also die maximale Systemauflösung, wenn eine der beiden Einzelauflösungen unendlich hoch ist, sprich mehr ist besser. Es gibt keine Grenze für das Verhältnis der Einzelauflösungen. (Frage an die Experten: Wie belastbar ist die Beziehung eigentlich?)

Das darf man natürlich nicht damit verwechseln, daß es physikalische (Beugung) und systematische (Abtasttheorem) Grenzen gibt, die die Leistungsfähigkeit der Einzelkomponenten begrenzen. Außerdem gibt es natürlich auch noch praktische Grenzen, wie Preis :) und Nutzwert.
 
1/R_gesamt = 1/R_Optik + 1/R_Sensor​
...
Frage an die Experten: Wie belastbar ist die Beziehung eigentlich?
Auf der Optik-Seite kommt man damit recht gut hin, auf Seiten eines analogen Filmes auch noch in etwa. Bei digitalen Bildsensoren ist es so eine Sache, da sie nicht bei höheren Ortsfrequenzen monoton fallend eine Kontrastminderung erzeugen, sondern
a) per AA-Filter einen relativ scharfen cutoff setzen,
b) der Kontrastminderung durch digitales Nachschärfen begegnen und dadurch bei bestimmten Ortsfrequenzen gar mit Zunahme der Ortsfrequenz ansteigende Kontrastverläufe generieren können,
c) eine Richtungs-Gebundenheit in der Detailwiedergabe aufweisen und
d) je nach Kontrasttyp (Luminanzkontraste versus Chromakontraste) sehr unterschiedliche Auflösungen produzieren.


Welche alternativen mathematischen Modelle die Sachlage nun genauer beschreiben, damit könnte man vermutlich Bücher befüllen, ohne dass man hierdurch an der prinzipiellen Realität vorbeikommt: Sensor und Objektiv beschneiden *immer* gemeinschaftlich die mit dem System aus Optik und Sensor darstellbare Grenzauflösung. Auch gültig bleibt die schon mit gesundem Menschenverstand zu treffende Erkenntnis, dass ein stärkerer Zugewinn des Systems durch eine Verbesserung der der jeweils stärker beschränkenden Komponente erzielt wird. Dieser Optimierung werden ganz praktisch mehrerlei Grenzen gesetzt: Physik, Bedarf an Auflösung, Darstellbarkeit durch die angestrebten Ausgabemedien, Preis, Größe und Gewicht des Systems. Angesichts der mittlerweile erzielbaren MP-Zahlen wird man nicht umhinkommen, in diesem Wechselspiel sein persönliches Optimum auszuloten.
 
Sensor und Objektiv beschneiden *immer* gemeinschaftlich die mit dem System aus Optik und Sensor darstellbare Grenzauflösung.
Ok, also muß das "+" durch eine nicht ganz so lineare Funktion ersetzt werden. Ich orientiere mich sowieso lieber an MTF_Gesamt=prod(MTF_Optik, MTF_Sensor, ...)
Auch gültig bleibt die schon mit gesundem Menschenverstand zu treffende Erkenntnis, dass ein stärkerer Zugewinn des Systems durch eine Verbesserung der der jeweils stärker beschränkenden Komponente erzielt wird.
Sollte man meinen, aber Tenor im Forum ist doch eher, daß eine Kette nur so stark wie ihr schwächstes Glied ist, also R_Gesamt = min( R_Oktik, R_Sensor, ...)
 
Ok, also muß das "+" durch eine nicht ganz so lineare Funktion ersetzt werden. Ich orientiere mich sowieso lieber an MTF_Gesamt=prod(MTF_Optik, MTF_Sensor, ...)

Sollte man meinen, aber Tenor im Forum ist doch eher, daß eine Kette nur so stark wie ihr schwächstes Glied ist, also R_Gesamt = min( R_Oktik, R_Sensor, ...)


All diese Betrachtungen sind ohnehin rein theoretischer Natur, denn in der schnöden Praxis wir das Ideal durch ganz triviale Dinge wie Fokussiergenauigkeit, Verwacklungen und Justageungenauigkeiten reduziert.
Wie stark, wäre mal eine sehr interessante Frage.

Deshalb werden Objektiv- und Kamera-Tests meistens ja auch mit ganz massiven Studio-Stativen gemacht und zusätzlich auch noch Fokus-Serien, bei denen man die optimalen Aufnahmen selektiert.
In der Alltagspraxis dürfte wohl kaum ein Mensch diesen Aufwand treiben.

Interessant n diesem Zusammenhang ist vielleicht, welchen Aufwand Heinz Kilfitt in den 50/60er Jahren beim Testen von Objektiven getrieben hat:

http://www.alpareflex.com/Lenses/Kilfitt.htm
 
Angesichts der vielen Fokustests hier im Forum würde ich Deine Diagnose so nicht unterstützen.

Fehlfokussierung setzt nur die Werte der MTF herab, ändert aber nichts am Argument. Mit LiveView ist das sowieso kein Thema mehr.


Dazu kann ich nur sagen:
Viele fühlen sich zwar berufen, aber die Wenigsten sind es. ;)

Dieser Punkt spielt übrigens auch noch eine nicht ganz unwesentliche Rolle:

http://www.diax.nl/pages/perception_printquality_uk.html

Die gesamte Thematik ist mit enorm vielen Variablen gespickt, die man nicht isoliert betrachten kann. Schließlich ist doch das Ziel, mit vertretbarem Aufwand Augen zufrieden zu stellen.
 
Dazu kann ich nur sagen:
Viele fühlen sich zwar berufen, aber die Wenigsten sind es. ;)
Schon, aber das Interesse ist da, wohingegen Du meintest, daß die wenigsten Leute so etwas interessiert.

Sicher kann man das Thema auch durch individuelle Sehfähigkeit noch verkomplizieren, aber ich würde die Diskussion auf die empirisch festgestellten Werte z.B. der Fernseh- und Videomacher festlegen wollen, z.B. Otto Schade für RCA ("optical transfer function"). Nicht daß ich wirklich verstanden hätte, was da steht :)
 
Sicher, statt eines vollständigen Modells nehmen wir eine Näherung. Da stimme ich Dir voll zu. Aber wie gut ist die Näherung? Warum dürfen wir die von Dir vorgeschlagenen Vereinfachungen machen, und welchen Fehler handeln wir uns damit ein? Wie muß ich die Zahl, die bei Deiner kleinen Dreisatzübung herauskommt ("Wenn 4m Auto auf 36mm Sensor abgebildet werden, wie groß ist die Abbildung eines Kratzers von 2mm?") interpretieren?

Die Interpretation bleibt natürlich jedem einzelnen überlassen. Es geht um eine Abschätzung, keine Weltformel. :-) Erstere basiert auf etablierten Konstrukten der Physik (Bildwinkel, MTF etc.), vernachlässigt Variablen (Bildfeldwölbung, Beugung etc.) und klammert Volatilität (Sensor-Technologie, DSP etc.) aus.

Diese Abschätzung gewinnt IMHO an Glaubwürdigkeit, je mehr sie mit der eigenen Erfahrung korreliert. Umgekehrt verliert sie an Glaubwürdigkeit, wenn das Gegenteil der Fall ist.

Um mich vielleicht etwas präziser auszudrücken: Mich interessiert, was am Ende auf dem Ausdruck oder Bildschirm zu sehen ist. Das hat aber wesentlich mit der Kontrastübertragung des Gesamtsystems Objektiv + Kamera + Bildverarbeitung zu tun. Genau die hast Du aber per Voraussetzung ausgeblendet.

So wie auf das Motiv, kommt es natürlich auch auf das Ergebnis und damit die ganze Verarbeitungskette an. Wie schon geschrieben, sind Kamera(-Elektronik) und weitere Verarbeitung zusätzliche Unbekannte und würden den o.g. Dreisatz um einiges komplexer machen. Sicherlich kann man einen Teil davon über feste oder variable Faktoren abfangen, die z.B. auf Erfahrungswerten beruhen. Ferner läßt sich jede Kette in einzelne Glieder zerlegen und mit Hilfe der Systemtheorie betrachten.

Das wäre z.B. "unscharf Maskieren".

Code:
      +------------| a |------------+
s(x)  |                             | s'(x)
--->--+                            (+)-->--
      |                             |
      +---| b |--| A(f) |--| -1 |---+

Hier sind a und b Faktoren, die den Grad der Schärfung festlegen und A(f) die Übertragungsfunktion eines TP (mit einstellbarer Grenzfrequenz).
 
Sicher kann man das Thema auch durch individuelle Sehfähigkeit noch verkomplizieren, aber ich würde die Diskussion auf die empirisch festgestellten Werte z.B. der Fernseh- und Videomacher festlegen wollen, z.B. Otto Schade für RCA ("optical transfer function"). Nicht daß ich wirklich verstanden hätte, was da steht :)


Es ging mir keineswegs darum, etwas zu "verkomplizieren".

Die Sehfähigkeit müsste meiner Meinung nach nur am Anfang aller Überlegungen stehen. Einfach deshalb, damit man VOR allen technologischen Klimmzügen eine sinnvolle Grenze für den zu treibenden Aufwand kennt.

Machbar ist unendlich viel, aber nur, wenn Kosten keine Rolle spielen.
Sie spielen aber eine Hauptrolle, sowohl für Käufer als auch Firmen.
 
Ok, also muß das "+" durch eine nicht ganz so lineare Funktion ersetzt werden. Ich orientiere mich sowieso lieber an MTF_Gesamt=prod(MTF_Optik, MTF_Sensor, ...)
Ja, so kann man das sehen. Was im Zweifelsfall eine sehr gute Orientierung ist: produziert das Objektiv ein erkennbares Moirée, so hat die Auflösung der Optik bei der Sensorauflösung noch deutliche Reserven.

... Tenor im Forum ist doch eher, daß eine Kette nur so stark wie ihr schwächstes Glied ist, also R_Gesamt = min( R_Oktik, R_Sensor, ...)
... und in der Realität ist die Kette halt nur *noch* schwächer als es ihr schwächstes Glied ohnehin schon ist. Das vielleicht halbwegs tröstliche daran: selbst in einem einzigen Bild können gleichzeitig die Optik (Bildecken) und der Sensor (Bildzentrum) das schwächere Glied sein. Jegliche einseitige Betrachtung nach dem Tenor

- ich will, dass meine Optiken auch das letzte Pixelchen rattenscharf befüttern

- ich will, dass mein Sensor auch noch das allerletzte linienpärchen aus meiner Optik herauskitzelt

mag zwar flott klingen, sie geht aber in aller Regel an der Realität weit vorbei. Wer also nicht mit Kompromissen leben will, der sollte dies noch lernen, denn: Optik ist die Lehre von den Kompromissen. :)
 
Wer also nicht mit Kompromissen leben will, der sollte dies noch lernen, denn: Optik ist die Lehre von den Kompromissen. :)

Grüss dich Micha,
sind zwei bescheidene Ergänzungen erlaubt?

Wär wohl in allen Lebensbereichen ganz hilfreich.

und

Das ganze Leben ist DIE Lehre von Kompromissen.;)

Die eigentliche Kunst besteht nur darin, möglichst geschickte zu finden.
 
WERBUNG
Zurück
Oben Unten