• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Grün"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Maximale Auflösung von Objektiven

Ob der unscharfe Übergang von einem schwarzen Objekt zu einem weißen Hintergrund in der Länge durch 3 Pixel oder 6 beschrieben wird, bedeutet doch kein Mehr an Bildinformation. Was sollte sich da raus kitzeln lassen?

Solche Übergänge gibt es nicht. Zwischen Weiß und Schwarz liegen noch Grautöne, die Information über die Struktur des Übergangs liefern. Ein wirklich sehr schöne Darstellung der zu Grunde liegenden Modelle für Laien liefert Panavision. Es lohnt sich wirklich alle Teile anzusehen.
 
Du meinst rauschen?

Nein, wenn von Kontrastübertragung gesprochen wird, dann meint man eigentlich ein Verschmieren. Was vor dem Objektiv noch scharf getrennt war, wie Du schriebst, ist hinter dem Objektiv mehr oder weniger differenziertes Grau (vulgo: Pixelmatsche :)). Dadurch wird der Informationsgehalt reduziert, aber nicht völlig ausgelöscht. Da jeder Sensor wiederum nur unter Informationsverlust abtasten kann was das Objektiv liefert, ist der gesamte Informationsverlust um so kleiner, je höher die Sensorauflösung ist. Es gibt also keine bestimmte Grenze, ab der eine der Komponenten das Gesamtergebnis kappt, sondern die Gesamtverschlechterung ist graduell. Man kann sich das Vorstellen wie früher beim Kopieren von Ton- oder Videobandkopien. Mit jeder Generation wurde die Qualität schlechter, egal wie gut das kopierende Gerät war, und sie wurde niemals besser. Nur hatten hochwertige Kopien eben geringere Verluste.

Soweit die Theorie. In der Praxis kommt es halt auf die Erwartungen an das Ergebnis an, wie weit man den Aufwand treiben will. In den von mir verlinkten Panavision Präsentationen werden beispielhaft Auflösungswerte für verschiedene Anwendungen genannt.

Infinity-909 hatte ja schonmal angefangen die Problematik quantitativ in den Griff zu bekommen. Ich denke zwar, daß sein Modell zu einfach ist, um praxisrelevant zu sein, aber vielleicht gibt es ja andere Quellen, die so etwas schon geleistet haben.
 
Zuletzt bearbeitet:
Soweit die Theorie. In der Praxis kommt es halt auf die Erwartungen an das Ergebnis an, wie weit man den Aufwand treiben will. In den von mir verlinkten Panavision Präsentationen werden beispielhaft Auflösungswerte für verschiedene Anwendungen genannt.

Ich werd mir das mal ansehen. Wir müssen vielleicht einmal differenzieren, von was für einer Form der Unschärfe wir sprechen. Sprechen wir von einer deutlichen Unschärfe über einer Struktur, dann lässt sich da natürlich ein höherer Schärfeeindruck erreichen (was nicht heißt, dass es schärfer wird).

Aber ich habe von einer kleinstmöglichen, Unschärfe gesprochen, wo sich beispielsweise eine schwarze und eine weiße Fläche in einem Motiv treffen und deren Übergang immer einen gewissen Grad der Unschärfe aufweisen muss (jedenfalls auf visueller Ebene). Ganz egal ob es sich dabei um Schwarz und Weiß, Gelb und Grün oder vorne und hinten handelt. Was soll da für Information in der Unschärfe stecken außer Unschärfe?
 
....wenn von Kontrastübertragung gesprochen wird, dann meint man eigentlich ein Verschmieren. Was vor dem Objektiv noch scharf getrennt war, wie Du schriebst, ist hinter dem Objektiv mehr oder weniger differenziertes Grau ...
Das wäre doch ein Grund zuerst an dieser Stelle anzusetzen statt das "weniger differenzierte Grau" besser aufzulösen?! Oder verstehe ich da was falsch?
 
Das wäre doch ein Grund zuerst an dieser Stelle anzusetzen statt das "weniger differenzierte Grau" besser aufzulösen?! Oder verstehe ich da was falsch?

Ja, das kann man machen. Bessere Objektive sind immer gut :) Aber als Fotograf interessiert Dich ja nicht die Güte der Abbildung auf dem Sensor oder Film, sondern die resultierenden Bilddaten, und die ergeben sich eben aus dem Miteinander von Objektiv und Sensor und Bildverarbeitung und ..., so daß es in der Praxis auf einen Versuch ankommt.

Man darf auch nicht vergessen, daß für die beteiligten Komponenten jeweils harte Grenzen existieren, die nicht überschritten werden können. Wenn man z.B. schon ein beugungsbegrenzt arbeitendes Objektiv hat, dann kann man eben nur noch am Sensor drehen. Wenn die Pixel so klein sind, daß Kontrastunterschiede schon im Rauschen untergehen, dann kann man nur noch das Objektiv verbessern.

Bei all diesen Überlegungen bitte ich auch zu berücksichtigen, daß wir hier im Grenzbereich unterwegs sind. Bessere und weitergehende Informationen als meine, findet man auch auf den zahlreichen Gigapixel Websites. Die wollen es ja auch wissen und sind genau in diesem Bereich unterwegs.
 
Ich werd mir das mal ansehen. Wir müssen vielleicht einmal differenzieren, von was für einer Form der Unschärfe wir sprechen.

Ich nehme mal eine Sache vorweg, die man da lernen kann: Techniker reden immer nur von der "Modulation Transfer Function". Diese sagt im Prinzip mit welchem Kontrastverlust ein wie kleines Detail übertragen werden kann. Für den Schärfeeindruck spielt das Quadrat der MTF die Hauptrolle. Da die MTF immer Werte zwischen 1 für große Strukturen und 0 für zu kleine Details hat, nimmt das Quadrat, und damit der Schärfeeindruck, für kleinste Details schnell ab.

Deswegen habe ich volles Verständnis für Leute, die sich keine 50D kaufen, weil ihnen der Gewinn das Geld nicht wert ist. Aber das Argument, daß mit oder ab einer bestimmten Auflösung nur noch sinnlose Matsche produziert wird, stimmt so nicht.
 
Sprechen wir von Kontrast oder Schärfe? Den Kontrast kann ich nachträglich im digitalen Bild natürlich immer wieder anheben (was in der Regel aber nie so gut ist, als wenn der Kontrast schon da ist). Aber durch welchen Zauber soll Schärfe die vor dem Objektiv da war, aber hinter dem Objektiv nicht auf den Sensor gelangen ist wieder ins Bild gelangen? Ich mach jetzt seit ca. 15 Jahren professionelle Bildbearbeitung, aber dieses Wunder ist mir bisher nicht vorgekommen und ich habe auch noch nie davon gehört.
 
Ich werd mir das mal ansehen. Wir müssen vielleicht einmal differenzieren, von was für einer Form der Unschärfe wir sprechen. Sprechen wir von einer deutlichen Unschärfe über einer Struktur, dann lässt sich da natürlich ein höherer Schärfeeindruck erreichen (was nicht heißt, dass es schärfer wird).

Aber ich habe von einer kleinstmöglichen, Unschärfe gesprochen, wo sich beispielsweise eine schwarze und eine weiße Fläche in einem Motiv treffen und deren Übergang immer einen gewissen Grad der Unschärfe aufweisen muss (jedenfalls auf visueller Ebene). Ganz egal ob es sich dabei um Schwarz und Weiß, Gelb und Grün oder vorne und hinten handelt. Was soll da für Information in der Unschärfe stecken außer Unschärfe?

Der Übergang von der schwarzen zur weissen Fläche erfolgt ja nicht abrupt, sondern ist fliessend. Soll heißen, in einer gewissen Übergangszone hat man so etwas wie einen Verlauf von Schwarz zu Weiss. Je nachdem wie breit diese Zone ist, kann der subjektive Eindruck von "Schärfe" unterschiedlich ausfallen. Wenn man USM einsetzt wird diese Übergangszone mehr oder weniger verkleinert, man kann auch sagen, der Grauverlauf wird aufgesteilt und damit visuell schmaler.

Ein Sensor mit hoher Pixelzahl hat im Prinzip den Vorteil. das sich dieser Übergangsbereich auf weniger Pixel verteilen kann und somit schon von vornherein schmaler wäre - aber nur, wenn die Qualität des Objektivs das auch hergibt. Sonst sorgt eben das lausige Objektiv halt doch wieder für einen breiteren Übergangsbereich.
 
Ein Sensor mit hoher Pixelzahl hat im Prinzip den Vorteil. das sich dieser Übergangsbereich auf weniger Pixel verteilen kann und somit schon von vornherein schmaler wäre - aber nur, wenn die Qualität des Objektivs das auch hergibt. Sonst sorgt eben das lausige Objektiv halt doch wieder für einen breiteren Übergangsbereich.

Ja und da wären wir wieder beim Ausgangspunkt des Threads. Es ging ja gerade um den Wert, wo ein (preislich und praktisch) greifbarer Sensor in seiner Auflösung die Schärfe die das Objetiv im Normalfall (also unter perfekten Bedingungen der ganzen Kette) auf den Sensor zu übertragen in der Lage ist, überrundet. Ab einem bestimmten Punkt wird die geringstmögliche Unschärfe im Bild nicht mehr durch zwei oder drei Pixel, sondern durch vier, fünf, sechs oder mehr gezeichnet. Jedes zusätzliche Pixel bringt kein Quäntchen mehr an Bildinformation sondern nur mehr Berge mehr an überflüssigem Datenmüll.
 
Wenn die "Unschärfe" besser aufgelöst wird, dann ist ja offensichtlich auch mehr Information darin. Erst wenn die "Unschärfe" ein uniforme Fläche wäre, würde eine erhöhte Auflösung nichts mehr bringen.
(...)

Mir erschliesst sich nicht was ich davon haben soll, wenn ein Bild dieser unten gezeigten Art (wie es ja heute üblich ist) an Schärfe gewinnen soll, wenn ich die Anzahl der Pixel linear verdopple, also einen Sensor mit der vierfachen Auflösung verwende.
Beim Bild 2 könnte evtl. eine Verbesserung möglich sein.
 
Zuletzt bearbeitet:
Hab's mir, zum Teil, mal angesehen. Ist nicht uninteressant, dreht sich aber vorrangig um Video. Und bei MTF scheint es mir ja weniger um Schärfe als um Kontrast zu gehen. Zwar erhöht mehr Kontrast den Schärfeeindruck, jedoch aber nicht die tatsächliche Schärfe.


Hier wird die gesamte Thematik eigentlich ganz vernünftig erläutert ->

http://www.heise.de/foto/Werbung-und-Wahnsinn-Wieviel-Pixel-braucht-der-Mensch--/artikel/108906/0

geht über 4 Seiten.
 
Mir erschliesst sich nicht was ich davon haben soll, wenn ein Bild dieser unten gezeigten Art (wie es ja heute üblich ist) an Schärfe gewinnen soll, wenn ich die Anzahl der Pixel linear verdopple, also einen Sensor mit der vierfachen Auflösung verwende.

Das muss man etwas differenzierter betrachten!
Ist doch klar, die Unschärfe wird noch etwas genauer dargestellt ;)
Die Pixelberge wachsen ins Unermessliche, der Computer geht in die Knie und die Festplatte freut sich über Arbeit.

Kurz, jede Menge Datenmüll ohne großen Nutzen, vielleicht mit einer kleine Einschränkung:
Computerhersteller freuen sich, Seagate freut sich, Canon freut sich und diverse Händler freuen sich.
Du musst nicht immer nur an dich denken! ;)
 
Dann ist der erste Schritt ja gemacht :) Schärfe und Kontrast sind das selbe Ding. Ich habe mir die Präsentation ein paar Mal angesehen, bis mir klar wurde, daß Schärfe die Interpretation des menschlichen Sehapparats von Kontrastunterschieden ist.

So ist es.
Schärfe ist ein rein subjektives Empfinden für bestimmte Kontrastbedingungen.
Der menschliche Sehapparat ist in erster Linie daraufhin ausgelegt, Konturen zu erkennen. Die anderen Eigenschaften wie z.B. Farbdifferenzierung sind weniger hochgezüchtet.

Wobei der männliche Sehapparat auf spezielle Konturen ganz besonders stark anspricht. ;)
 
Mir erschliesst sich nicht was ich davon haben soll, wenn ein Bild dieser unten gezeigten Art (wie es ja heute üblich ist) an Schärfe gewinnen soll, wenn ich die Anzahl der Pixel linear verdopple, also einen Sensor mit der vierfachen Auflösung verwende.

Wenn die Objektivauflösung als nicht klein gegenüber der Kamera annimmt, bedeuten 4x so viele Pixel ein doppelt so großes Bild mit mehr Kontrast bei gleich großen Details oder eben halb so große Details mit gleichem Kontrast.

Ein exaktes Beispiel kann ich Dir zwar gerade nicht geben, aber hier mal ein Beispiel mit 14MP vs 6MP. Das größere Bild wurde herunterskaliert. Es sind Kameras des gleichen Herstellers (in der Hoffnung, daß sich die kamerainterne Bildverarbeitung nicht zu sehr unterscheidet), das selbe Objektiv, beide mit LR und den gleichen Einstellungen entwickelt und das subjektiv schärfste Bild aus einer 4er Reihe ausgewählt.

Mal so ganz nebenbei: Ein Vergleich von 15MP auf einem Minisensor mit 39MP in Mittelformat.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten