• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Beugungsunschärfe

  • Themenersteller Themenersteller Gast_15563
  • Erstellt am Erstellt am
albertotito schrieb:
Das Bild empfinde ich als sehr flau und auch heller belichtet. Warum das so ist mir nicht ersichtlich, alle Aufnahmen wurden mit Zeitautomatik und Stativ gemacht, die Lichtverhältnisse blieben die gleichen.

Vielleicht ist es auch nur der geringere Kontrast, der das Bild heller erscheinen lässt. Was meinen die Anderen?

Ich würde sagen, dass der Effekt bei Digitalkameras typisch für Beugungsunschärfen ist. Nimm einfach eine leichte Tonwertkorrektur vor und schärfe ein wenig nach... und vergleiche mal, wie die Sache dann aussieht.



Nightshot schrieb:
Was vergrößere ich denn bei Betrachtung bei 100% mit?

Jedes einzelne Pixel. Es sei denn, dein Sensor hat 72ppi oder dein Monitor ist sehr, sehr klein.

Nightshot schrieb:
Je weiter ich die Blende zu mache, um so besser wird die Optik wenn ich die Beugung außer Acht lasse.

Ja, aber wenn Du die Beugung außer Acht lässt, dann stellt sie ja auch kein Problem dar.

Nightshot schrieb:
Schärfung, Interpolation und Rauschen??? Zum einen RAW ist dein Freund und dann ist das ja mal völlig unabhängig von der Optik.

Unabhängig von der Optik - ja. Aber nicht jede Limitierung wird durch das Objektiv verursacht. Und wenn Du vom RAW sprichst... bei welchem Grad der Nachschärfung und Kontrastanpassung macht sich die Beugungsunschärfe dann eigentlich bemerkbar? Durch EBV kann man einiges kompensieren. Geringen Kontrast bei Offenblende ebenso wie Beugungseffekte.

Nightshot schrieb:
Wiso vergesse ich die? Nehmen wir eines mit Anfangsöffnung von 8,0. Wenn ich das Beugungslimitiert an Vollformat auslutschen will, brauche ich einen Sensor der genau 30MPix hat. Da sind wir noch ein Stück weit weg.

Je größer der Sensor, desto stärker musst Du abblenden um diesselbe Abbildungsleistung und Schärfentiefe zu erreichen wie mit kleineren Formaten. Das Beugungslimit holt Dich ein. Oder weicht vor Dir zurück. Je, nachdem.

Nightshot schrieb:
Die Beugungsunschärfe wirkt sich auch auf das 40x60 Bild aus. Ich sehe sie nur nicht, wenn ich den "genormten Betrachtungabstand" nicht unterschreite.

Genau das wollte ich damit sagen.

Nightshot schrieb:
Aber klar, wenn ich die Tiefenschärfe brauche, dann muss ich voll in die Kiste greifen und abblenden, Beugung hin oder her. Ich muss nur im Hinterkopf haben, dass ich an Steller meiner X MPix Kamera eine X-"etwas" MPix Kamera in Händen halte.

Ja, eben. Das ist ja das Leidige an der Fotografiererei. Manchmal muss man aus gestalterischen Gründen eine Blende wählen, die die Leistung des Systems limitiert, und das Bild ist dann bei 100% am Monitor nicht ganz so scharf, wie es eigentlich sein könnte. Glücklicherweise kann man dem durch geeignete Motivwahl vorbeugen.

,
 
species 8472 schrieb:
Jedes einzelne Pixel. Es sei denn, dein Sensor hat 72ppi oder dein Monitor ist sehr, sehr klein.
Bei Betrachtung in 100% mache ich nichts anderes, als mir direkt meine Daten zur Analyse an zu sehen. Es geht hier nicht um Bildwirkung oder Gestaltung, sondern einzig um die Beurteilung meiner Rohdaten. Erst wenn ich sie aus belichten lasse und keine Möglichkeit habe sie vorher runter zu interpolieren sind sie für *mich* von Bedeutung.
Aber nicht jede Limitierung wird durch das Objektiv verursacht.
Und genau darum geht es hier doch. Ich will wissen wo die Grenze liegt. Vor der kritischen "Beugungsblende" ist es der Sensor und danach die Optik. Es gibt dann noch eine weitere in Richtung Offenblende, wo sich das Spiel noch mal umdreht, aber wenn ich das Optimum raus hohlen will, dann muss ich eben wissen wo diese Grenzen liegen.
Und wenn Du vom RAW sprichst... bei welchem Grad der Nachschärfung und Kontrastanpassung macht sich die Beugungsunschärfe dann eigentlich bemerkbar? Durch EBV kann man einiges kompensieren. Geringen Kontrast bei Offenblende ebenso wie Beugungseffekte.
Das kann ich so nicht stehen lassen. Mit EBV kann ich Unzulänglichkeiten des Objektives (und auch des Sensors) korrigieren. Dazu gehören Vignettierung, Kontrastübertragungsfunktion, transversale chromatische Abberation und in Einschränkungen auch Koma (mit gewaltigem Rechenaufwand). NICHT korrigierbar sind Beugung, longitudinale chromatische Abberation, Randunschärfe, Bildfeldkrümmung und so weiter. Ich kann durch Nachschärfen den optischen Eindruck eines schärferen Bildes erzeugen und dadurch die Beugung etwas besser aussehen lassen, physikalisch wird das Bild dadurch aber degeneriert.
Je größer der Sensor, desto stärker musst Du abblenden um diesselbe Abbildungsleistung und Schärfentiefe zu erreichen wie mit kleineren Formaten. Das Beugungslimit holt Dich ein. Oder weicht vor Dir zurück. Je, nachdem.
Zustimmung zum ersten Satz. Der zweite gilt nur für gleiche Pixelgröße. Ist das Verhältnis von Sensorgröße zu Pixelgröße zweier Kameras gleich, so gelten auch die gleichen gestalterischen Limits bezüglich ihrer nutzbaren Tiefenschärfe, da beide Limits gleichzeitig mit skaliert werden.
Glücklicherweise kann man dem durch geeignete Motivwahl vorbeugen.
Nicht immer. Wenn ich für ein Makro eine bestimmte Tiefenschärfe brauche und die Objektiv eigene Blende es nicht mehr her gibt, dann muss ich sogar zu so abstrusen Dingen wie das hier greifen. Beugung hin oder her.
http://www.zoerk.de/nv03-std.html
 
Nightshot schrieb:
Bei Betrachtung in 100% mache ich nichts anderes, als mir direkt meine Daten zur Analyse an zu sehen.

War mir schon klar.

Nightshot schrieb:
Es geht hier nicht um Bildwirkung oder Gestaltung, sondern einzig um die Beurteilung meiner Rohdaten.

Dachte ich mir auch schon.


Nightshot schrieb:
Das kann ich so nicht stehen lassen. Mit EBV kann ich Unzulänglichkeiten des Objektives (und auch des Sensors) korrigieren. Dazu gehören Vignettierung, Kontrastübertragungsfunktion, transversale chromatische Abberation und in Einschränkungen auch Koma (mit gewaltigem Rechenaufwand). NICHT korrigierbar sind Beugung, longitudinale chromatische Abberation, Randunschärfe, Bildfeldkrümmung und so weiter...

Donnerwetter, Du kennst Dich echt gut aus. Aber kannst Du mir den folgenden Satz etwas genauer erklären, irgendwie scheine ich da auf dem Schlauch zu stehen:


Nightshot schrieb:
Ich kann durch Nachschärfen den optischen Eindruck eines schärferen Bildes erzeugen und dadurch die Beugung etwas besser aussehen lassen, physikalisch wird das Bild dadurch aber degeneriert.

Vielleicht kannst Du mir dabei auch gleich erklären, wie das Schärfen überhaupt funktioniert und worin der Unterschied zwischen Auflösungsvermögen und Schärfe besteht? Und, vor allem, worin der Unterschied zwischen dem "optischen Eindruck" eines scharfen Bildes und einem wirklich scharfen Bild besteht?

,
 
species 8472 schrieb:
Vielleicht kannst Du mir dabei auch gleich erklären, wie das Schärfen überhaupt funktioniert und worin der Unterschied zwischen Auflösungsvermögen und Schärfe besteht? Und, vor allem, worin der Unterschied zwischen dem "optischen Eindruck" eines scharfen Bildes und einem wirklich scharfen Bild besteht?
OK, dann nehmen wir mal eine idealisierte scharfe Kannte. Wenn wir die perfekt auf einem Sensor abbilden, dann sehen wir eine Stufenfunktion von hellgrau auf dunkelgrau. Durch die Beugung (oder welch anderen Effekte auch immer) sehen wir an Stelle der Stufenfunktion einen eher sanften Anstieg und keine steile Flanke mehr => es ist leicht unscharf. Der Schärfungsalgorithmus versucht nun diese steile Flanke wieder her zu stellen, dabei passieren aber Überschwinger (und dies teilweise auch mit Absicht). Das heißt, vor der eigentlichen Kannte wird der Helligkeitswert erst noch kurz weniger (hellgrau geht in Richtung Weiß), dann kommt die steile Flanke und nun gibt noch einen Überschwinger. Bevor der eigentliche dunkelgrau Wert erreicht wir, macht der Wert einen Abstecher in Richtung Schwarz. Für das Auge erscheint so eine künstlich erzeugte steile Flanke mit Überschwinger unter umständen schärfer als die eigentliche Stufenfunktion, aber rein physikalisch ist der Übergang durch die Überschwinger degeneriert worden.
 
Nightshot schrieb:
OK, dann nehmen wir mal eine idealisierte scharfe Kannte. Wenn wir die perfekt auf einem Sensor abbilden, dann sehen wir eine Stufenfunktion von hellgrau auf dunkelgrau. Durch die Beugung (oder welch anderen Effekte auch immer) sehen wir an Stelle der Stufenfunktion einen eher sanften Anstieg und keine steile Flanke mehr => es ist leicht unscharf. Der Schärfungsalgorithmus versucht nun diese steile Flanke wieder her zu stellen, dabei passieren aber Überschwinger (und dies teilweise auch mit Absicht). Das heißt, vor der eigentlichen Kannte wird der Helligkeitswert erst noch kurz weniger (hellgrau geht in Richtung Weiß), dann kommt die steile Flanke und nun gibt noch einen Überschwinger. Bevor der eigentliche dunkelgrau Wert erreicht wir, macht der Wert einen Abstecher in Richtung Schwarz. Für das Auge erscheint so eine künstlich erzeugte steile Flanke mit Überschwinger unter umständen schärfer als die eigentliche Stufenfunktion, aber rein physikalisch ist der Übergang durch die Überschwinger degeneriert worden.

Du hast das wunderbar erklärt, vielen Dank. Aber ganz klar ist mir das trotz der sehr anschaulichen Darstellung mit Überschwingern noch nicht geworden.

Zum einen habe ich mal gehört, dass sich das Bild aus Zerstreuungskreisen zusammensetzt... aber wie sollen Kreise eine glatte Kante bilden? :confused:

Und eine zweite Frage: Vor dem Sensor liegt doch ein AA-Filter, der zu feine Strukturen ausfiltern soll, damit es nicht zu Moire kommt. Hab ich mir jedenfalls sagen lassen. Was aber passiert jetzt mit der scharfen Kante, wenn sie diesen Filter passiert? Sie wird doch dann nicht etwa unschärfer? Ich meine, das ist doch genau das, was wir hier vermeiden wollen, siehe Beugungsunschärfe. :confused:

,
 
species 8472 schrieb:
Du hast das wunderbar erklärt, vielen Dank. Aber ganz klar ist mir das trotz der sehr anschaulichen Darstellung mit Überschwingern noch nicht geworden.
Schau doch mal hier vorbei: http://www.loncarek.de/pages/Workshop/Schaerfen. Da gibt es ein Bild (im Bereich Halo) und da schau dir mal den Übergang vom Hausdach zum Himmel an. Der Himmel hat einen Bereich, an dem er heller ist, als er eigentlich sein soll. Genau das ist der Überschwinger.
Zum einen habe ich mal gehört, dass sich das Bild aus Zerstreuungskreisen zusammensetzt... aber wie sollen Kreise eine glatte Kante bilden? :confused:
Richtig erkannt und genau das ist der Unterschied zwischen idealisiert und der Realität. :D
Vor dem Sensor liegt doch ein AA-Filter, der zu feine Strukturen ausfiltern soll, damit es nicht zu Moire kommt. Hab ich mir jedenfalls sagen lassen. Was aber passiert jetzt mit der scharfen Kante, wenn sie diesen Filter passiert? Sie wird doch dann nicht etwa unschärfer?
Auch das ist richig und ja, sie wird dadurch unschärfer. Wir müssen das Bild so unscharf machen, dass es keine Lichtpunkte geben kann, die nur ein einfarbiges Pixel treffen können ohne nicht zumindest bei den andersfarbigen Nachbarpixeln vorbeigeschaut zu haben. Genau dann würde es nämlich zu Moire kommen.
Ich meine, das ist doch genau das, was wir hier vermeiden wollen, siehe Beugungsunschärfe. :confused:
Trotz AA-Filter können wir immer noch den Blickwinkel angeben, der von jedem Pixel gesehen und aufgelöst werden kann. Wenn dieser Winkel nicht mehr durch die Blendenöffung passt, sind wir beugungslimitiert. Das ist jetzt sehr bildlich und tut dem Physiker ein wenig weh, aber wenn es dem Verständnis hilft, ist es auch recht.
 
Nightshot schrieb:
Schau doch mal hier vorbei: http://www.loncarek.de/pages/Workshop/Schaerfen. Da gibt es ein Bild (im Bereich Halo) und da schau dir mal den Übergang vom Hausdach zum Himmel an. Der Himmel hat einen Bereich, an dem er heller ist, als er eigentlich sein soll. Genau das ist der Überschwinger.

Aha.

Nightshot schrieb:
Richtig erkannt und genau das ist der Unterschied zwischen idealisiert und der Realität. :D

Gut, die idealisierte Variante kenne ich jetzt. Aber wie sieht's in der Realität aus?

Nightshot schrieb:
Auch das ist richig und ja, sie wird dadurch unschärfer. Wir müssen das Bild so unscharf machen, dass es keine Lichtpunkte geben kann, die nur ein einfarbiges Pixel treffen können ohne nicht zumindest bei den andersfarbigen Nachbarpixeln vorbeigeschaut zu haben. Genau dann würde es nämlich zu Moire kommen.

Heißt also, wir machen das Bild unscharf. So weit klar, aber wie kriegen wir es dann wieder scharf? Jedes Schärfen, das habe ich jetzt gelernt, produziert ja Überschwinger und degeneriert das Bild physikalisch. Und das wollten wir doch eigentlich vermeiden?

Nightshot schrieb:
Trotz AA-Filter können wir immer noch den Blickwinkel angeben, der von jedem Pixel gesehen und aufgelöst werden kann. Wenn dieser Winkel nicht mehr durch die Blendenöffung passt, sind wir beugungslimitiert. Das ist jetzt sehr bildlich und tut dem Physiker ein wenig weh, aber wenn es dem Verständnis hilft, ist es auch recht.

Hilft leider nicht. Was ist das für ein Winkel, der nicht mehr durch die Blendenöffnung passt? Kann der womöglich dem Objektiv irgendwie schaden?
Und wieso kann der nicht mehr von den Pixeln gesehen werden? Wenn ich die Blende zumache, dann wird das Bild zwar dunkler, aber ich kann dafür ja schließlich länger belichten. Warum sich dabei etwas beugen soll, verstehe ich einfach nicht.:(

,
 
species 8472 schrieb:
Gut, die idealisierte Variante kenne ich jetzt. Aber wie sieht's in der Realität aus?
In der Realität gibt es keine unendlich steilen Flanken, es ist immer ein mehr oder weniger sanfter Anstieg. Selbst mit AA-Filter sehen wir die es immer noch als scharf an. Sagen wir mal, das linke Pixel ist weiß, das mittlere grau und das rechte schwarz. Das ist die Kante, wie wir sie mit unserem Sensor wirklich aufnehmen können. Das empfinden wir als scharf. Das könnten wir jetzt noch nachschärfen, um eine steilere Flanke zu erhalten, aber in Wirklichkeit existiert diese Information nicht. Wir können nicht zwischen Kanten unterscheiden, die 2 Pixel von weiß nach schwarz brauchen oder welche die 3 brauchen. Wir wissen nur, dass es keine 4 sein können. In dem Moment, da das Objektiv Kanten anliefert die 4 Pixel breit sind, wissen wir, dass es entweder unscharf oder beugungslimitiert ist.
Heißt also, wir machen das Bild unscharf. So weit klar, aber wie kriegen wir es dann wieder scharf? Jedes Schärfen, das habe ich jetzt gelernt, produziert ja Überschwinger und degeneriert das Bild physikalisch. Und das wollten wir doch eigentlich vermeiden?
Da gibt es nur einen Ausweg: Keinen AA-Filter verwenden und Foveon Senoren bauen. Wir sampeln nunmal nicht jeden Punkt in allen seinen 3 Farben. Diese Informationslücke bekommen wir als Schärfeverlust aufs Auge gedrückt. Wir können das Bild anschließend nur wieder optisch Nachschärfen, die echte Information haben wir aber verloren und können sie nur lückenhaft aus den verbliebenen Farben rekonstruieren.
Hilft leider nicht. Was ist das für ein Winkel, der nicht mehr durch die Blendenöffnung passt?
Der Winkel, den sie Pixel gerne sehen würden, dass du sagst, da hatten sie aber einen scharfen Blick durch das Objektiv. Jedes Pixel entspricht doch einem winzigen Bildwinkel und alle zusammen geben den Bildwinkel vom Objektiv.
Kann der womöglich dem Objektiv irgendwie schaden?
So lange er sich nicht an den Blendenlamellen verkeilt und die Linsenvergütung verkratzt geht keine Gefahr aus :D
Und wieso kann der nicht mehr von den Pixeln gesehen werden?
Na genau weil die Beugung zugeschlagen hat.
Wenn ich die Blende zumache, dann wird das Bild zwar dunkler, aber ich kann dafür ja schließlich länger belichten. Warum sich dabei etwas beugen soll, verstehe ich einfach nicht.:(
Tja, so ist sie nunmal die Physik. Wenn ich hier keinen zweiseitigen Aufsatz schreiben soll, dann kann ich nur auf die Wiki verweisen:
http://de.wikipedia.org/wiki/Beugung_(Physik)
 
Nightshot schrieb:
Da gibt es nur einen Ausweg: Keinen AA-Filter verwenden und Foveon Senoren bauen. Wir sampeln nunmal nicht jeden Punkt in allen seinen 3 Farben. Diese Informationslücke bekommen wir als Schärfeverlust aufs Auge gedrückt. Wir können das Bild anschließend nur wieder optisch Nachschärfen, die echte Information haben wir aber verloren und können sie nur lückenhaft aus den verbliebenen Farben rekonstruieren.

Aber ohne AA-Filter bekomme ich Moire, richtig? Das ist doch in gewisser Hinsicht auch ein Informationsverlust, oder? Jedenfalls will ich das nicht im Bild haben, da's in der Realität auch nicht da ist. Mit AA-Filter dagegen muss ich nachschärfen, und habe dann wieder einen Informationsverlust durch die Überschwinger. Aber schärfen kann ich mal ein bißchen mehr oder weniger, ganz nach Bedarf. Also kann ich doch auch ein durch leichte (!) Beugungsunschärfen degeneriertes Bild ein bißchen nachschärfen. Es gewinnt dadurch zwar nicht an Auflösung, aber es sieht einfach besser aus, als wenn ich das nicht täte. Das war ja der Ausgangspunkt unserer kleinen Diskussion. Und da das Bild sowieso (wegen dem AA-Filter) nachgeschärft werden muss, sollte man da auch keine Grundsatzdiskussion draus machen. Es sei denn, man sieht das anders.

Nightshot schrieb:
Der Winkel, den sie Pixel gerne sehen würden, dass du sagst, da hatten sie aber einen scharfen Blick durch das Objektiv. Jedes Pixel entspricht doch einem winzigen Bildwinkel und alle zusammen geben den Bildwinkel vom Objektiv.

Das verstehe ich jetzt sogar als Laie, Danke.

Nightshot schrieb:
Tja, so ist sie nunmal die Physik. Wenn ich hier keinen zweiseitigen Aufsatz schreiben soll, dann kann ich nur auf die Wiki verweisen:
http://de.wikipedia.org/wiki/Beugung_(Physik)

Vor allem:
http://de.wikipedia.org/wiki/Beugungsscheibchen, nicht mal zwei Seiten.

Von irgendwelchen Winkeln, Kanten, dreifarbigen Punkten und physikalisch degenerierten Bildern steht da allerdings nichts.:( Vielleicht zu allgemeinverständlich gehalten...

,
 
species 8472 schrieb:
Aber ohne AA-Filter bekomme ich Moire, richtig? Das ist doch in gewisser Hinsicht auch ein Informationsverlust, oder?
Der Informationsverlust entsteht schon an dem Punkt, an dem du einen Sensor verwendest, der an einem Punkt nur eine Farbe und nicht alle 3 sehen kann.
Also kann ich doch auch ein durch leichte (!) Beugungsunschärfen degeneriertes Bild ein bißchen nachschärfen. Es gewinnt dadurch zwar nicht an Auflösung, aber es sieht einfach besser aus, als wenn ich das nicht täte.
Die Möglichkeit zu schärfen hast du immer, du darfst nur nicht erwarten, dass du dadurch die Informationen wieder hinzugewinnst, die du durch Beugung verloren hast.
Von irgendwelchen Winkeln, Kanten, dreifarbigen Punkten und physikalisch degenerierten Bildern steht da allerdings nichts.:( Vielleicht zu allgemeinverständlich gehalten...
Das nicht, aber sie betrachten auch nur die Optik und setzen es nicht in Relation zur Sensorauflösung. Ist aber wirklich eine gute Seite!
 
HisN schrieb:
Es gibt sogar Tabellen bei welcher Cam wo die Grenzblende sitzt. Ist von der Sensorgröße abhängig.

Man kann sich hier zwei Fragen stellen. Die eine wäre welche möglichst kleine Blende noch ein scharfes Bild liefert. Das hängt wie schon erwähnt von der Pixelgröße ab:

http://en.wikipedia.org/wiki/Rayleigh_criterion

Die andere Frage ist die nach der Blende mit der höchsten Auflösung. Und hier muss man dann natürlich vorallem das Objektiv berücksichtigen.

Bei geöffneter Blende sind die Objektive durch Abbildungsfehler (Aberrationen) in ihrere Auflösung begrenzt, macht man die Blende weiter zu nimmt der Einfluss der Aberrationen ab und die Auflösung wird zunehmend durch Beugung begrenzt. Zwischen diesen beiden Faktoren wird es irgendwo einen Schnittpunkt geben wo sie beide möglichst niedrig sind und da wird dann die höchste Auflösung sein, da die Beugung immer mehr oder weniger gleich zuschlägt hängt das ganze dann also demnach vorallem von den Abbildungsfehler des Objektivs ab.

Sagen wir mal wir haben ein gut korrigiertes Objektiv mittlerer / längerer Brennweite, dann könnte dieses Optimum vielleicht schon zwischen f/5.6 oder f/8 sein. Bei einem billigen Weitwinkel könnten die Abbildungsfehler so stark sein das die Beugung erst ab f/11 oder so der limitierende Fatkor wird.
 
Zuletzt bearbeitet:
Nightshot schrieb:
Der Informationsverlust entsteht schon an dem Punkt, an dem du einen Sensor verwendest, der an einem Punkt nur eine Farbe und nicht alle 3 sehen kann.

Das war mir gar nicht bewußt. Aber nicht auszudenken, welcher Informationsverlust erst auf einem SW-Film auftreten würde. Glücklicherweise sind die Zeiten ja vorbei.

Nightshot schrieb:
Die Möglichkeit zu schärfen hast du immer, du darfst nur nicht erwarten, dass du dadurch die Informationen wieder hinzugewinnst, die du durch Beugung verloren hast.

So habe ich es noch nie betrachtet. Ich muss zugeben, die Fotografie unter dem Aspekt des Informationsgewinns/verlustes zu sehen, ist ein äußerst origineller Ansatz, und obendrein offenbar sehr kurzweilig. Und ich Esel habe meine Bilder seither immer nur im Ganzen betrachtet. Wer weiß, wieviel Informationen ich dadurch bereits unwiderbringlich verloren habe. Aber es ist ja nie zu spät, mit der 100% Absicht anzufangen.

Danke, ich habe hier sehr viel gelernt.

,
 
AW: Beugungsunschärfe CoFo 11/05

Im o.g. angeführter Ausgabe wurde wie vorher schon gesagt, die begrenzende Blende bei welcher Beugung auftritt mit dem Abstand
Pixelmitte zu Pixelmitte begründet.

Hier ein Auszug:

Nikon D 70: 12,9
Olympus E300: 9,0
Eos 20D: 10,6

Fuji Finepix: 3,4 !!!!

So sieht man, das die Kleinchip-Kompakten da Nachteile haben, da die
empfohlene Öffnung nicht mal erreicht wird.

Auch wenn´s nicht so wichtig ist.

lg

2wheel
 
AW: Beugungsunschärfe CoFo 11/05

2wheel schrieb:
Fuji Finepix: 3,4 !!!!

Das ist ja Cool ... ähh ... gar nicht Fine ... aber ich glaub das nicht. Auch bei Fuji wird es je nach Modell andere Werte geben und nicht einen für alle (von der Stylecam bis zur DSLR). :stupid:

Ich glaube auch nicht, dass Fuji sich bei der "begrenzenden Blende" deutlich von Nikon unterscheidet.
 
WERBUNG
Zurück
Oben Unten