• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Hat der Megapixel-Wahn jetzt auch die DSLRs erreicht?

Warum sind hier eigentlich die Bildfehler auf der linken Seite (viel) stärker ausgeprägt als rechts?

Weil diese Fehler bei tangentialen Strukturen stark bemerkbar machen - tangentiale chromatische Aberration. Verständlich hier dargestellt: http://de.wikipedia.org/wiki/Abbildungsfehler
 
Warum sind hier eigentlich die Bildfehler auf der linken Seite (viel) stärker ausgeprägt als rechts?

Das Objektiv ist schlicht und ergreifend dezentriert. Desweiteren handelt es sich um das 17-40, das für seine geringere Rand- und Eckauflösung an großen Sensoren bekannt ist.
Eine gute Festbrennweite vor die Kamera gespannt, und schon kann man die große Auflösung wunderbar ausnutzen. Wenn ein Zoom die Auflösung nicht ganz schafft, ist das ja trotzdem kein Nachteil.
 
Das Objektiv ist schlicht und ergreifend dezentriert. Desweiteren handelt es sich um das 17-40, das für seine geringere Rand- und Eckauflösung an großen Sensoren bekannt ist.
Eine gute Festbrennweite vor die Kamera gespannt, und schon kann man die große Auflösung wunderbar ausnutzen. Wenn ein Zoom die Auflösung nicht ganz schafft, ist das ja trotzdem kein Nachteil.
Wahre Worte gelassen ausgesprochen.
 
Das Objektiv ist schlicht und ergreifend dezentriert. Desweiteren handelt es sich um das 17-40, das für seine geringere Rand- und Eckauflösung an großen Sensoren bekannt ist.

Wenn ich das richtig sehe handelt es sich beim Bildbeispiel doch um Canon-Werbung. Muss man das verstehen...? :o
 
Dann würde plötzlich so manchem bewußt werden, dass es Kameras mit weniger MPs gibt, die mehr Bildinformation liefern als andere mit höherer MP-Zahl.

Die bisherigen Testergebnisse sehen das nicht so. Es gibt Fälle, bei denen Auflösung durch überzogene AA-Filterei wieder teilweise kaputtgemacht wird (Canon seit der 10D mit Ausnahme der 5D, bei den jüngsten Kameras weiß ich es nicht), natürlich spielt das Objektiv eine Rolle (was aber nicht der Kamera anzulasten ist, solange es Objektive hinreichender Qualität gibt), aber im wesentlichen folgt die erreichbare Auflösung sehr wohl der Pixelanzahl. Du könntest ja mal einen Beleg für Deine These liefern, oder wenigstens ein konkretes Beispiel.
 
Wenn man sich mal einen (wirklich unfairen) Vergleich zwischen 30D und 1Ds MkII anschaut, dann sollten einige den Knall doch langsam hören. Die 1Ds hat doppelt so viele Pixel wie die 30D. Ich will nicht behaupten, dass keine Unterschiede erkennbar sind, aber die verwertbaren Mehrinformationen liegen definitiv im einstelligen Prozentbereich:

http://www.dpreview.com/reviews/canoneos30d/page24.asp
http://www.dpreview.com/reviews/CanonEOS1DsMkII/page22.asp

Die verwertbare Mehrinformation besteht im Informationsgehalt von 8 MP.

Bei meiner Mathematik sind das 50%. Also gaaanz knapp nicht mehr "einstellig" ;)

Die bisherigen Testergebnisse sehen das nicht so. Es gibt Fälle, bei denen Auflösung durch überzogene AA-Filterei wieder teilweise kaputtgemacht wird (Canon seit der 10D mit Ausnahme der 5D, bei den jüngsten Kameras weiß ich es nicht), natürlich spielt das Objektiv eine Rolle (was aber nicht der Kamera anzulasten ist, solange es Objektive hinreichender Qualität gibt), aber im wesentlichen folgt die erreichbare Auflösung sehr wohl der Pixelanzahl. Du könntest ja mal einen Beleg für Deine These liefern, oder wenigstens ein konkretes Beispiel.

Überzogene AA-Filterei ist in der Tat ein Problem, unter dem u.a. aber womöglich auch die Olympus E-3 zu leiden scheint (Quelle dpreview E-3 Bericht). Und die hat insgesamt "nur" 10 MP. Man kann also auch zu starkes AA-Filtern nicht gleich mit extrem hohen MP-Zahlen setzen.

Denkbar ist aber natürlich schon, daß manche Hersteller bei hohen MP Zahlen sich tendentiell denken, daß sie in Punkto Moires ganz auf Nummer Sicher gehen können, weil die Auflösungsreserven eh gegeben sind, und dann eben die weicheren 100% Ansichten bewußt in Kauf nehmen.
 
Überzogene AA-Filterei ist in der Tat ein Problem

Das Lustige ist dabei, das in diesem Thread einige die leichten Weichzeichnereffekte des AA-Filters als Beweis sehen, die Objektive wären der hohen Auflösung nicht gewachsen. Gerade der Vergleich zwischen der 1dsMkII und der D2X, die ja auf Vollformat umgerechnet 30 MP besitzt, zeigt den Einfluss des AA-Filters deutlich. Trotz deutlich höherer Pixeldichte sind deren Bildbeispiele schärfer. Ein anderes gutes Beispiel liefert Pentax. Die K10d mit 10MP liefert auf Pixelebene deutlich schärfere Bilder als die istDS XY (genauer Name unbekannt) mit 6MP.
Aber der AA-Filter wird in diesem Thread schlicht und ergreifend ignoriert.
 
Überzogene AA-Filterei ist in der Tat ein Problem, unter dem u.a. aber womöglich auch die Olympus E-3 zu leiden scheint (Quelle dpreview E-3 Bericht). Und die hat insgesamt "nur" 10 MP. Man kann also auch zu starkes AA-Filtern nicht gleich mit extrem hohen MP-Zahlen setzen.

10 MP ist bei Olympus (Crop-Faktor 2) schon ordentlich. Entspricht 4,74 µm/Pixel. Vergleichbare Auflösungen:

Crop 1.6: 14,6 MP (Canon)
Crop 1.5: 16,6 MP (Nikon, Pentax, Samsung, Sony)
Vollfomat: 38,5 MP

Olympus wird wohl das erste Opfer der MP-Steigerungen werden. Finde ich schade, mir gefällt das Bildverhältnis 3:4. Zu Zeiten der Analogkameras hatten viele über das "Handtuchformat" 2:3 geklagt und sich 3:4 gewünscht.
 
(...)
Aber der AA-Filter wird in diesem Thread schlicht und ergreifend ignoriert.
Liefere ich gerne nach:

Betrachtungen zur Auflösung.

Der Thread "Betrachtungen zur Beugung"
https://www.dslr-forum.de/showthread.php?t=140239
beleuchtet die durch die Beugung bedingte Bildqualitätsminderung.
Hier sollen nun noch weitere Faktoren gezeigt werden, welche die Auflösung beeinflussen.
Dies sind meine ganz persönlichen Betrachtungen zum Thema.
Ich versuche hier mal von der technisch-physikalischen Seite an die Sache heran zu gehen
und möglichst ohne Mathematik auszukommen. Etwaige Ungenauigkeiten bitte ich zu tolerieren,
eine möglichst für alle verständliche Form war mein Ziel bei diesem Beitrag.
Anlaß sind die diversen Kameratests und die daraus abgeleiteten Bewertungen.
Als Beispiele zu diesem Text verwende ich die Testcharts in dpreview.com. Siehe dazu hier
(dabei insbesondere die diagonalen Strukturen und die Tabelle am Ende der Seite):
http://www.dpreview.com/reviews/olympuse3/page34.asp
Am Ende der o. a. Seite von dpreview findet man eine Tabelle "Measurable results".
In dieser Tabelle stolpere ich immer über den Eintrag "Moire is visible" und dabei
fing ich als Techniker (der mit optischen Instrumenten seinen Lebensunterhalt verdient) an,
kritische Überlegungen zur Auflösung anzustellen.
Moire ist im Grunde das Gleiche wie es hier bei sog. Phasengittermaßstäben zum Messen genutzt wird.
http://pdf.directindustry.de/pdf/heidenhain/offene-langenmessgerate/155-4805-_8.html
Dieser Effekt tritt immer dann auf, wenn sich Strukturen ähnlicher Abmessungen im Bereich weniger
Lichtwellenlängen bewegen. Je nach Strukturbreite und Strukturbreitenunterschied der beiden Strukturen
und dem Abstand der Strukturen und der Strukturbreite des Messempfängers (dem Abstand der Sensordioden
des Sensors ) ergeben sich verschiedene Auflösungen des Messsystems. Es können auch höhere Auflösungen
vorgetäuscht werden (Aliasing, auch im Audiobereich, weswegen man höhere Abtastfrequenzen verwendet
was man dann x-fach Oversampling nennt).
Wir befinden uns mit den aktuellen Kameras im Strukturbereich von ~2 µm bis ~8 µm
(d. h. im Bereich von wenigen Lichtwellenlängen) und damit in einem sehr sensiblen Bereich.
Das kann die tollsten Effekte ergeben. Siehe das Schillern über Ölfilmen auf Wasser. Der Ölfilm ist
nur wenige nm bis µm dick, das ergibt je nach Einblickwinkel verschiedene Farben, d. h. verschiedene
Interferenzfrequenzen. Auf diesem Prinzip beruht auch das "Vergüten" der Linsen. Es werden mehrere
Schichten mit verschiedenen Materialien von wenigen 100 Nanometer Dicke nacheinander im Vakuum aufgedampft,
welche für bestimmte Farben (=Wellenlängen) die Reflexion auf der Oberfläche weitgehend verhindern.
[ http://de.wikipedia.org/wiki/Antireflexbeschichtung ]
Diese Mischung aus Interferenz-, Aliasing- und Moire-Effekt haben ALLE Sensor-AAFilter-Objektivkombinationen!
Die Frage ist nur, wo schiebt man den Effekt hin. Mit etwas Pech passt die aufgenommene Struktur des Bildes
genau dort rein und der Effekt wird sichtbar. Ein Lattenzaum mit bestimmter Lattenbreite und bestimmtem
Lattenabstand in bestimmter Entfernung beispielsweise. Ich habe lange Zeit mit Phasengittermaßstäben gearbeitet
und hätte mich doch sehr gewundert, wenn solche Effekte bei Digitalkameras NICHT auftreten würden.
Will man solche Effekte verhindern, verschmiert man die Strukturen, was ja nichts anderes ist als das
Erzeugen von künstlicher Unschärfe.
Eine Lösung des Problems wären noch viel höher auflösende Sensoren und Objektive und dann
z.B 9- oder 16-fach-Binning, d.h. 3x3 oder 4x4 Pixel zu einem zusammenfassen und als ein Pixel auswerten.
Die Objektive dürften einen Zerstreuungskreisdurchmesser von 1 µm nicht überschreiten, also weniger
als 1/10tel des Zerstreuungskreisdurchmessers der besten heutigen Objektive.
Das wäre dann 3-fach oder 4-fach Linear-Oversampling mittels 90 MP oder 160 MP Sensor im FT- oder APS-Format!
Für das KB-Format würde das nochmal Faktor 4, um bei diesem Beispiel zu bleiben also ca. 360 bzw. 640 Megapixel bedeuten.
Mit einem solchen Sensor hätte man einerseits nahezu die theoretisch mögliche Auflösung eines
idealen Objektivs für alle Sensorformate erreicht, andererseits diesen Vorteil durch zusammenfassen
mehrerer Pixel (das wäre dann der Software-AA-Filter) zur Verhinderung der Schmutzeffekte auch gleich
wieder vernichtet. Diese Auflösung wäre außerdem auch nur exakt in der Schärfeebene bei voller Öffnung vorhanden.
Viel Spaß auch mit den anfallenden Datenmengen und der daraus resultierenden Bearbeitungszeit!
 
Die verwertbare Mehrinformation besteht im Informationsgehalt von 8 MP.


Glaubst Du das wirklich??
Die Anzahl der Pixel ist doppelt so hoch (was nach meiner Mathematik übrigens 100% sind), aber diese 8MP enthalten höchstens Mehrinformationen im einstelligen Prozentbereich. Anonsten müssten im 16MP-Bild doppelt so viele Details erkennbar sein wie im 8MP Bild und es kann wohl niemand behaupten, dass dies hier der Fall ist.

Leider gibt es keine vergleichsbilder von 16MP-Crop-Kameras, da würde der Unterschied nämlich noch VIEL geringer ausfallen.
 
Oder ganz einfach ausgedrückt: An feinen Strukturen kann es zu Moires kommen. Gegenmittel: AA-Filter. Ein anderes gutes Gegenmittel gegen Moires ist eine höhere Auflösung (siehe Abtasttheorem).

Wenn ich hier so manchen Beitrag lese, muss ich immer an meine Professor denken, der meine Diplomarbeit betreut hat: "Bitte verlieren Sie sich nicht in theoretischen Ausschweifungen! Damit lassen sich nur Laien beeindrucken."
 
Das Lustige ist dabei, das in diesem Thread einige die leichten Weichzeichnereffekte des AA-Filters als Beweis sehen, die Objektive wären der hohen Auflösung nicht gewachsen. Gerade der Vergleich zwischen der 1dsMkII und der D2X, die ja auf Vollformat umgerechnet 30 MP besitzt, zeigt den Einfluss des AA-Filters deutlich. Trotz deutlich höherer Pixeldichte sind deren Bildbeispiele schärfer. Ein anderes gutes Beispiel liefert Pentax. Die K10d mit 10MP liefert auf Pixelebene deutlich schärfere Bilder als die istDS XY (genauer Name unbekannt) mit 6MP.
Aber der AA-Filter wird in diesem Thread schlicht und ergreifend ignoriert.

naja, man kann es auch umgekehrt sehen, nämlich dass der AA-Filter und nicht die Objektive als Grund für die immer weicher werdenden Bilder gesehen werden.

NUR: Bei immer höherer Auflösung gibt es eigentlich keinen Grund, dass der AA-Filter (pixelunabhängig) immer stärker werden müsste, da sich die Artefakte in einem immer kleineren Raster abspielen.
 
Glaubst Du das wirklich??
Die Anzahl der Pixel ist doppelt so hoch (was nach meiner Mathematik übrigens 100% sind), aber diese 8MP enthalten höchstens Mehrinformationen im einstelligen Prozentbereich. Anonsten müssten im 16MP-Bild doppelt so viele Details erkennbar sein wie im 8MP Bild und es kann wohl niemand behaupten, dass dies hier der Fall ist.

Doppelt so viele Details? Sehr uneindeutig formuliert. Beziehst du dich eigentlich auf diese Seite:

http://www.dpreview.com/reviews/CanonEOS1DsMkII/page22.asp

Eigentlich dürften die Ergebnisse des Vergleichs theoretisch nicht so ausschauen. Die D2X mit deutlichst höherer Pixeldichte zeigt eine höhere Pixelschärfe. Aber bekanntlich legt Nikon seine AA-Filter deutlich dünner aus als Canon.

Der Vergleich von 100%-Ansichten verschiedener Kameras ist ein Vergleich ihrer AA-Filter und nicht (allein) der Objektivauflösung.
 
Dann würde plötzlich so manchem bewußt werden, dass es Kameras mit weniger MPs gibt, die mehr Bildinformation liefern als andere mit höherer MP-Zahl.
Die bisherigen Testergebnisse sehen das nicht so. Es gibt Fälle, bei denen Auflösung durch überzogene AA-Filterei wieder teilweise kaputtgemacht wird (Canon seit der 10D mit Ausnahme der 5D, bei den jüngsten Kameras weiß ich es nicht), natürlich spielt das Objektiv eine Rolle (was aber nicht der Kamera anzulasten ist, solange es Objektive hinreichender Qualität gibt), aber im wesentlichen folgt die erreichbare Auflösung sehr wohl der Pixelanzahl. Du könntest ja mal einen Beleg für Deine These liefern, oder wenigstens ein konkretes Beispiel.

Kein Beleg? Kein Beispiel? OK, ist auch eine Antwort.
 
Die bisherigen Testergebnisse sehen das nicht so. Es gibt Fälle, bei denen Auflösung durch überzogene AA-Filterei wieder teilweise kaputtgemacht wird (Canon seit der 10D mit Ausnahme der 5D, bei den jüngsten Kameras weiß ich es nicht), natürlich spielt das Objektiv eine Rolle (was aber nicht der Kamera anzulasten ist, solange es Objektive hinreichender Qualität gibt), aber im wesentlichen folgt die erreichbare Auflösung sehr wohl der Pixelanzahl. (...)
... oder anders ausgedrückt: ...im wesentlichen folgt die erreichbare Auflösung sehr wohl der Pixelanzahl, solange es Objektive hinreichender Qualität gibt und die Auflösung durch überzogene AA-Filterei nicht wieder teilweise kaputtgemacht wird.
Sind wir uns insofern einig?
Genügend kleine Strukturen können aktuell in der Halbleitertechnik hergestellt werden. Die sinnvolle Grenze wird durch die Lichtwellenlänge vorgegeben. Zur Zeit sind wir ja schon nah dran. Bleiben als weiter Kriterien das Rauschen bei solch kleinen Pixeln und die Auflösung der Objektive und dieser letzte Punkt ist im Moment der entscheidende. In Sachen Optik fehlt noch eine ganze Menge, bis der Vorsprung der Sensortechnologie eingeholt ist. Im sichtbaren Bereich ist das Einholen nicht möglich, denn es sind bereits Strukturen in Fertigung, die DUV und Elektronenstrahllithografie voraussetzen. Im sichtbaren Bereich ist bei ca. 1µm die Luft raus, bedingt durch die Beugung. 1µm Pixelpitch wären von der Technologie her locker drin, aber in Sachen Rauschen beißt sich die Katze dann wieder in den Schwanz.
 
... oder anders ausgedrückt: ...im wesentlichen folgt die erreichbare Auflösung sehr wohl der Pixelanzahl, solange es Objektive hinreichender Qualität gibt und die Auflösung durch überzogene AA-Filterei nicht wieder teilweise kaputtgemacht wird.
Sind wir uns insofern einig?

Ja, natürlich. So hab ich es ja geschrieben.

Genügend kleine Strukturen können aktuell in der Halbleitertechnik hergestellt werden. Die sinnvolle Grenze wird durch die Lichtwellenlänge vorgegeben. Zur Zeit sind wir ja schon nah dran. Bleiben als weiter Kriterien das Rauschen bei solch kleinen Pixeln und die Auflösung der Objektive und dieser letzte Punkt ist im Moment der entscheidende. In Sachen Optik fehlt noch eine ganze Menge, bis der Vorsprung der Sensortechnologie eingeholt ist. Im sichtbaren Bereich ist das Einholen nicht möglich, denn es sind bereits Strukturen in Fertigung, die DUV und Elektronenstrahllithografie voraussetzen. Im sichtbaren Bereich ist bei ca. 1µm die Luft raus, bedingt durch die Beugung. 1µm Pixelpitch wären von der Technologie her locker drin, aber in Sachen Rauschen beißt sich die Katze dann wieder in den Schwanz.

Man muss nicht unbedingt die Extreme bemühen. Die 12 MP der D2X bringen schon ein recht hohe Pixeldichte mit sich (auch wenn diese bei der hier ursprünglich zur Diskussion stehenden 450D sowie bei zahlreichen Olymputen noch höher ist). Ich benutze nun keine Suppenzooms, aber mit normalen Objektiven wie dem 2,0 35 mm ist jedenfalls ganz sicher noch der Sensor der begrenzende Faktor. Umgerechnet auf Vollformat sind das etwa 28 MP, die sind also auf jeden Fall noch abdeckbar.
 
Doppelt so viele Details? Sehr uneindeutig formuliert. Beziehst du dich eigentlich auf diese Seite:

http://www.dpreview.com/reviews/CanonEOS1DsMkII/page22.asp

Eigentlich dürften die Ergebnisse des Vergleichs theoretisch nicht so ausschauen. Die D2X mit deutlichst höherer Pixeldichte zeigt eine höhere Pixelschärfe. Aber bekanntlich legt Nikon seine AA-Filter deutlich dünner aus als Canon.

Der Vergleich von 100%-Ansichten verschiedener Kameras ist ein Vergleich ihrer AA-Filter und nicht (allein) der Objektivauflösung.

Ich wüde den AA-Filter nicht künstlich aus der Rechnung herausnehmen. Ich gehe einfach davon aus, dass jeder Hersteller den AA-Filter so auslegt, dass der Sensor die maximale Leistung bringt und Artefakte gerade so vermieden werden.

Die Ergebnisse sind eigentlich auch so eindeutig, dass die Theorie egal ist. Als Argument für hohe Auflösungen wird immer wieder angeführt, dass sehr große Ausdrucke bei geringem Betrachtungsabstand und Ausschnittsvergrößerungen möglich sind. Die Worte hören sich gut an, allein die Bilder dazu habe ich noch nicht gesehen.

Das, was eine 1DsMkII mit ihren 16MP zu leisten vermag, ist doch mit Mittelformat nicht vergleichbar - das liegt in letzter Instanz nicht am Sensor und auch nicht am AA-Filter, sondern daran, dass die Objektive nach wie vor KB-Objektive sind.

Wenn wir diese Auflösungen am Crop mit EF-S-Objektiven erreichen, wird die Sache noch fragwürdiger.

Was ich auch fragwürdig finde: als vor einigen Jahren die Hersteller von Scannern versuchten, ihre Geräte mit astronomisch interpolierten Auflösungswerten an den Mann zu bringen, ließ sich davon nicht mal der größte DAU blenden.

Heute haben wir bei den Kameras IM BILDERGEBNIS mehr oder weniger das selbe, aber heute wird mit Auflösungswerten weitaus weniger kritisch umgegangen.

Gruß,
Jens
 
WERBUNG
Zurück
Oben Unten