• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Kleine vs. grosse Pixel

Das fertige Bild des 24MP Sensors behalte ich aber in seltenen Fällen komplett (für die Ausgabe), wenn ich grad nicht breite Landschaftsfotografie mache.
Da nutze ich die Vorteile des entspannteren Croppens, wenn Festbrennweite oder ich nicht so die Zeit/Aufmerksamkeit hatte mit einem Zoom ideal zu drehen.

Komplette Frames per XY Soft (der andere per YX Soft) auf HDTV zu stauchen um Sensoren zu vergleichen hat halt wenig Bezug zur Realität.
Das macht meine Schwägerin mit ihrer 180€ Jpeg Kompakten. Die Drückt einfach nur drauf und schmeißt nur das weg was verwackelt ist.
Für die würde sich der Gedanke daher klar lohnen, wenn der DSP in ihrem Fernseher die Bilder vom einem dichteren Sensor mit sichtbar mehr Details runterskalieren kann.
 
Zuletzt bearbeitet:
Skalieren erzeugt Fehlpixel und damit ist die Beurteilung der absoluten Rauschwerte nur noch eine sekundäre Geschichte, da nicht ergebnisrelevant.
Erzeugt skalieren immer Fehlpixel? Versteh ich nicht. Wenn ich ein 24MP-Bild auf 6MP skaliere indem ich immer 4 Pixel zusammenschalte, wo sind da die Fehlpixel?

Die schon mal angesprochenen Moiré-Effekte sollten dadurch auch nicht höher ausfallen. Es dreht sich doch alles nur um Rechenaufwand, Speichergröße und Serienbildgeschwindigkeit.
Könnte das damit zusammenhängen, daß 16 MP ungleich 24MP sind? Warum nicht die Agilität 2 unterschiedlich starken Autos vergleichen, indem man das Stärkere so belädt, daß es die gleichen kg/PS hat wie das schwächere? Das wäre doch fair.
Das heißt für mich, 1:1-Ansichten zu vergleichen. Ist das so gemeint? Dann finde ich die Aussage unsinnig.

Und ich frage mich immer noch, was der Sinn des Threads ist. Kann mir den jemand erklären? Das Flaschenhals-Argument trifft es doch ganz gut. Früher waren hochauflösende Sensoren extrem teuer (und langsam), da kaufte man sich eben teures Glas, wenn man bessere Bilder haben wollte. In den letzten Jahren sind hochauflösende Sensoren immer günstiger geworden (doppelte Auflösung bei gleichem Preis alle 4-5 Jahre) und Speicher (doppelte Kapazität bei gleichem Preis alle 2-3 Jahre)...

Anders gefragt:
Gibt es begründete Einwände, warum ich mir im Jahr 2030 keine D950 (?) mit 72MP kaufen sollte, um Landschaft zu fotografieren?
Gibt es jemanden der bezweifelt, dass im Jahr 2030 die D7 (?) ihre 24 oder sogar 36MP schnell genug verarbeitet um absolut Sportfotografie-tauglich zu sein?
Gibt es jemanden, der glaubt, bei 96MP wären schon die Grenzen des physikalisch sinnvoll Erfassbaren erreicht oder gar überschritten?

Es ist doch immer ein Spiel von Auflösung, Geschwindigkeit und Preis. Genauso wie kaum jemand 36MP "braucht" um Fotos zu drucken, "braucht" auch kaum jemand >10 Bilder pro Sekunde bei Serienaufnahmen. Aber wenn es in ein paar Jahren wirtschaftlich ist, Kameras mit 72MP Auflösung oder mit 20 Serienbildern pro Sekunde zu bauen, warum soll man es dann nicht nutzen?

Mein Eindruck ist, dass auf den letzten 3-4 Seiten dieses Threads viel aneinander vorbeigeredet wurde, Äpfel mit Birnen verglichen wurden, Bilderstellung und Bildverarbeitung verrührt und mit den Vorlieben einzelner Nutzer gewürzt. Dazu etwas Halbwissen über Rauschverhalten (ein hochkomplexes Thema von dem ich offen zugebe, nicht viel zu verstehen, von Banalitäten mal abgesehen).
Gefühlt würde ich mal behaupten, daß ein 16MP Sensor mit der Technik eines 36MP Sensors bei Iso1600 so rauschen würde, wie seine Vorgänger bei Iso320. Das wäre z.B. für mich ein riesen Highlight.
Wieso sollte der gerade mal 2,23x größere Sensor mehr als 2 komplette ISO-Stufen besser beim Rauschen werden.
Hier liegt wohl ein Schreibfehler (320 statt 3200) vor?

Zum Rest: Ich habe die Hoffnung, dass 2030 ein 36MP-Sensor aus dem High-End-Bereich bei ISO6400 nur noch so stark rauscht wie der Sensor der D8xx bei ISO1600. Und dann wird es auch möglich sein, einen 72MP-Sensor zu bauen der in der 1:1-Ansicht dem heutigen 36MP-Sensor gleichwertig ist... und im APS-C-Format wird es Diskussionen geben, ob 36MP nicht ausreichen und wofür man 48MP braucht. :D :D

Und nochmal die Frage: Was ist die Kernaussage dieses Threads? ;)
*SCNR*
 
Erzeugt skalieren immer Fehlpixel? Versteh ich nicht. Wenn ich ein 24MP-Bild auf 6MP skaliere indem ich immer 4 Pixel zusammenschalte, wo sind da die Fehlpixel?

Auch das ist "Pixeldenken" in Reinkultur. Vor jeder Skalierung erfolgt (hoffentlich, mindestens) eine Tiefpassfilterung. Da werden nicht 4 Pixel "zusammengeschaltet" und keiner der beteiligten Pixel behält nach der Filterung seinen ursprünglichen Wert. Und dann ist es auch völlig egal, ob mal das Bild exakt um den Faktor 4 skaliert, oder um 4,03x oder 3,98x. Die Stützstellen liegen dann nur woanders, aber das bewältigt jeder Interpolationsalgorithmus mit links.
 
Ja die 320 waren ein Tippfehler. Danke ;)

Erzeugt skalieren immer Fehlpixel? Versteh ich nicht. Wenn ich ein 24MP-Bild auf 6MP skaliere indem ich immer 4 Pixel zusammenschalte, wo sind da die Fehlpixel?
Wenn ich die beispiele noch finde wo in der späten 80ern einfach nur 4 Pixel zusammengeschaltet werden (da auch nur als Beispiele), dann wirst du sowas nie haben wollen. Es gibt keine so einfach Operationen mehr. Auch bei "geraden" Skalierungen.
Bzw. meine ich, niemand setzt sie dem Kunden als default vor.

Vier zum einen zusammengeschaltete Pixel sind ein Fehlpixel. Technisch gesehen besteht die ganze Skalierung aus Fehlpixeln. Man rechnet ja das KOMPLETTE Bild neu. Da ist nicht ein Pixel so wie es beim Original war.
Stellt man schnell fest, wenn man es wieder zurück auf die originale Größe skaliert und mit dem Original vergleicht...

Das heißt für mich, 1:1-Ansichten zu vergleichen. Ist das so gemeint? Dann finde ich die Aussage unsinnig.
Neben Quatsch, Blödsinn und Unsinn gibt es ja noch die Grundunsinnigkeit. Das ist, wenn jemand was für Unsinn erklärt und seine Meinungsäußerung damit auch endet.
Das gleiche gilt dem klaren Bescheinigen von Halbwissen (magst auch mal richtig liegen) :), auf der "von dem ich offen zugebe, nicht viel zu verstehen, von Banalitäten mal abgesehen" Basis. Da jetzt einen Sinn zu suchen, das fällt schon bisschen schwer...

Früher waren hochauflösende Sensoren extrem teuer (und langsam), da kaufte man sich eben teures Glas, wenn man bessere Bilder haben wollte. In den letzten Jahren sind hochauflösende Sensoren immer günstiger geworden (doppelte Auflösung bei gleichem Preis alle 4-5 Jahre) und Speicher (doppelte Kapazität bei gleichem Preis alle 2-3 Jahre)...
Und nu? Hatten wir doch schon. Dürftige Linsen werden in ihrer gesamten Abbildungsquali mit dichteren Sensoren nicht grundsätzlich besser. Vom Eindruck her ist es nicht selten eher umgekehrt.
Die Abbildungsfehler werden entweder sichtbarer oder man reizt durch jene garnicht die Auflösung des Sensors aus -> Wenn man an eine 40D (man verzeiht an der Stelle) statt einem 18-55IS I den 18-55STM schnallt, meint man erstmal der Sensor hat außerhalb des Centers seine Linienauflösung nahezu verdoppelt.

Du meinst wenn du in der Landschaft mit 6km Horizontalen am Waldes Rand ein Reh erwischt, dann wird man den ganzen Frame auf 4k Glotze skaliert und mit der Nase am Schrim, mit 96MP das Geschlecht noch bestimmen können und mit 36MP wird man grad noch so erkennen können, daß es kein Elch war?
Ja viel Glück.

Diese ganze Pixelei auf dem Sensor, bis auf wenige Ausnahmen pro Generation wie die D8xx "damals", hat etwas imt Technikverliebtheit zu tun. Man hat das Hightechbody in der Hand, kennt die Daten des Gerätes -> "Boah ist das geil".
Da kommt das Objektiv, bis auf seine fortlaufend erlebbare Haptik und mechanische Eigenschaften, schnell ins Hintertreffen, was Technikgeilheit angeht.

Das Body ist Bedienung. Der Sensor ist bis auf seine harten Eckdaten (max. Auflösungsvermögen, S/N Abstand usw.) nur graue, technische Theorie. Für die Quali des Bildes ist das Objektiv verantwortlich. Für die Komposition bei der Motivwahl, wir. Das wars auch schon.
Das wichtigste nach dem Fotograf ist nachwievor die Linse. Da wird sich auch 2030 nichts dran ändern.

edit:
Wenn jeder Interpolationsalgo das alles "mit Links" erledigen würde, hätten wir auch heute noch den einen, ersten, den man in Software gegossen hat. Keine Ahnung warum man damals nicht bei dem ersten Entwurf blieb...

Andererseits ist es natürlich schwer sich über die Pixeldichtheit der Sensoren zu unterhalten, und das Pixeldenken abzulegen. Wir können mal zur Abwechslung über KFZ reden, nur bitte nicht über Autos.
 
Zuletzt bearbeitet:
Re: Kleine vs. große Pixel

Da ist richtig EBV angesagt.
Ja. Und? Bilder von verschiedenen Sensoren brauchen unterschiedliche Nachbearbeitung – insbesondere unterschiedliche Schärfung. Normal.


Das ist Psychologie, keine Physik. Dein Problem. Die technische Optimierung der Aufnahmen aus einer dir vertrauten Digitalkamera mag dir einfach erscheinen, für eine fremde Kamera ist's scheinbar kompliziert. Der nächste empfindet das andersherum.
 
edit:
Wenn jeder Interpolationsalgo das alles "mit Links" erledigen würde, hätten wir auch heute noch den einen, ersten, den man in Software gegossen hat. Keine Ahnung warum man damals nicht bei dem ersten Entwurf blieb...

Erkennst Du einen Unterschied (Hervorhebung von mir)?

....Die Stützstellen liegen dann nur woanders, aber das bewältigt jeder Interpolationsalgorithmus mit links.

Andererseits ist es natürlich schwer sich über die Pixeldichtheit der Sensoren zu unterhalten, und das Pixeldenken abzulegen. Wir können mal zur Abwechslung über KFZ reden, nur bitte nicht über Autos.

Versuch doch einfach ganz "analog" in Auflösung zu denken, bspw. in MTF über der Ortsfrequenz, gemessen in Lp/mm oder Lp/Ph. Das führt dann wenigstens zu irgendwas.

Edit: Ja, so ein Sensor hat gar nicht eine MTF, die hängt von der Orientierung und von der Phasenlage ab. Aber er hat eine mittlere MTF, und die eignet sich bestens als Denkmodell.
 
Zuletzt bearbeitet:
Diese ganze Pixelei auf dem Sensor, bis auf wenige Ausnahmen pro Generation wie die D8xx "damals", hat etwas imt Technikverliebtheit zu tun. Man hat das Hightechbody in der Hand, kennt die Daten des Gerätes -> "Boah ist das geil".
Da kommt das Objektiv, bis auf seine fortlaufend erlebbare Haptik und mechanische Eigenschaften, schnell ins Hintertreffen, was Technikgeilheit angeht.

Das Body ist Bedienung. Der Sensor ist bis auf seine harten Eckdaten (max. Auflösungsvermögen, S/N Abstand usw.) nur graue, technische Theorie. Für die Quali des Bildes ist das Objektiv verantwortlich. Für die Komposition bei der Motivwahl, wir. Das wars auch schon.
Das wichtigste nach dem Fotograf ist nachwievor die Linse. Da wird sich auch 2030 nichts dran ändern.

Man kann auch das Micro AIS 55mm/2.8 an eine D800 schrauben dann hat man beides. Ich verstehe aber deine Intention.
Nein, nicht nur das Objektiv ist für die (techn) Bildqualität verantwortlich sondern immer die Kombination aus Objektiv und Sensor. Da sind wir bei dem Thema durch welchen Flaschenhals muss das Bild.
 
@turricanus
Ja soweit sind wir auf einer Linie (nicht unbedingt einer Meinung ;)). Aber immerhin etwas.

Ich halte den Einfluss der Linse für Stärker und deren Entwicklung verläuft wesentlich langsamer als die der Sensoren. Die Entwicklung der Elektronik und vor allem derer Herstellungskosten hat weit mehr Eigendynamik als die der Materialen der Objektive (Linsen, Beschichtungen) und widerum deren Herstellungskosten.

Die Sensoren und Bodys profitieren direkt von Entwicklung der Unterhaltungselektronik. Für ein Objektiv gibt es so einen technologischen Seitenzugang nicht und seine Weiterentwicklung grad im mittleren Segment ist wesentlich langsamer.

Daher ist das Objektiv zwar nicht schon immer, aber auch nicht erst seit gestern zum Flaschenhals geworden. Wenn nicht gleich durchgehend technologisch, dann finanziell. An diesem Pferdefuß leidet nicht nur die Herstellung der Einzelteile, sondern auch das Zusammenbauen dieser. Wir nennen das dann "eine Gurke".

Das Objektiv hat also nicht nur technologisch einen schwereren Stand. Auch seine Herstellung bleibt wesentlich aufwendiger. Genauso wie die QS.
Chips auf Waffern zu brennen und deren Funktion zu testen ist demgegenüber Firlefanz.
 
Zuletzt bearbeitet:
AW: Re: Kleine vs. große Pixel

Ja. Und? Bilder von verschiedenen Sensoren brauchen unterschiedliche Nachbearbeitung – insbesondere unterschiedliche Schärfung. Normal.

.

Ja. Nur wenn es mit Hochziehen von einem oder 2 Paramter getan wäre.
Um auf das Beispiel D2x vs D3300 zurpckzukomen, damit wir gleiche Formate haben. Aus der D3300 bekommt man am Rand mindstens ein ebenbürtiges, in der Mitte sicher besseres Bild mit dem abgeblendeten 50er, wenn man sie schön auf 12 MP runter rechnet, sodass man gut vergleichen kann. Der Preis dafür ist aber nicht einfach einen Radius hochdehen. Sondern zweimal entwickeln (einmal geschärft für denRand, einmal ohne für die Mitte), aus dem RAW Konverter in die EBV, beide auf und übereinander legen, dann Maske machen. Und dann wieder 1 Ebene draus machen. Dann runter rechnen. Und erst jetzt habe ich ein Bild, das ich wie das aus der D2x ganz einfach schärfen kann, mit ganz normalem USM.

Das ist ein Aufwand den ich in Ausnahmefällen mal triebe, z.B. für elektronische Grauverläufe.

Wenn man das nicht macht, hat seeeeelbst das nur stur runter gerechnete und dann einmal global geschrfte Bild aus der D3300 entweder weniger gute Kontraste der Details zum Rand hin als das D2x Bild, oder eine überschärfte Mitte.

Deswegen sag ich ja der Konverter bräuchte 2 Regler mehr. Radius Mitte und Radius Rand statt nur Radius. Und einen Regler der bestimmt wie weit man von der Mitte weg sein muss, bis der Rand Radius die Oberhand gewinnt (der Verlauf zwischen beiden Radien sollte fliessend sein). Mit vernünftigen Defaults, sodass man nicht jedes Mal alle verstellen muss.

Ich mache mit der G1X II aus dem Grund fast keine RAW mehr. JPEGooc, minimal geschärft, dann bekomme ich das genau schon vorbereitet (wenige Strke beim Schärfen, steigener Radius zum Rand) und kann einfach noch global drüer nachschärfen. Die Dynamik hole ich mit den entsprechenden Funktionen, und gegen Fehlbelichtung hilft zur Not mal ein Bracketing. Dann muss man so wenig korrigieren, dass JPEG reicht. DIe Kompakten können ds teilweise schon. Kaschieren mangelhafte Mikrokontraste zumRand hin bei weit offener Linse wunderbar (besagtte Canon macht es nach meinem EIndruck sogar abhängig von der Blende, offen bei 24mm scheint der Radisu Schärfen am Rand einiges grösser zu sein als bei f/5.6 oder f/8).
 
Wenn du in einer Ausgabegröße bist, wo du die Unzulänglichkeiten der D330 siehst, bist du in einem Bereich, wo das Bild der D2x deutlich stärkere Unschärfen zeigt. Wenn du in einem Bereich bist, wo die D2x noch eine sehr gute Ausgabequalität liefert, wirst du ohne zusätzlichen Aufwand auch eine gute Ausgabequalität mit der D3300 erreichen.
Der von dir beschriebene zusätzliche Aufwand kommt erst dann zum tragen, wenn du in Ausgabegrößen kommst, wo du mit der D2x Qualität eh nicht mehr zufrieden wärst.
 
AW: Re: Kleine vs. große Pixel

Um auf das Beispiel D2x vs D3300 zurückzukommen, damit wir gleiche Formate haben. Aus der D3300 bekommt man am Rand mindestens ein ebenbürtiges, in der Mitte sicher besseres Bild mit dem abgeblendeten 50er, wenn man sie schön auf 12 MP runter rechnet, sodass man gut vergleichen kann. Der Preis dafür ist aber ...

Nun ja, Du hast im Falle D2x ein Objektiv, das in der Mitte gut und am Rand weniger gut auflöst an einem Sensor, der auf der gesamten Bildfläche eher schlecht auflöst. Der Effekt ist eine insgesamt eher geringe Bildauflösung, in der Mitte etwas besser, am Rand etwas schlechter, aber insgesamt ziemlich homogen.

Mit der D3300 hast Du einen Sensor, der auf der gesamten Bildfläche besser auflöst. Der Effekt ist eine etwas bessere Bildauflösung am Rand und eine deutlich bessere in der Bildmitte. Überall besser als mit der D2x, aber nicht mehr so homogen.

Die etwas bessere Auflösung am Rand siehst Du, wenn Du das Bild von etwas näher betrachtest als das aus der D2x. Die deutlich bessere Auflösung in der Mitte siehst Du, wenn Du noch näher rangehst. Aber erst dann, also von noch näher betrachtet, fällt der Rand gegen die Mitte spütbar ab.

Das ist doch alles erstens kein Wunder und zweitens überhaupt nicht im Widerspruch zu dem, was ich und andere hier die ganze Zeit sagen: Das Bild aus der D3300 ist, aus der selben Entfernung betrachtet, auf der gesamten Bildfläche besser aufgelöst als das der D2x, in der Mitte deutlich, am Rand ein bisschen. Relativ schlechter wird der Rand erst, wenn Du so nah rangehst, wie die gut aufgelöste Bildmitte es erlaubt. Aber auch dann ist der D3300-Bildrand besser als der aus der D2x aus gleicher Entfernung.

Und man kommt ganz ohne "Pixeldenkerei" zu diesen Schlüssen!

Wenn man das nicht macht, hat selbst das nur stur runter gerechnete und dann einmal global geschärfte Bild aus der D3300 entweder weniger gute Kontraste der Details zum Rand hin als das D2x Bild, oder eine überschärfte Mitte.

Und das verstehe ich immer noch nicht. Hat das D3300-Bild "weniger gute Kontraste", wenn Du es genauso groß betrachtest wie das D2x-Bild? Oder hat es die, wenn Du so nah rangehst, und also näher als bei der D2x, wie die scharfe Bildmitte es erlaubt? Oder anders gefragt: Sind es die gleichen und gleich großen Details, die bei der D3300 weniger gute Kontraste haben? Oder sind es kleinere und von der D3300 gerade noch aufgelöste Details, die bei der D2x gar nicht sichtbar sind?
 
Re: Kleine vs. große Pixel

Um auf das Beispiel Nikon D2X [12 MP] vs D3300 [24 MP] zurückzukommen, damit wir gleiche Formate haben. Aus der D3300 bekommt man am Rand mindstens ein ebenbürtiges, in der Mitte sicher besseres Bild mit dem abgeblendeten 50er, wenn man sie schön auf 12 MP herunterrechnet, so daß man gut vergleichen kann. Der Preis dafür ist aber nicht einfach einen Radius hochdrehen. Sondern zweimal entwickeln (einmal geschärft für den Rand, einmal ohne für die Mitte), aus dem Raw-Konverter in die EBV, beide auf- und übereinander legen, dann Maske machen. Und dann wieder eine Ebene daraus machen.
So ein Unfug!

Wenn du tatsächlich mittels bildhöhenabhängiger Schärfung ein besseres Bild bekommst als mit global einheitlicher (also üblicher) Schärfung, dann liegt das am Objektiv und nicht an der Pixelzahl des Sensors. Du würdest also in deinem Beispielszenario (gleiches Sensorformat, gleiches Objektiv, gleiche Blende, gleiche Entfernung) mit beiden Kameras durch bildhöhenabhängige Schärfung ein besseres Bild bekommen.

Ich vermute, du begehst hier den immer wieder gern genommenen Holzweg, beim Vergleichen von Vergleichen (vergleiche A mit B, vergleiche C mit D, dann vergleiche die Vergleiche) aus den Augen zu verlieren, was genau womit verglichen wird, um dann daraus die absurdesten Schlüsse zu ziehen.
 
AW: Re: Kleine vs. große Pixel

Was regst du dich immer so auf? Er stellt doch Thesen auf und behauptet nicht, es sind nun bewiesene Theorien.

Wenn du tatsächlich mittels bildhöhenabhängiger Schärfung ein besseres Bild bekommst als mit global einheitlicher (also üblicher) Schärfung, dann liegt das am Objektiv und nicht an der Pixelzahl des Sensors.
Wenn das Objektiv an der anderen Beispielkamera aber besser geht, ist es für den Sensor zu schwach? Ergo wird der Senosr für das Objektiv komplizierter?

Wenigstens damit wären wir wieder bei den Fragen des ersten Beitrags. Oder auch bei #92 ;)
 
Zuletzt bearbeitet:
AW: Re: Kleine vs. große Pixel

Um auf das Beispiel D2x vs D3300 zurpckzukomen, damit wir gleiche Formate haben. Aus der D3300 bekommt man am Rand mindstens ein ebenbürtiges, in der Mitte sicher besseres Bild mit dem abgeblendeten 50er, wenn man sie schön auf 12 MP runter rechnet, sodass man gut vergleichen kann.
Wie sieht's denn umgekehrt aus, wenn du die D2X-Bilder auf 24 MPx hochskalierst? Sind sie dann immer noch am Rand schärfer also die der D3300? Auch bei großen Ausdrucken (z. B. bei mehr als A4 bei 300 dpi) muss ja das Bild der D2X vergrößert werden (bzw. stärker vergrößert als das der D3300).

Wenn bei 24 MPx die Bilder der D3300 schärfer aussehen, dann würde ich eher vermuten, dass der verwendete Skalierungsalgorithmus (welcher?) allgemein Schärfe kostet, die in der Mitte durch den Schärfegewinn durhc den fehlenden AA-Filter der D3300 noch kompensiert werden kann, am Rand aber schon nicht mehr.

L.G.

Burkhard.
 
Also das Thema mehr Zeichnug am Rand bezog sich auf 24 MP DXvs. 24 MP KB (Crop aus 33x44mm). Das ist so weit abgehakt, das Mittelformatobjektiv ist besser als selbst ein sehr deutlich abgeblendetes 50/1.4, das gemäss DXO abgeblendet bei den Toplinsen ist. OK, einen gewissen Vorsprung hatte ich da eh erwartet, er ist was grösser als erwartet und gut ist.

Jetzt zur D2x vs. D3300. Bitte nicht falsch verstehen: Das D3300 Bild ist ist auch unbearbeitet detailreicher

Nur: Was macht einen gutem grossen Druch aus? Dass die feinstenDetails überall 0.15 statt nur 0.2mm sind? Ich finde nein. Ein Bild mit 0.2mm Details, die dafür klar, kontrastark aber ohne Halo Artefakte vom Schafrzeichnen sind, wirkt besser als einem mitsogar 0.15mm Details, die so kontrastarm sind als hätte man durhch ganz leichten Nebel fotografiert.
Und genau so sieht sich das D3300 Bild an am Rand im Vergleich zu dem was ich von der D2x kenne.
Das kann man beheben mit Naschärfen mit grossem Radius. Nur tut das der Mitte nicht gut so stark zu schärfen. Und dann wird es mit heutiger Software, die nicht abhängig vom Radius zur Bildmitte schärft, eben aufwändig. Danach ist es aber ebenso mikrokontraststark wie das D2x Bild, detailreicher ((das natürlich besondern gegen die Mitte) und hat weniger Artefakte und Moire.

Kurz gesagt: Die D2x hat grössere Pixel, das sorgt für harte Mikrokntraste bis zum Rand, auch mit einfachem globalem USM. Das D3300 Bild ist so bearbeitet zwar detailreicher, aber flau und flach in den Details zumRand hin und so de fakto schlechter für einen grossen Druck. Wenn man sich hingegen die Mühe macht - für jedes Bild was man behalten will - wird es besser für denDruck als das D2x Bild. Mit der D2x komme ich in dme Fall leicht zu einem guten Druck. Mit gleichemAufwand wird der D3300 Druck schlechter, mit vielAufwand kann man mit ihr aber mehr raus holen als mit der D2x mit viel Aufwand.

Umd iesen vielen Aufwand loszuwerden, brauchen wir neue Funktionen im RAW Konverter. Die nichts anderes machen als was die Kompaktkamerahersteller mit ihren JPEG occ mit fest vorgegebenen Parameter werten bereits machen: stärker schaärfen zumRand hin, in Abhängigkeit vom Objektiv, Brennweite und Blende. Meine G1XII macht das bereits ganz offensichtlich.
Wenn die gängigen RAW Konverter as mal alle können, ist der jetzige Nachteil nur noch ein Vorteil ebi der Bildqualität. AUch wenn es in der 100% Ansicht nach Schärfen zum Rand weicher bleibt, der Verlust dadurch ist ja kleiner als was man mit der Pixelzahl gewinnt.
 
Zuletzt bearbeitet:
Also das Thema mehr Zeichnug am Rand bezog sich auf 24 MP DXvs. 24 MP KB (Crop aus 33x44mm). Das ist so weit abgehakt, das Mittelformatobjektiv ist besser als selbst ein sehr deutlich abgeblendetes 50/1.4, das gemäss DXO abgeblendet bei den Toplinsen ist. OK, einen gewissen Vorsprung hatte ich da eh erwartet, er ist was grösser als erwartet und gut ist.

Jetzt zur D2x vs. D3300. Bitte nicht falsch verstehen: Das D3300 Bild ist ist auch unbearbeitet detailreicher.
Es gibt keine unbearbeiten Bilder. Wer das glaubt, ist unwahrscheinlich naiv.
Außer im Hexeditor.
 
WERBUNG
Zurück
Oben Unten