• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Kleine vs. grosse Pixel

Nachgeschärft sind beide Bilder gleich. Radius 0.7, 250% Threshold 0. RAW Konverter war Phocus, für beide.

Aus dem D3300 Bild kann man mit anders schärfen noch etwas mehr Klarheit holen, ja. Wenn ich mit dem Radius auf 1.0 gehe, kommen die Ränder was klarer. Allerdings ist die Mitte dann überschärft, zeigt Halos. D.h. nur mit lobal schärfen kriegt man es nicht viel besser als hier.
Wohl aber wenn man es zweimal unterschiedlich geschärft entwickelt und die beiden JPEG dann im Photoshop mit einer Ebenenmaske verrechnet. Was verglichen mit 2 Regler einstellen (Prozent und Radius) im RAW Konverter aberein erheblicher Aufwand ist.

Ich selber sehe zu den Rändern hin schon einiges mehr an Details beim grossen Sensor.
 
Ich selber sehe zu den Rändern hin schon einiges mehr an Details beim grossen Sensor.

Randunschärfe jeder Optik.
Insbesondere lichtstarke Optiken sind hier aus technischen Gründen eher schlechter auskorrigiert als "normale" Optiken, die im Mittelformat wesentlich häufig zu finden sind als bei Kleinbild.

Eine 2,8er Optik kann man ganz sauber korrigieren. 6 Linsen und alles ist perfekt. Mit 4 Linsen bekommt man respektable Ergebnisse.

Ergebnisse, zu den man bei 1,4er Optiken nie kommt, es sei denn, man optimiert Offenblende nicht mit.

Und über 1,2er oder gar 1,0er braucht man nicht zu reden.
 
Randunschärfe jeder Optik.
Insbesondere lichtstarke Optiken sind hier aus technischen Gründen eher schlechter auskorrigiert als "normale" Optiken, die im Mittelformat wesentlich häufig zu finden sind als bei Kleinbild.

Eine 2,8er Optik kann man ganz sauber korrigieren. 6 Linsen und alles ist perfekt. Mit 4 Linsen bekommt man respektable Ergebnisse.

Ergebnisse, zu den man bei 1,4er Optiken nie kommt, es sei denn, man optimiert Offenblende nicht mit.

Und über 1,2er oder gar 1,0er braucht man nicht zu reden.

Immerhin habe ich auf f/8 abgeblendet und nutze nur den inneren Pfeil vom Bildbereich.
Eine 24 MP FX Kamera habe ich nicht, zumal es ja auch eine sein müsste ohne AA Filter, die D3300 hat ja auch keinen. Da käme wohl nur die Leica M in Frage. Sonst hat keiner sowas im Angebot.

Das Objektiv spielt natürlich auch eine Rolle. Kann bei Gelegenheit auch nochmal vergleichen, mit dem 105/2.8 Sigma Makro vs. das 150/3.5 an der 645D. Obwohl die 645D dann eigentlich fast 160mm bräuchte, die D3300 hat dann noch mehr Vorteil mit der Brennweite, als sie hier schon hatte.

Ich habe jetzt mal
  • Kontrast erhöht beim Nikon Bild
  • Dem Nikon Bild Radius 1.2 statt 0.7 gegeben
  • Dem Pentax Bild 0.8 statt 0.7, was gegen Rand auch noch ein bisschen besser ist
  • Dem Pentax Bild etwas mehr Sättigung, damit auch das ähnlich wird.

Das Nikon Bild geht nun also massiv stärker geschärft an den Start. 1.2 statt 0.8 bei gleicher % Zahl beim Schärfen ist ein gewaltiger Unterschied.

Im Anhang Crops von rechts im Bild. Mittelre Bildhöhe, Radius etwa von 9 bis 11mm von der Bildmitte. Also Rand, aber noch nicht ganz der Rand vom Nikon Bild. Geschweige denn Ecke.

Schaut mal Folgende Sachen an: Das Haus mit Kamin links oben (Hauswand, Kamin). Das Dach vom Haus dahinter (Dächer allgemein, viele zeigen unterschiede) . In der Bildmitte sind 3 Häuser mit rot-braunem Attika Geschoss. Beim vordersten die Lamellenstore im 1. Stock - mit den grösseren Pixeln sogar anstatzweise Struktur neben was Moire.

Also nur Kontrast erhöhen und deutlich mehr schärfen reicht irgendwie noch nicht ganz. Das D3300 Bild wird klarer, gewinnt auch nochmal leicht an Details die vorher zu unklar waren. Aber gleich ist da noch nichts.

Was die Beispiele auch zeigen: Das Nikon Bild ist glatter, ausser man schärft es so stark wie hier um Details raus zu quetschen, dann kommt das Rauschen zu stark raus. Das Pentax Bild rauer (AA Artefakte) hat stellenweise Moire (Farbe, aber auch Labyrinth Strukturen). Ich bin der Meinung, dass sich ein besseres Bild erreichen lässt mit kleinen Pixeln, wenn man dem Sensor mit kleinen Pixeln noch mehr Auflösung gewährt und dann runter rechnet. Also eine "48 MP DX" mit dem 50/1.4, runter rechnen auf 24 MP, vs. ebendie 645D mit dem 75mm wie hier. Denke nicht, dass die DX dann noch weniger Details hätte. Und ihre Details wären klarer und sauberer als die der Pentax. Nur ihre Ausnutzung der noch mehr Pixelreihen wäre noch schlechter, in 100% wäre es dann nichts mehr. Die Entwicklung wird in die Richtung gehen. Sehr hohe MP Zahl, die nicht mehr primär dafür gedacht ist, voll in 100% genutzt zu werden, sondern für runter rechnen, um die "normale" Auflösung dann glatter und besser zu haben.
 

Anhänge

Zuletzt bearbeitet:
Die kritische Blende eines Objektivs ist am Bildrand durchaus mal eine andere als in der Bildmitte. Mit der Pixelgröße hat das ursächlich nichts zu tun, man sieht bloß die Unterschiede leichter, wenn man stärker vergrößern kann.

Nunja, Probleme sind halt erst da, wenn man sie sieht. Und da man sie durch grössere Auflösung (="kleinere Pixel") sieht... :p
 
Immerhin habe ich auf f/8 abgeblendet

Das ist weitgehend egal.
Das Problem entsteht durch die Rücksichtnahme darauf, das bei Offenblende auf dem Bild was zu erkennen sein soll.

Eine lichtstarke Brennweite hat genau das gleiche Problem wie ein Zoom.
Es muss für viele Blendenwerte optimiert werden.

Das Optimieren für Blende 1,4 versaut Dir das ganze Design.
Wegen der großen Offenblende werden die Linsen fett, dadurch bekommt man heftigen Astigmatismus, um den zu korrigieren brauch man viele Linsen, dadurch wird alles noch fetter. Dadurch noch mehr Astigmatismus, dadurch noch mehr Linsen. Man baut dann allein 5 oder 6 fette Linsen ein, um Fehler zu korrigieren, die eine 3,5er Optik nur in Spuren hätte.
 
Das ist weitgehend egal.
Das Problem entsteht durch die Rücksichtnahme darauf, das bei Offenblende auf dem Bild was zu erkennen sein soll.

Eine lichtstarke Brennweite hat genau das gleiche Problem wie ein Zoom.
Es muss für viele Blendenwerte optimiert werden.

Das Optimieren für Blende 1,4 versaut Dir das ganze Design.
Wegen der großen Offenblende werden die Linsen fett, dadurch bekommt man heftigen Astigmatismus, um den zu korrigieren brauch man viele Linsen, dadurch wird alles noch fetter. Dadurch noch mehr Astigmatismus, dadurch noch mehr Linsen. Man baut dann allein 5 oder 6 fette Linsen ein, um Fehler zu korrigieren, die eine 3,5er Optik nur in Spuren hätte.


Hmm verstehe.
OK, hab mal geschaut, was sonst noch alles da ist. Ich hab in dem Bereich noch ein 50/1.8 AiS, ein 45/2.8 GN Auto (AI) und ein 50/2.8 Makro von Sigma.

Dann sollte da vielleicht ja etwas dabei sei, das noch ein bisschen besser ist. Sigma 50/2.8 ART für 1000 Euro, hochgezüchtet auf Leistung bei f/4 bis f/8 gibt es leider nicht zu kaufen.

Heute ist aber Sonne, dann ist erstens mit Flimmern zu rechnen und zweitens ist es schwieriger, eingrmassen gleiches Licht zu gewhärleisten. Muss wohl bis zum nächsten Tag mit Wolken/Hochnebel warten.
 
Re: Kleine vs. große Pixel

Ich selber sehe zu den Rändern hin schon einiges mehr an Details beim großen Sensor.
Zu den Rändern hin, soso :rolleyes:

Das ist jetzt also der Beweis, daß bei der Pentax die Pixeldichte am Rande zunimmt, oder wie? Oder nein, es könnte auch bedeuten, daß bei der Nikon die Pixeldichte zum Rande hin abnimmt, stimmt's? :evil:


Das Objektiv spielt natürlich auch eine Rolle.
Ach ...


Ich habe jetzt mal
  • Kontrast erhöht beim Nikon-Bild
  • Dem Nikon-Bild Radius 1,2 statt 0,7 gegeben
  • Dem Pentax-Bild 0,8 statt 0,7, was gegen Rand auch noch ein bißchen besser ist
  • Dem Pentax-Bild etwas mehr Sättigung, damit auch das ähnlich wird.
Das Nikon-Bild geht nun also massiv stärker geschärft an den Start. Radius 1,2 statt 0,8 bei gleichem Betrag beim Schärfen ist ein gewaltiger Unterschied.
Es zählt aber nicht der zahlenmäßige Unterschied der eingestellten Parameter, sondern der Effekt im fertigen Bilde. Und da sehe ich immer noch großen Spielraum für das Nikon-Bild ... deine Schärfungs-Parameter sind meines Erachtens ungeschickt gewählt.

Sicher ist das Pentax-Bild besser – aber nicht, weil es nennenswert höher aufgelöst wäre, sondern weil es das niedrigere Rauschen und den besseren Mikrokontrast aufweist. Diese Vorteile entspringen der größeren Sensorfläche und dem besseren Objektiv. Mit der Pixelgröße aber haben beide Vorteile genau gar nichts zu tun.

Vielleicht könntest du einmal die beiden Rohdateien für die Allgemeinheit zum Herumspielen zur Verfügung stellen ...
 
Ich schau mal wo ich das hochladen kann. Sind ja doch einige MB.

Zum Objektiv: Hab bei DXO mal jetzt etwas geschaut. Das 50/1.4 Art für Nikon steht da noch unter "Preview". Also hab ich zwei andere Sigmas rangezogen, die als bekannt sehr gut gelten: Das 35/1.4 Art und als weniger lichtstarke Varainte mit trotzdem irrsinnigem Sonderglasaufwand das 70/2.8 Makro. Alles D7100. Die beiden setzen sich in der Schärfe deutlich nach oben ab vom Nikkor, solange man die Offenbelnde anschaut. Geht man jedoch auf f/5.6 oder f/8 mit den Linsen, ist gemäss DXO praktisch kein Unterschied zu erwarten.

Das lässt wenig Hoffnung aufkommen, dass ich mit einem anderen Objektiv bei diesen Blenden noch mehr raus hole aus der D3300. Wenn es an den Objektiven liegt und es da nichts Wesentlich Besseres gibt, hilft nicht viel. Wäre aber keine sonderlich schöne Sache, wenn das so wäre. Irgendwann wird doch einer der weiteren D810 Nachfolger auch mal Pixel auf D3300 Grösse haben (wären 54 MP). Wenn FB dann schon am DX Rand so aussehen, wie soll das dann erst bei FX sein?

ALso wenn es an den Linsen liegt, wird es Zeit für eine Sigma R (wie Resolution) Reihe. Optimiert wie die Mittelformatobjektive, zu ähnlichen Preisen. 50/2.4 oder 50/2.8, kein Makro, 800 bis 1000 Euro.

Eine Varainte hätte ich ja doch noch um die MF Linsen auszuschliessen. Es gibt zwar keine 24 MP FX ohne AA Filter und somit keinen fairen Vergleichspartner. Die 12 MP FX haben aber einen ziemlich schwachen AA Filter. Wenn man denen jetzt nicht nur die 1.5ache Brennweite gibt gegenüber der D3300, sondern die 2.1-fache, müsste das Motiv ja in 100% betrachtet bei beiden wieder gleich gross sein. Problem ist halt: Ich hab dann vonden Linsen hier fast wieder nur die Möglichkeit, 50mm zu nehmen für die D3300. Weil ich mit dem 105/2.8 Makro dann eine passende FB für die D700 im Vergleich habe. Für das 70mm Makro an der D3300 müssten es ca. 150mm sein, das hätte ich nur als Zoom, somit gleich neben dem AA Filter noch ein weiterer Nachteil für die FX, das wäre nicht mehr fair.

Ich probier mal rein aus Neugier die D3300 mit 50/1.4 und 50/2.8 Makro vonSigma gegen die D700 mit dem 105/2.8 Makro von Sigma. Dann ist das Thema Mittelformat hier draussen.
 
Ich verstehe ja nach wie vor überhaupt nicht, wo Du mit diesen Vergleichen hinwillst. Wenn Du die mittleren 12MP aus einem 24MP-DX-Sensor benutzen willst, hast Du de facto einen Sensor mit Cropfaktor von 2,1 (wie Du ja schon ausgerechnet hast), den Du mit 12MP an KB vergleichst. Du hast 1x einen AA-Filter und einmal nicht. Du benutzst 2 verschiedene Objektive, 1x mit dessen vollem Bildkreis, 1x mit weniger als dessen halbem Durchmesser. Die Sensoren liegen mehrere Generationen auseinander. Welche Blende und ISO willst Du benutzen? Jeweils die beste oder äquivalent? Und was ist dann am Ende ein Effekt der Pixelgröße (um die geht es doch immer noch?) und wie unterscheidest Du den von all den anderen Einflüssen?
 
Kann irgendjemand nochmal für den unbedarften mitlesenden Laien zusammenfassen um was es in diesem Thread geht und was dazu die Kernthesen sind?

Die "Messungen" im Eröffnungsbeitrag erinnern mich an Abgasmessungen bei VW... man misst mal das eine und mal das andere, aber es fehlt an Möglichkeiten, objektive Vergleiche zu ziehen. Ich meine das nicht so böse wie es sich vielleicht liest, aber ich habe trotz mehrfachen Lesens aller Beiträge keinen Schimmer, um was man hier ernsthaft diskutiert. Vielleicht (wahrscheinlich) bin ich auch einfach zu blöd.

Wenn ich einige Beiträge richtig deute, wird teilweise die Meinung vertreten, Sensoren in immer kleinere Pixel zu zerschnibbeln sei sinnlos (These 1). Zudem sei es (sehr?) problematisch, dass Pixel nicht optimal senkrecht getroffen werden (These 2).
Habe ich das soweit richtig verstanden, oder bin ich auf dem Holzweg?

Zu These 1: Mehr Pixel bedeutet in meinen Augen mehr Information, vorausgesetzt man hat genug Rechenleistung, um die größere Menge Pixel ebenso gut und schnell auszulesen. In dem Fall, dass dieses Mehr an Information nichts bringt, kann man die Informationen einfach zusammenschalten und z.B. aus 4 kleinen Pixeln wieder ein großes Pixel machen. Man hat dann nichts verloren. Es soll aber Situationen geben, in denen man die zusätzlichen Pixel gebrauchen kann, weil z.B. die Optik in einer bestimmten Blende-Brennweite-Kombination hoch genug und präzise auflöst. Bei der seit >20 Jahren vorherrschenden Geschwindigkeit, mit der sich Kapazitäten von Speichern und Leistungsfähigkeiten von Prozessoren entwickeln, sehe ich einen klaren Trend, dass sich in einigen Jahren auch Sensoren mit 48MP, 72MP, 96MP oder gar dreistelligen Megapixelzahlen etablieren, weil sich die Unmengen an Messdaten schnell genug speichern und verarbeiten lassen werden. Für irgendetwas muss es ja auch die in ein paar Jahren erschwinglichen TB-SSD-Festplatten und bis zu 2TB große SDXC-Karten geben... :ugly: *SCNR*
In meinen Augen wird es demzufolge wahrscheinlich so sein, dass man die Kamera-Bodys für immer weniger Geld "hinterhergeschmissen" bekommt und für Optiken, die diese extremen Auflösungsqualitäten liefern, immer tiefer in die Tasche greifen muss und daher zu Recht das Argument bestehen bleibt, dass man diese hohen Megapixelzahlen nicht "braucht". Aber solange sie nicht schaden und vertretbar wenig kosten, wen störts? Bei bestem Wetter, optimaler Blende und Stativ lässt sich so vielleicht etwas mehr rauskitzeln, und in den anderen Fällen schraubt man die Auflösung eben nachträglich wieder herunter.

Diese Aussagen, die mir meine Glaskugel geflüstert hat, sind sehr provokativ und nicht besonders fundiert, darum bitte ich um Nachsicht und gerne um begründete Gegenthesen.

Zu These 2: Das Problem nicht optimal senkrecht getroffener Pixel (sofern dies problematisch ist) hat man bei jeder Auflösung mit mehr als einem Pixel pro Sensor - in der Mitte mehr, am Rand weniger. Bei kleineren Pixeln werden mittig mehr Pixel gut und am Rand mehr Pixel weniger gut getroffen... aber im Endeffekt muss doch nur der Sensor damit umgehen können? Wenn ich sehe, wie viele Pixel bei Smartphones und Kompaktkameras auf einem Haufen liegen und trotzdem vergleichsweise akzeptable Ergebnisse bringen (bessere als man aufgrund der fast nicht vorhandenen Optik und winzigen Bauform eigentlich erwarten dürfte) dann stellt sich mir die Frage, ob die DSLR-Hersteller (oder Kamerahersteller außerhalb der Smartphonesparte im Allgemeinen) einfach in der Datenerfassung immer ein paar Jahre hinterherhinken, weil die Stückzahlen viel geringer sind. Eine Kompaktkamera oder DSLR st eben kein Computer, den man außer zum Fotografieren noch zu unzähligen anderen, teils rechenintensiven Prozessen nutzt. Das ist ja auch sinnvoll. Man überlässt die Entwicklung immer schnellerer Speicher- und Prozessortechnologien den Smartphone- und PC-Entwicklern und erst wenn die Technik im Preis stark gesunken ist, wird sie auch in Kompaktkameras und DSLRs verwendet.

Eigentlich müssten Pixel von Kameras ja irgendwie "rund" sein, denn die Objektive sind ja ebenfalls rund. Gerade die schönen, kreisförmigen Unschärfe-Artefakte sind schwierig in quadratische Pixel zu pressen - je mehr Pixel man hat, desto besser lassen sich Kreise approximieren. Vielleicht wird es ja mal Prozessoren geben, die sehr kleine Pixel kreisförmig zusammenaddieren um ein besseres Rauschverhalten zu generieren?

Über fundiertes Kontra zu meinem Beitrag würde ich mich freuen... und werde den Thread als Lesezeichen abspeichern um in 20 Jahren mal die Entwicklung mit dem hier Geäußerten zu vergleichen. :lol:
 
Noch eine Ergänzung, nur um mal Zahlen zu haben (Smartphone vs. DSLR):

Das Samsung Galaxy Note 4 (ein hinsichtlich der Kamera durchschnittliches High-End-Smartphone der neuesten Generation) hat nach meiner Recherche für seine 16 Megapixelkamera einen Sensor mit 1/2.6 Zoll Durchmesser, also (1 Zoll = 2,54cm) ca. 9,8mm Durchmesser.
Der Sensor des Galaxy Note 4 hat das Format 16:9. Die Seitenlängen des Sensors sind also ca. 4,8mm x 8,5mm (nach Pythagoras 4,8² + 8,5² = 9,8²). Damit ist der Sensor des Galaxy Note 4 ca. 40,8mm² groß.
Der Sensor meiner Nikon D7200 ist 23,5mm x 15,6mm groß, also 366,6mm², also ziemlich genau 9 mal so groß. Hätte die Nikon D7200 eine so große Pixeldichte wie das Samsung Galaxy Note 4, dann wären auf ihrem Sensor 9 mal mehr Megapixel als auf dem Smartphone, also 144 (9 mal 16).

Umgekehrt: Hätte das Smartphone die Pixeldichte der DSLR, dann hätte es statt 16 Megapixel nur 2,6 Megapixel.

Ich glaube nicht, dass zum jetzigen Zeitpunkt eine APS-C-DSLR (oder auch eine Vollformat-DSLR) mit 144 MP sinnvoll wäre... aber offenbar ist es möglich, Pixel so klein zu schnibbeln und damit trotzdem akzeptable Ergebnisse zu liefern (das Note 4 macht in meinen Augen sehr gute Bilder dafür dass es ein Smartphone ist).

Wenn man bedenkt, dass sich die maximal erhältliche Auflösung bei Nikon in 8 Jahren verdreifacht hat (2004: D2X mit 12 MP, 2012 D800 mit 36 MP) dann ist eine erneute Vervielfachung in den nächsten 10-20 Jahren nicht nur denkbar sondern sogar wahrscheinlich. Und die D800 zeigt, dass man 36 MP sinnvoll auswerten kann - daran hätte 2004 auch noch niemand geglaubt.

Die Smartphones in ihrem Megapixelwahn zeigen dabei die obere Grenze des derzeit Möglichen auf und ich vertrete auch die hier vorherrschende "Mainstream-Ansicht", dass die Grenze des aktuell Sinnvollen von den Smartphone-Herstellern regelmäßig überschritten wird. Aber das Ende des Sinnvollen für DSLRs ist bei weitem nicht erreicht.

Nur als Beispiel: Wenn die Verarbeitung immer schneller wird, kann ein Sensor irgendwann (im Jahr 2030 oder 2050?) auch statt nur einem Bild in 1/8000 Sekunde in der Zeit 10 Bilder speichern und aus der Abweichung dieser 10 Bilder voneinander (die ja eigentlich gleich sein müssten) minimalste Verwackler rausrechnen und digital korrigieren.
 
Zuletzt bearbeitet:
Re: Kleine vs. große Pixel

..., also (1 Zoll = 2,54 cm) ca. 9,8 mm Durchmesser.
Ein Video-Zoll sind ungefähr 16 mm – das sollte sich jetzt aber wirklich langsam einmal herumgesprochen haben. Ein 1/2,6"-Sensor hat also eine Bilddiagonale von etwa 6,1 mm. Bei einem Seitenverhältnis von 4:3 entspricht das einem Format von ca. 3,69 × 4,92 mm; bei einem Seitenverhältnis von 16:9 sind's ca. 3,02 × 5,36 mm.
 
AW: Re: Kleine vs. große Pixel

das sollte sich jetzt aber wirklich langsam einmal herumgesprochen haben.
Vielen Dank. Wo soll sich das herumgesprochen haben? Mich haben Größenangaben von Sensoren bei Smartphones bisher nicht wirklich interessiert. Da ich über das Thema keine Doktorarbeit schreiben möchte sondern lediglich Vergleichswerte gesucht habe, habe ich eben den falschen Umrechnungsfaktor gefunden und nicht weiter geprüft. Sowas passiert. Das heißt die Sensorfläche beträgt sogar nur knapp 16,2mm² statt der von mir angesetzten 40,8mm².

Folglich ist der Sensor meiner D7200 nicht 9 mal sondern über 22 mal größer als der des Galaxy Note 4 und dieselbe Pixeldichte bei der D7200 hätte rund 360 Megapixel zur Folge - oder die Pixeldichte meiner D7200 auf dem Galaxy Note 4 nur 1,06 Megapixel auf dem Smartphone.

Hier wird umso deutlicher, dass hinsichtlich der Pixelzerschnibbelung bei den DSLRs noch Luft nach oben ist.
 
Ich verstehe ja nach wie vor überhaupt nicht, wo Du mit diesen Vergleichen hinwillst.

Ach, ich glaub, der Don erfreut sich einfach seiner hochaufgelösten (MF-) Bilder (sozusagen Wimmelbilder ohne Menschen, obwohl ab und an einer zu sehen ist) und vergleicht bzw. philosophiert aus der Intuition heraus - was zulässig ist, wenn er zB dieselbe Szene schon seit Jahren fotografiert und jede Jalousie, Antenne, Textur auswendig kennt.

C.
 
Ach, ich glaub, der Don erfreut sich einfach seiner hochaufgelösten (MF-) Bilder (sozusagen Wimmelbilder ohne Menschen, obwohl ab und an einer zu sehen ist) und vergleicht bzw. philosophiert aus der Intuition heraus - was zulässig ist, wenn er zB dieselbe Szene schon seit Jahren fotografiert und jede Jalousie, Antenne, Textur auswendig kennt.

C.

Mit MF hat das weniger zu tun. Die D700 Bilder haben eine ähnliche Charakteristik. Ein bisschen weniger feinste Details und dafür auch weniger Artefakte und Moire, weil ja ein AA Filter drinnen ist. Anonsten zeigt sie aber auch ds Verhalten, auch mit günstigen Objektiven was abgelendet voll bis zumRand durchzuziehen, was die Feinheit der Zeichnung anbelangt.
 
WERBUNG
Zurück
Oben Unten