• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Holen aktuelle APS-C Kameras "mehr" aus den Objektiven??

Das sind aber Details - bei denen ich dir teilweise durchaus zustimme - und nicht die Grundaussage. Nur auf die habe ich mich bezogen. Das mit der Pixelgröße glaube ich ihm natürlich auch nicht, denn im Astrobereich gibt es da noch ganz andere Beispiele (wobei dort so gut wie alles in der Praxis sowieso atmosphärisch begrenzt wird).

Nichtsdestotrotz gibt es heute schon kein Objektiv, das die D800 vollkommen bedienen kann. Dann gilt das genauso für 50 MP oder mehr.

Und wie gesagt: Das ganze spielt nur eine Rolle für Aufnahmen mit relativ offener Blende, da sonst die Beugung jeden Vorteil im Keim erstickt. Wollte man die 50 MP bedienen, darf man nur bis ein klein wenig über f/5,6 gehen. Die D800 schafft es immerhin noch bis kurz vor f/8. Alles andere ist dann leere Vergrößerung (kein Informationszugewinn) - unabhängig vom Objektiv.
 
Nichtsdestotrotz gibt es heute schon kein Objektiv, das die D800 vollkommen bedienen kann. Dann gilt das genauso für 50 MP oder mehr.

Euch fehlt einfach das Grundverständniss, das Objektiv und Sensor zusammen die Auflösung erzeugen. Nur weil ein Objektiv die D800 noch nicht voll auslastet, heißt es nicht, das es an einem 50MP Sensor mehr Auflösung genereien kann als an einem 36MP Sensor. Aber das hatten wir letztens schon und das gilt auch in der Beugung, was du offensichtlich auch nicht so ganz verstanden hast.
 
D.h. dass ein Objektiv, das 36 MP nicht bedienen kann, 50 MP dann unter wundersamer Eingebung doch wieder schafft? Muss man dazu ein Huhn zu Vollmond opfern?

Ich denke, es ist nicht so sicher, ob hier wirklich ich derjenige bin, der das nicht so ganz verstanden hat. Aber zugegeben, mein Physikstudium ist schon etwas länger her.
 
Das sind aber Details - bei denen ich dir teilweise durchaus zustimme - und nicht die Grundaussage.
Was ist denn dann noch die Grundaussage?

Die Behauptung, es wurde nur noch leere Vergrößerung erzeugt, ist nun mal falsch. Der Grund für diese Fehlannahme besteht in der Annahme zu Auflösungsgrenzen ordentlicher Optik.

Wie ManniD eben schrieb: die Systemauflösung - nennen wir sie mal A(s) - setzt sich aus Kameraauflösung A(k) und Objektivauflösung A(o) orientierend so zusammen:
A(s) = 1 / (1/A(k) + 1/A(o))

Wenn man das mal schnell durchkalkuliert, dann kommt man auf die im Anhang befindlichen Diagramme. Dabei bitte beachten, dass die Umrechnung in MP nur der groben Veranschaulichung der quadrierten Abhängigkeit dient und nicht direkt mit den MP einer Bayer-Sensor-Kamera gleichgesetzt werden darf. Die Sensorauflösung in lp/mm ist wg. Bayer-Pattern auch nicht mit Pixelpaaren/mm gleichzusetzen.
 

Anhänge

Was genau passt euch denn am Artikel nicht?

Schon die Grundannahme ist unsinnig. Warum sollte immer ausgerechnet der Sensor die Gesamtauflösung nahezu allein begrenzen? "Datenerfassungsmäßig" sinnvoll wäre es sogar genau andersrum: Der Sensor sollte viel besser auflösen als das Objektiv, um wirklich "alles rauszuholen", was das Objektiv liefern kann.

Das wirst Du von ihm nie erfahren! :lol:

Eigentlich solltest Du sogar selber drauf kommen können, wenn Du meinst, so weit drüber zu stehen. :o
 
D.h. dass ein Objektiv, das 36 MP nicht bedienen kann, 50 MP dann unter wundersamer Eingebung doch wieder schafft? Muss man dazu ein Huhn zu Vollmond opfern?

das zusammenspiel von sensor und objektiv ist wie motor und getriebe, verändere ich eine komponente, hier der sensor kann eben eine bessere bedienung der mp dabei rumkommen.
 
D.h. dass ein Objektiv, das 36 MP nicht bedienen kann, 50 MP dann unter wundersamer Eingebung doch wieder schafft? Muss man dazu ein Huhn zu Vollmond opfern?

Ich denke, es ist nicht so sicher, ob hier wirklich ich derjenige bin, der das nicht so ganz verstanden hat. Aber zugegeben, mein Physikstudium ist schon etwas länger her.
Vielleicht erinnerst Du Dich ja doch noch an das Faltungsintegral? - grob dargestellt ist die PSF des Gesamtsystems die Faltung aus der der Kamera (durch Pixelgröße, Mikrolinsen, De-Bayering definiert) und der des Objektivs. Faltung bedeutet vergröbert, der Breitere gewinnt, wenn er viel breiter ist; wenn beide Funktionen etwa gleich breit sind, wird das Ergebnis breiter sein als jede einzelne, aber beide gehen merkbar ein.

Die Ansicht, das Objektiv müsse die Kamera "bedienen" (alleine schon diese Wortwahl - :rolleyes: ), ist aus dem vorigen Jahrtausend. Der Kamersensor ist der anzubetende Götze, dem die Scherbe davor zum Opfer vorgeworfen wird, und wehe, wenn sie nicht gut genug ist!!!

In Wahrheit ist das Objektiv die dauerhaft teure und wertvolle Komponente, und die Kamera, die es nicht perfekt "bedienen" kann, kommt in der nächsten Runde auf den Schrott oder in die Bucht. Solange die Auflösung der Kamera nicht erheblich höher ist als die des besten Objektivs, besteht Verbesserungsbedarf. - Ob man das dann braucht, ist natürlich eine ganz andere, individuell zu beantwortende Frage.

Vielleicht doch mal das Huhn bei Vollmond probieren? ;)
 
Zuletzt bearbeitet:
D.h. dass ein Objektiv, das 36 MP nicht bedienen kann, 50 MP dann unter wundersamer Eingebung doch wieder schafft? Muss man dazu ein Huhn zu Vollmond opfern?

Ich schrieb nicht das es denn 50MP Sensor komplett auslastet, sondern nur das dann die Auflösung dennoch weiter steigt.
Und dazu musst du kein Huhn bei Volmond opfern, sondern einfach mal lesen was Mi67 und andere dazu erklären.

Und hier noch was Bildhaftes zur Beugungstheorie: >>klick mich<<
 
Zuletzt bearbeitet:
Schon die Grundannahme ist unsinnig. Warum sollte immer ausgerechnet der Sensor die Gesamtauflösung nahezu allein begrenzen? "Datenerfassungsmäßig" sinnvoll wäre es sogar genau andersrum: Der Sensor sollte viel besser auflösen als das Objektiv, um wirklich "alles rauszuholen", was das Objektiv liefern kann.
Der einseitige Blickwinkel ist in jedem Fall unsinnig. Schreit der eine nach dem perfekten Objektiv, dann folgt sofort der andere und verlangt den Sensor, der die Auflösung eben dieses Objektivs möglichst komplett abtastet.

Was uns am Ende des Tages interessieren sollte, ist die Systemauflösung, der dabei noch erzielte Detailkontrast bei möglichst guter Unterdrückung von Abtastartefakten (Aliasing). Mit welcher Kombination aus Optik bzw. Sensor dies zustandegekommen ist, verrät das fertige Bild letztlich nicht mehr. Was den Bedarf an Systemauflösung angeht, muss halt jeder für sich festlegen, was er braucht oder zu brauchen glaubt. An dieser Stelle gibt es sicher die eine oder andere Fehleinschätzung, die den Markt antreibt.
 
Die in #84 verlinkten Diagramme beschreiben den kern des Sachverhalts doch sehr gut. Ein hochauflösender Sensor wird (bis auf Rauschverhalten, aber das ist vernachlässigbarer als viele annehmen) nicht schlechter als ein weniger hoch auflösender Sensor, kann aber bei hochwertigen Objektiven mehr rausholen.

Mich stört aber in den Grafiken die Suggestion, Objektive lieferten im besten Fall eine bestimmte, messbare Auflösung. Nicht nur, weil man kaum wissen kann, was ein Objektiv zum Beispiel an einer 200MP-DSLR leisten könnte, sondern auch, weil dieser fixe Wert der komplexen Matrix aus messbaren Werten in Abhängigkeit von Blende, Motivabstand, Ort der Messpunkte (Bildzentrum / -Rand) und Fertigungstoleranzen nicht gerecht wird. Während sich die ersten drei Punkte noch im Wesentlichen durch Einzelmessungen erfassen lassen, ist der letzte Punkt eine nur statistisch erfassbare Größe.

Es mag sein, dass Objektiv XY im Mittel bei Blende 4 oder 5,6 im bei r Metern Abstand vom Motiv mittig eine maximale Auflösung von z lp/mm erreicht. Ich kenne schon kein Labor, das für eine repräsentative Messung alle unterschiedlichen Abstände des Motivs vom Sensor die Auflösung für alle Blenden und jeden Bildpunkt durchmisst.
Wenn Objektiv XY am 50MP-Sensor bei Blende 5,6 mittig bei einem Motivabstand von 5 Metern eine maximale Auflösung von z lp/mm erreicht, heißt das nicht, dass diese maximale Auflösung auch bei 4m oder 6m Motivabstand gilt.

Und wenn 10 identische, parallel getestete Objektive (werden so viele überhaupt irgendwo getestet?) im Mittel eine Auflösung von z lp/mm erreichen, heißt das nicht, dass die Auflösung an einer bestimmten Stelle im Bild bei dem 11. Objektiv nicht noch deutlich besser ist.

Sprich: Es mag sein, dass ein auf 24MP herunterskaliertes Bild an einem 50MP-Sensor auf 95% der Bildfläche genauso aussieht wie ein unskaliertes Bild an einem 24MP-Sensor. Aber wenn das Objektiv auf 5% der Bildpunkte am 50MP-Sensor noch etwas besser auflöst, kann dies einen Vorteil bedeuten.

Ich frage mich, ob es irgendwann mal ein Messverfahren geben wird, das Objektive komplett durchmisst (mit abfotografierten "Bildplatten" in sämtlichen Entfernungen, angefangen bei der Naheinstellgrenze bis hin zu z.B. 100 Metern), jeweils mit sämtlichen Blenden, und mit nicht nur 1-3 identischen Objektiven. Vermutlich kann es sich kein Testlabor leisten, den dazu nötigen Roboter in einer riesigen, staubfreien Halle zu bauen. Aber dann könnte man endlich mal mit Gewissheit sagen, wo die tatsächlichen maximalen Auflösungen im Alltag (in dem im Gegensatz zu Labor jede Einstellung möglich ist) liegen.

Solange dies nicht erfolgt ist, kaufe ich mir weiterhin tendenziell eher die höherauflösende DSLR zur angeblichen "Matschlinse" und habe auch kein Problem damit, im Jahr 2030 vielleicht eine 100MP-DSLR zu nutzen. Nichts gegen hochwertige Objektive mit sehr schönem Bokeh... die sind unabdingbar (und ich weiß, dass meiner D7200 noch ein paar richtig gute Linsen fehlen, bevor ein Wechsel der Kamera irgendwann mal sinnvoll ist...), aber ich bin mir eben auch sicher, dass eine irgendwann mal existente DSLR mit 100MP keine schlechteren, sondern im Zweifel etwas bessere Ergebnisse mit dem "billigen" AF-S 35mm 1:1.8 G liefert als die D7200 (die ja auch schon um 50% höher auflöst als z.B. die D8x0).
 
Die in #84 verlinkten Diagramme beschreiben den kern des Sachverhalts doch sehr gut. Ein hochauflösender Sensor wird (bis auf Rauschverhalten, aber das ist vernachlässigbarer als viele annehmen) nicht schlechter als ein weniger hoch auflösender Sensor, kann aber bei hochwertigen Objektiven mehr rausholen.
Wenn der weniger auflösende Sensor mit z.B. 24MP genau auf dem Auflösungs-Niveau des Objektivs liegt, kann aber auf der anderen Seite der 50MP Sensor auch nicht mehr aus besagtem Objektiv herausholen.
Ein System ist immer nur so gut, wie das schwächste Glied. Das gilt für Computer, Autos, Soundanlagen, DSLRs, u.s.w. u.s.w.
 
Wenn der weniger auflösende Sensor mit z.B. 24MP genau auf dem Auflösungs-Niveau des Objektivs liegt, ...
Dann liegt die resultierende Systemauflösung wo?

Bitte nochmal Beiträge #82, #84 und #87 lesen und zu verstehen versuchen.

Der Spruch "Ein System ist immer nur so gut, wie das schwächste Glied." ist falsch. Tatsächlich müsste er noch extremer formuliert werden: "Ein System ist immer schlechter, als das schwächste Glied". Der Grund hierfür wurde in den genannten Beiträgen erläutert.
 
Zuletzt bearbeitet:
Mich stört aber in den Grafiken die Suggestion, Objektive lieferten im besten Fall eine bestimmte, messbare Auflösung. ...
... der komplexen Matrix aus messbaren Werten in Abhängigkeit von Blende, Motivabstand, Ort der Messpunkte (Bildzentrum / -Rand) und Fertigungstoleranzen nicht gerecht wird.
Was die (natürlich existierende) Inhomogenität der Auflösung im Bildfeld, im Nahbereich, ... angeht, kann man die generellen Zusammenhänge dennoch auf jeden Bildbereich bzw. Anwendungsbereich übertragen. Man muss sich lediglich von der Vorstellung lösen, es gäbe im Gesamtbild nur eine einzige Auflösung.

Was die Fertigungstoleranzen angeht, gibt es frei zugreifbar m.W. nur von Lensrentals entsprechende Serienmessungen mit folgender Varianzanalyse (z.B.: https://www.lensrentals.com/blog/2015/11/sigma-20mm-f1-4-dg-hsm-a1-mtf-curves).

Was Messungen im Nahbereich angeht, sind diese mit der Schwierigkeit behaftet, dass die Bildfeldebnung typischerweise für den Fernbereich optimiert wird. Daher wird bei Nahfokussierung je nach Objektivdesign (Auszugsfokussierung, Innenfokussierung, floating elements, ...) gerne mal ein Randabfall der Auflösung diagnostiziert, wo eigentlich eine Bildfeldkrümmung war. Betreibt man aber keine Repro-Fotografie planer Vorlagen, sondern z.B. Portraitfotografie, dann kann einem die Bildfeldkrümmung im Nahbereich relativ egal sein.

Ein weiterer Gedanke: bei aktuellen MP-Schleudern und guter Optik übertrifft die Systemauflösung bei weitem jene Auflösung, die bei Gesamtbildansicht durch unser Auge überhaupt noch wahrgenommen werden kann. Man braucht also gute Gründe, um überhaupt mehr als 10-15 MP an den Start bringen zu sollen. Freilich kann man mit möglicher Unterschreitung des Betrachtungsabstandes und Beschnittreserven argumentieren. Daraus folgt die zweite Frage, nämlich ob es nicht sogar günstig sein könnte, wenn die Systemauflösung (z.B. für einen nachträglichen Bildbeschnitt) im Bildfeld inhomogen verteilt und im Bildzentrum besonders hoch ist?
 
Ein System ist immer nur so gut, wie das schwächste Glied. Das gilt für Computer, Autos, Soundanlagen, DSLRs, u.s.w. u.s.w.

Wie schon gesagt wurde: Ein System ist immer schwächer als das schwächste Glied. Nur wenn dieses schwächste Glied viel schwächer ist als alle anderen, bestimmt es fast allein, wie schwach das Gesamtsystem ist. Und das ist auch bei "Soundanlagen" nicht anders. Wenn in so einem System 2 Glieder stecken (bspw. Mikrofon und Lautsprecher), die beide jeweils für sich eine Grenzfrequenz (den "-3dB-Punkt") bei 10kHz haben, wird das Gesamtsystem bei 10kHz schon bei -6dB oder schlechter rauskommen, und die -3dB-Grenzfrequenz liegt mehr oder weniger deutlich unter 10kHz.
 
Wenn der weniger auflösende Sensor mit z.B. 24MP genau auf dem Auflösungs-Niveau des Objektivs liegt, kann aber auf der anderen Seite der 50MP Sensor auch nicht mehr aus besagtem Objektiv herausholen.
Ein System ist immer nur so gut, wie das schwächste Glied. Das gilt für Computer, Autos, Soundanlagen, DSLRs, u.s.w. u.s.w.

Das stimmt gottseidank nicht und deckt sich auch nicht mit meinen eigenen Erfahrungen und auch nicht mit den Messergebnissen diverser Portale... schau doch nochmal in Beitrag 46. https://www.dslr-forum.de/showpost.php?p=13795977&postcount=46

Alle Sigma Art und auch die aktuellen Zeiss erreichen mehr Auflösung an der 5Ds R als an D8x0/E.
 
Zuletzt bearbeitet:
genau auf dem Auflösungs-Niveau des Objektivs
Eben die Wortwahl halte ich für falsch bzw. nicht ausreichend definiert. Es gibt mit Sicherheit eine Art "durchschnittliches", mit höchstauflösenden Sensoren maximal erreichbares Auflösungsniveau eines Objektivs, das (mit einigem Aufwand) auch messbar ist. Das ändert nichts daran, dass jedes Objektiv Stellen und Einstellungen besitzt, an und mit denen die Auflösung deutlich besser wird, als dieser Durchschnittswert.
Man muss sich lediglich von der Vorstellung lösen, es gäbe im Gesamtbild nur eine einzige Auflösung.
Eben. Wenn ein Objektiv meinetwegen ein "durchschnittliches Auflösungsniveau" von 24MP hat (mir dreht sich der Magen um bei solcher Wortwahl, weil eben das kaum auf jede Konstellation bezogen messbar ist), dann spricht dennoch nichts dagegen, dass das Auflösungsniveau an einigen Stellen sogar - hochgerechnet auf den gesamten Sensor, 50MP, 100MP oder sogar 200MP beträgt - und an anderen Stellen (bzw. mit anderen Aufnahmeparametern) sind es vielleicht nur 20MP oder 15MP. Die Stellen, an denen das Objektiv merklich schlechter ist als der Sensor, fallen auf. Die Stellen / Einstellungen, an denen das Objektiv besser (oder gar viel besser) ist, werden nicht bemerkt, bzw. werden nur auf einem höher auflösenden Sensor - bei perfekten Bedingungen - deutlich.
Daraus folgt die zweite Frage, nämlich ob es nicht sogar günstig sein könnte, wenn die Systemauflösung (z.B. für einen nachträglichen Bildbeschnitt) im Bildfeld inhomogen verteilt und im Bildzentrum besonders hoch ist?
Ganz genau! Ob ein Bild 12MP, 24MP oder 50MP hat, ist für die Betrachtung des Bilds als ganzes (selbst mit 30% Beschnitt) iimho fast unerheblich. Aber wenn man aus einem großen Gruppenfoto nachträglich Porträts extrahieren will, die in DinA4 ausgedruckt werden sollen, macht sich eine höhere Gesamtsystemauflösung gut. Und manchmal wünscht man sich ja im Nachhinein (nach einem Gruppenfoto), dass man von bestimmten Personen gerne ein Porträtfoto hätte, weil diese auf dem Gruppenfoto besonders gut zur Geltung kommen. Wenn an der Stelle auch noch das Objektiv "in Bestform" war, ist es schaden, wenn ausgerechnet der Kamerasensor der limitierende Faktor ist.

Die Vergangenheit hat gezeigt, dass die Auflösung von Sensoren bei gleichen Herstellungskosten immer weiter wächst (1 bis 2 Zehnerpotenzen sind da mindestens noch drin), während die Auflösung von Objektiven in viel geringerem Maß und fast nur mit höheren Kosten gesteigert werden kann.

Wenn es wirtschaftlich wäre, würde ich Kamerasensoren begrüßen, die mittig eine höhere Auflösung hätten als am Rand. Aber ich glaube nicht, dass das wirtschaftlich sinnvoll wäre. Für die Bildkomprimierung mit Bildbearbeitungsprogrammen sehe ich dann schon mehr Potenzial - ich habe bei meinen verwendeten Programmen (DxO, Gimp, Irfan View) bisher keine Möglichkeit gefunden, Bilder so als JPG abzuspeichern, dass beispielsweise Gesichter mit hoher und die anderen Bildteile mit weit niedrigerer Auflösung gespeichert werden. Falls so etwas mit wenig Aufwand (Gesichter markieren, abspeichern, fertig) möglich ist, lasse ich mich gerne eines Besseren belehren. Aber das ist ja hier eigentlich OT.
 
Es gibt mit Sicherheit eine Art "durchschnittliches", mit höchstauflösenden Sensoren maximal erreichbares Auflösungsniveau eines Objektivs, das (mit einigem Aufwand) auch messbar ist.
So schwer ist das nicht einmal. Man kann hierzu das "Luftbild" des Objektivs mit einer Mikroskop-Optik nachvergrößert abfotografieren. Unser User "Stuessi" hat hierzu schon manch eindrucksvolles Beispiel geliefert und dabei nachgewiesen, dass im Bildzentrum von Festbrennern durchaus mehr als 200 lp/mm aufgelöst werden können. MTF-Testbänke arbeiten nach genau diesem Grundprinzip, haben aber zusätzlich noch besser definierbare Eingangssignale und ggf. gleichzeitig noch Erfassungsmöglichkeiten für eine Bildfeldkrümmung oder eine gezieltere Analyse von Astigmatismus, Koma, longitudinaler oder transversaler CA, ... implementiert.

Wenn es wirtschaftlich wäre, würde ich Kamerasensoren begrüßen, die mittig eine höhere Auflösung hätten als am Rand. Aber ich glaube nicht, dass das wirtschaftlich sinnvoll wäre.
Wie auch immer das implementierbar sein sollte - von mir aus dürfte dies auch so sein. Eine indirekte Variante zur Reduktion der Datenmassen könnte eine Bildhöhen-abhängig "lossy" arbeitende JPEG- oder RAW-Kompression sein. Wenn ich je eine Kamera mit deutlich mehr als meinen aktuellen 12 MP kaufen sollte, dann vorrangig um damit a) die höhere QE, Dynamik und das verringerte Rauschen aktueller Sensoren zu nutzen und b) Auflösungsreserven zu erhalten, die es mir erlauben, an einer kompakten Kamera mit nur noch drei Festbrennern per "Digitalzoom" einen Brennweitenbereich von ca. 17-200 mm KB-Äquivalent abzudecken.
 
Wie auch immer das implementierbar sein sollte - von mir aus dürfte dies auch so sein. Eine indirekte Variante zur Reduktion der Datenmassen könnte eine Bildhöhen-abhängig "lossy" arbeitende JPEG- oder RAW-Kompression sein. Wenn ich je eine Kamera mit deutlich mehr als meinen aktuellen 12 MP kaufen sollte, dann vorrangig um damit a) die höhere QE, Dynamik und das verringerte Rauschen aktueller Sensoren zu nutzen und b) Auflösungsreserven zu erhalten, die es mir erlauben, an einer kompakten Kamera mit nur noch drei Festbrennern per "Digitalzoom" einen Brennweitenbereich von ca. 17-200 mm KB-Äquivalent abzudecken.

Wenn es um die Reduktion der Datenmassen geht, bietet Nikon doch jetzt schon verschiedene Bildgrößen und S-RAW. Oder man könnte sich auf 12 Bit RAW beschränken. Auch das "Digitalzoom" gibt es mit den verschiedenen Bildfeldgrößen längst.
 
Wenn es um die Reduktion der Datenmassen geht, bietet Nikon doch jetzt schon verschiedene Bildgrößen und S-RAW. Oder man könnte sich auf 12 Bit RAW beschränken. Auch das "Digitalzoom" gibt es mit den verschiedenen Bildfeldgrößen längst.
Klar, die Crop-Funktion (= Digitalzoom) ist natürlich anwendbar - mit custom-functions vielleicht auch hinreichend schnell zugreifbar. Dennoch müsste man sich dafür im Moment der Aufnahme mit einer zusätzlichen Einstellung herumschlagen. Was ich meinte, war ein kompletter "no-brainer", d.h. aus jeder Aufnahme kann man z.B. nachträglich ein Vollformat- oder ein Crop-Bild erzeugen, wobei im Zentrum die physikalische Sensorauflösung erhalten bleibt.

Ein "Hardware-Auflösungsgradient" so wie Stefan mit F es vorschlägt, wäre diesbezüglich noch günstiger, aber technisch nicht so leicht umsetzbar. Vorteile hätte ein solches Vorgehen insbesondere dann, wenn die Sensoren im inneren Teil des Bildes nochmals deutlich an Auflösung zulegen. Dann wären z.B. 20 MP auf der Fläche eines 1"-Sensors, 25-30 MP auf FT-Format, 35-40 MP an DX/APS-C und 50-60 MP an KB eine nette Konstellation. Ich habe das jetzt nicht ganz genau gestaffelt/durchgerechnet, aber das Prinzip wird hoffentlich deutlich. Hätte der gesamte Sensor die Pixeldichte des zentralen 1"-Bereichs, dann läge er bei ca. 140 MP an Stelle der 50-60 MP.
 
Alle Sigma Art und auch die aktuellen Zeiss erreichen mehr Auflösung an der 5Ds R als an D8x0/E.
Schreibe ich eigentlich südhebräisch oder was?
Genau das meine ich.

Das heisst aber auch, dass die Sigmas und Zeiss höher auflösen, als die D8x0/E.
In dieser Kombi ist dann die D8x0/E das schwächste Glied.
Das schrächste Glied muss natürlich bei weitem nicht immer das Objektiv sein. Ist doch klar.

Ich frage mich aber, wieso hier gleich drei oder vier Leute mich komplett missverstehen können... :confused:
 
WERBUNG
Zurück
Oben Unten