• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb August 2025.
    Thema: "Kurven"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum August-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Pixelwahn vs. Objektivauflösung

Status
Für weitere Antworten geschlossen.
Schlechte Objektive sind schon bei 6 MPix auf APS überfordert.
Ordentliche Objektive schaffen auch 18 MPix auf APS.
Top-Objektive schaffen theoretisch weitaus mehr. "Theoretisch" weil dies nur unter Laborbedingungen realisierbar sein wird. Selbst leichteste Bewegungen der Hand beeinflussen solche "Messungen".

Freut euch an den schönen Ausrüstungen, die ihr habt. Und wenn ihr aufhört, eure Bilder ständig bei 100% anzuschauen und euch dann über die Fehler des Objektivs oder die Schwächen des Sensors zu ärgern, bekommt ihr auch wieder Freude am Fotografieren. Bei mir ist es übrigens in eine andere Richtung gegangen: ich erfreue mich unglaublich an einer tollen Haptik, viel mehr als daran, ob nun 90% oder 98% der maximal möglichen Leistung erbracht werden. ;)

Nur mal so, als kleines Plädoyer am Rande... :top:
 
Vollkommener unhaltbarer Unfug. Auf das Bild bezogen ändert sich an der Beugungsunschärfe nichts!
Wieso unhaltbarer Unfug? :rolleyes:

Ich bin davon ausgegangen, dass die Leute, welche am liebsten 40MP an APS-C haben wollen, dies vor allem als Crop-Potenzial nutzen wollen und nicht als Oversampling. Letzteres kann unbestritten eine etwas bessere Qualität mit sich bringen (wenn auch wirklich nur geringfügig besser).

Und so häufig, wie man die Vokabel Croppotenzial liest, dürfte ich mit dieser Annahme nicht so arg falsch liegen.

Erwin
 
Und so häufig, wie man die Vokabel Croppotenzial liest, dürfte ich mit dieser Annahme nicht so arg falsch liegen.
Dann muss man einfach mal die eigenen Aussagen betrachten und sauber formulieren. Die von Dir geäusserte Denkweise ist doch die Ursache für solche unseligen Wahnvorstellungen.
Eine höhere Sensor-Pixelzahl wird eben nicht "Croppotential" bringen! Es soll und wird einfach nur bessere Bilder bringen und das ist gewährleistet, weil man mit immer weniger Problemen der Digitalisierung zu tun bekommt. Beispielsweise kann man den AA-Filter weglassen oder stark in der Stärke reduzieren, wenn die Sensor-Auflösung deutlich höher ist als das beste Auflösevermögen der Objektive.
 
Dann muss man einfach mal die eigenen Aussagen betrachten und sauber formulieren. Die von Dir geäusserte Denkweise ist doch die Ursache für solche unseligen Wahnvorstellungen.
So unsauber war das auch nicht formuliert, das hätte man ohne Weiteres gleich so interpretieren können, wie ich es meinte.
Aber lies mal die Beiträge in den vielen Megapixelwahnthreads durch. Da ist der von dir angeführte Vorteil gegenüber Croppotenzialträumereien in der Minderheit. Wie die von mir geäußerte Denkweise zu solchen Wahnvorstellungen geführt haben soll, kann ich nicht ganz nachvollziehen. Da wurde Ursache und Wirking ein bisschen umgedreht. Die bereits bestehenden Wahnvorstellungen haben mich äußern lassen und nicht umgekehrt!

Aber diese Diskussion triftet wieder einmal in die absolute Theorie ab, ohne auch nur ein bisschen daran zu denken, was man in der Praxis für das schlussendliche Ausgabeformat an Anforderungen braucht.

Der Wegfall des AA-Filters ist doch auch nur reine Theorie, weil sie sich wirklich an der besten Optik orientieren muss. Na dann nehme mal eine supergute Zeiss-FB, betrachte sie an ihrem "Sweet-Spot" und rechne nach, wieviel Auflösung es braucht, um hier ohne AA abtasten zu können. Ich mache mir jetzt nicht die Mühe, dies durchzurechnen. Aber vermutlich wird selbst der neue 120MP Supersensor von Canon noch um eine Nummer zu klein sein. Ein Wegfall des AA bei Serien-DSLRs in einer auch nur halbwegs überschaubaren Zeit ist deshalb für mich ähnlich praxisnah wie ein Quantencomputer.

Erwin
 
Soll keiner sagen, es haetten nicht wirklich alle ihren wie auch immer gearteten Senf abgegeben. Also, ich darf auch mal...

Einer der Autoren hier hat ja bereits geschrieben, dass die tatsaechliche Aufloesung eines Bildes in der Theorie zwar vielleicht x oder y Megapixel sein mag, das endgueltige Medium aber - Bildschirm, Projektor, oder Druck bzw. Poster - in den meisten Faellen eine erheblich geringere Aufloesung hat, und eine solche nicht ins Gewicht faellt, weil der Betrachtungsabstand mindestens die Bilddiagonale oder mehr betraegt.

Ein weiterer Faktor - das sage ich nur, weil einige Seiten vorher ueber die Pixeldichte, und die Frage analog vs. digital gefachsimpelt wurde . ist die Aufloesung unseres Auges.

Letzlich sind auch unsere Augen nichts anderes als Optiken - Hornhaut ist das Objektiv (eher eine camera obscura), die Netzhaut der Bildsensor. Aehnlich wie in einem Bayersensor hat das Auge verschiedene Rezeptoren fuer die verschiedenen Farben.

Die Aufloesung entspricht ungefaehr (sofern ich mich richtig erinnere) einem Vollformatsensor von ca. 30 MP. Dh, die aktuellen Kameras haben bereits die entsprechende oder bessere Aufloesung. Das aktuelle iPhone 4 verfuegt ueber ein Retina Display, welches die absolute Grenze der Aufloesung des menschlichen Auges erreicht.

Das Hochruesten bei Aufloesung und Megapixeln wird spaetestens dann aufhoeren, wenn die Kette Aufnahme - Verarbeitung - Ausgabemedium die Grenze der Aufloesung des Auges erreicht. Was darueber hinaus technisch moeglich ist, wird allenfalls fuer elektronische Bildbetrachtung relevant, zB bei Spionagefotos, oder speziellen Anwendungen in der Weltraumforschung.
 
Das Hochruesten bei Aufloesung und Megapixeln wird spaetestens dann aufhoeren, wenn die Kette Aufnahme - Verarbeitung - Ausgabemedium die Grenze der Aufloesung des Auges erreicht.
Falsch, das Problem ist nicht die Auflösung, sondern die Digitalisierungsartefakte. Das war bei den ersten CD-Playern auch ein Problem, bis die 4 und 8-fach Oversampling beherrschten. In dem Kontext kann man dann die Auflösung hochrechnen bei der man der Artefakte dann Herr sein dürfte - 1/3 Gigapixel dürften es schon sein, dann gibt es auch mit Aliasing und Moiree keine Probleme mehr (wohl aber die Pixelpeeper mit der Pixelschärfe - die sind mir aber sowas von egal)...
 
Dann muss man einfach mal die eigenen Aussagen betrachten und sauber formulieren. Die von Dir geäusserte Denkweise ist doch die Ursache für solche unseligen Wahnvorstellungen.
Eine höhere Sensor-Pixelzahl wird eben nicht "Croppotential" bringen! Es soll und wird einfach nur bessere Bilder bringen und das ist gewährleistet, weil man mit immer weniger Problemen der Digitalisierung zu tun bekommt. Beispielsweise kann man den AA-Filter weglassen oder stark in der Stärke reduzieren, wenn die Sensor-Auflösung deutlich höher ist als das beste Auflösevermögen der Objektive.

dieses post von dir nur stellvertretend für viele aussagen, die du so im forum von dir gibst:

mag sein, dass deine überlegungen korrekt sind und höhere auflösungen auf gleicher grundfläche trotz des besseren erkennens der beugungsunschärfe insgesamt doch ein bessere bildergebnis liefert. mag aber auch nicht so sein.

es gibt zu diesem thema viele parallelen, die man heranziehen kann, um das zu beschreiben, was ich jetzt meine. und zwar geht es darum: jene fraktion, welche die meinung vertritt, dass die größere pixeldichte irgendwann dazu führt, dass die bildqualität bei kleineren blenden sich faktisch verschlechtert, gibt zumindest eine logisch erscheinende begründung dafür ab. du jedoch stellst einfach nur irgendwelche behauptungen auf und bleibst uns den "beweis" deiner aussagen einfach schuldig. was von dir kommt ist lediglich die bewertung der gegnerischen behauptungen als unsinn.

ich gestehe dir gerne zu, dass es für die wahrheit an sich keine begründung braucht. ich muss dir wohl auch keine begründung dafür abgeben, wenn ich behaupte, dass ein hammer, wenn man ihn loslässt, immer richtung erdmittelpunkt fallen wird und niemals auf die decke des zimmers. der grund: wir beide WISSEN einfach, dass es so ist.

hier wissen wir halt nicht beide, wie es tatsächlich ist. zumindest ICH weiß es nicht - also halte ich mich an jene, die mir eine halbwegs verständliche begründung für ihre annahme liefern. da du dazu nicht willens oder nicht imstande bist, macht dich für mich nicht besonders glaubwürdig.
 
hier wissen wir halt nicht beide, wie es tatsächlich ist. zumindest ICH weiß es nicht - also halte ich mich an jene, die mir eine halbwegs verständliche begründung für ihre annahme liefern. da du dazu nicht willens oder nicht imstande bist, macht dich für mich nicht besonders glaubwürdig.
Wer hier hat denn eine verständliche Erklärung dafür geliefert, dass die Bildqualität sinken würde? Keiner! Da die Erklärungen etwas tiefgreifender sind als ein einfaches "Apfel fällt vom Baum" versuche ich es mal mit:
http://www.zeiss.com/C12567A8003B8B6F/EmbedTitelIntern/CLN_31_MTF_de/$File/CLN_MTF_Kurven_2_de.pdf
 
Falsch, das Problem ist nicht die Auflösung, sondern die Digitalisierungsartefakte. Das war bei den ersten CD-Playern auch ein Problem, bis die 4 und 8-fach Oversampling beherrschten. In dem Kontext kann man dann die Auflösung hochrechnen bei der man der Artefakte dann Herr sein dürfte - 1/3 Gigapixel dürften es schon sein, dann gibt es auch mit Aliasing und Moiree keine Probleme mehr (wohl aber die Pixelpeeper mit der Pixelschärfe - die sind mir aber sowas von egal)...

Im Auge und im Hirn gibt es keine "Digitalisierungsartefakte"...
 
..1/3 Gigapixel dürften es schon sein, dann gibt es auch mit Aliasing und Moiree keine Probleme mehr ..
Merkst du bei solchen Aussagen überhaupt nicht mehr, wie weit hier Theorie und aktueller Stand der Technik auseinander klaffen?

Und selbst wenn es heute schon technisch möglich wäre, so einen Sensor zu bauen und ausreichend schnell auszulesen. Eine 500MB RAW-Datei schlussendlich in einen DIN A4 oder vielleicht DIN A3 Print fließen zu lassen, da muss der Spruch "mit Kanonen auf Spatzen schießen" neu definiert werden und die Kanone durch eine Nuklearwaffe ersetzt werden.

Erwin
 
Wer hier hat denn eine verständliche Erklärung dafür geliefert, dass die Bildqualität sinken würde? Keiner!

stimmt ... hier im thread nicht ... aber im internet hatte ich eine für mich verständliche erklärung gefunden; leider finde ich sie jetzt nicht mehr.

aber ich habe mal kurz skizziert, was ich meine (siehe angehängtes bild - mit sowas kann ich besser umgehen als mit dem von dir angegebenen pdf, wo ich nur bahnhof verstehe).

erklärung zu meinem bild:

links oben schematisch einen ausschnitt aus einem sensor mit relativ geringer auflösung. projiziert wird ein schwarzer hintergrund mit einer kleinen punktförmigen lichtquelle (beispielsweise der nachthimmel mit einem stern). die helle scheibe stellt das abbild des sternes dar (ist also kleiner als ein pixel des sensors) und rundherum der erste zerstreuungskreis (fällt ebenfalls noch in das selbe pixel). rechts daneben die schematische zeichnung, wie der sensor dieses bild interpretieren wird (also das betroffene pixel wird ziemlich hell werden, die restlichen pixel rundherum schwarz - der einfachheit halber mal das rauschen und sonstige fehler des sensors außer vor gelassen).

selbige situation mit einem sensor, der die 4-fache auflösung hat (also in beiden richtungen doppelt so viele pixel darstellen kann). das abbild des sterns passt immer noch genau in ein pixel - der zerstreuungskreis nun nicht mehr. es werden jetzt statt nur 1 pixel plötzlich 5 pixel mit informationen versorgt - sprich: um genau 1 pixel mehr als es eigentlich die höhere pixelanzahl sein dürfte. links neben dieser zeichnung oben ist das bild, das in diesem fall der sensor liefern würde. ok, hier könnte man noch sagen, dass der kleinere punkt die realität ja besser wiedergibt als beim obigen sensor. aber: nehmen wir an, wir drucken beide bilder in der gleichen physikalischen größe. je nach ausgabegröße muss das bild des höher auflösenden sensors "verkleinert" werden, weil das ausgabegerät das höher auflösenden bild gar nicht so detailliert zu papier bringen kann. der grüne rahmen zeigt die größe des pixels, auf welches wir das bild verkleinern. und beim verkleinern ist es so, dass ja ein pixel üblicherweise auf seine nachbarpixel aufgeteilt wird. sprich: ein teil der information des zerstreuungskreises fällt auf das pixel, wo der stern zu liegen kommt - und der rest wanderd in die jeweils andere richtung, wodurch plötzlich der zerstreuungskreis auch bei niedrigerer auflösung sichtbar wird. die zeichnung direkt darunter zeigt das bild nach der verkleinerung. und das halte ich eben für eine verschlechterung gegenüber dem bild des sensors mit geringerer auflösung.

zugegegeben: das ist jetzt natürlich auf die schlechtest denkbare situaton zugeschnitten. aber es soll zeigen, dass es nicht zwingend so ist, dass die höhere auflösung auch ein segen ist.
 
Zuletzt bearbeitet:
@ phototipps.com

Das Beispiel zeigt mir, dass die Auflösung für die anvisierte Struktur, den Punkt, noch nicht hoch genug ist.
 
Merkst du bei solchen Aussagen überhaupt nicht mehr, wie weit hier Theorie und aktueller Stand der Technik auseinander klaffen?
Wieso dürfen diese beiden Dinge nicht auseinanderklaffen - oder hättest Du früher einen ISO-800 Film eingelegt nur weil Du auf f/22 Abblenden wolltest?
Mein Punkt ist: Es gibt keinen Pixelwahn, nur einen allgemeine Mär dass eine höhere Auflösung das Bild schlechter werden liesse, nur weil sich plötzlich das Objektiv als das die Qualität theoretisch begrenzende Element erweist - theoretisch deswegen, weil die endgültige Bildqualität ist das Produkt aus Objektivqualitäten und Abtastungsqualität. Der Artikel von Zeiss zeigt deutlich und unwiederlegbar wie sich eine höhere Abtastungsqualität in einem besseren Bild niederschlägt - ungeachtet ob das Objektiv nun gut ist oder nicht und ungeachtet ob nun (die einen Fotografen nicht die Bohne interessierende) Diffraktion auf Pixelebene auftritt.
Natürlich sollte man auch eines beachten: Aus einem schlechten Objektiv wird nie ein gutes werden, egal wie fein das virtuelle Bild erfasst wird - aber wieso soll man sich, wenn man bereit ist in Objektive zu investieren mit einem schlecht auflösenden Sensor bescheiden müssen, nur damit einige Pixelpeeper glücklich sind...
 
zugegegeben: das ist jetzt natürlich auf die schlechtest denkbare situaton zugeschnitten. aber es soll zeigen, dass es nicht zwingend so ist, dass die höhere auflösung auch ein segen ist.
Das Beispiel zeigt nur das Resultat zweier inadaequater Auflösungen und leider ein falsches Verständnis für das projizierte Bild. Les den Artikel von Zeiss und versuche zu verstehen was an Bild vom Objektiv in der Sensorebene erzeugt wird.
 
@ phototipps.com

Das Beispiel zeigt mir, dass die Auflösung für die anvisierte Struktur, den Punkt, noch nicht hoch genug ist.

ich hatte schon begonnen, ein beispiel mit 9-fach höherer auflösung zu zeichnen - und dabei hat sich herausgestellt, dass dann noch viel mehr pixel betroffen wären und letztendlich das selbe ergebnis rauskommt, sobald ich das bild verkleinere.

das ergebnis bleibt allerdings gleich, wenn man die berechnungsmethode "pixelwiederholung" verwendet - was dann aber dazu führt, dass schräge kanten plötzlich treppenförmig werden. daher gehe ich davon aus, dass wohl kein ernstzunehmender photoshopper diese berechnungsmethode wählt.

wie schon geschrieben: faktum ist natürlich, dass die detailgenauigkeit mit höherer auflösung steigt, das ist ja keine frage. und das ist ja das argument jener, die meinen, die qualität würde sinken - weil eben mit der höheren auflösung auch die beugungsunschärfe sichtbarer wird. es sieht offenbar nach einem paradoxum aus, weil sowohl der datailierungsgrad steigt als auch die beugungsunschärfe.

aber das ist vermutlich hochgradig irrelevant - weil es ja auf das endergebnis ankommt, also auf das am monitor/beamer/tv dargestellte oder zu papier gebrachte bild. in der annahme, dass ich das niedriger auflösende bild genauso groß darstelle wie das höher auflösende - und in der weiteren annahme, dass das höher auflösende bild das ausgabemedium überfordert (wer hat schon einen monitor/beamer/tv mit 18 megapixel?), muss das bild zurück skaliert werden. und hier behaupte ich eben, dass sich die höhere detaillierung negativ bemerkbar macht, weil die berechnungsalgorithmen nicht exakt das selbe ergebnis produziert wie ein niedriger auflösender sensor.

Das Beispiel zeigt nur das Resultat zweier inadaequater Auflösungen und leider ein falsches Verständnis für das projizierte Bild. Les den Artikel von Zeiss und versuche zu verstehen was an Bild vom Objektiv in der Sensorebene erzeugt wird.

ich habe schon geschrieben, dass ich dieses technische zeugs nicht verstehe. ein nochmaliges darauf hinweisen hat in meinem fall keinen sinn. es braucht für mich eine symbolhafte, leicht verständliche erklärung und das ist in deinem pdf nicht zu finden. du versteckst dich ja leider in diesem kauderwelsch aus fachbegriffen, weil du dich damit scheinbar unangreifbar fühlst. ähnlich ist es ja in dem thread gewesen, wo es darum ging, wann canon endlich eine spiegellose systemkamera rausbringt. behauptungen aufstellen ja - diese verständlich untermauern nein!

ehrlicherweise habe ich gar nicht damit gerechnet, dass du MIR mit einfachen worten DEIN wissen näher bringen kannst. was ich absolut für schade empfinde.
 
Es gibt keinen Pixelwahn, nur einen allgemeine Mär dass eine höhere Auflösung das Bild schlechter werden liesse, nur weil sich plötzlich das Objektiv als das die Qualität theoretisch begrenzende Element erweist
Och, nicht schon wieder dieses Totschlagargument, welches alle Gegner von überzogenen Pixelzahlen in die Ecke der Nichtversteher stellen soll. Dass ein Objektiv dabei nicht schlechter wird, darüber ist sich die Masse der Leute hier schon lange einig. Wie oft soll man das noch wiederholen.
Der Artikel von Zeiss zeigt deutlich und unwiederlegbar wie sich eine höhere Abtastungsqualität in einem besseren Bild niederschlägt - ungeachtet ob das Objektiv nun gut ist oder nicht und ungeachtet ob nun (die einen Fotografen nicht die Bohne interessierende) Diffraktion auf Pixelebene auftritt.
Die Frage ist doch hier, welchen Preis bezahlt man für so eine unbetritten bessere, aber nur marginal bessere Qualität und welche Nebeneffekte handelt man sich dabei ein (Datenvolumen, Serienspeed, Dynamikumfang). Und natürlich die Hauptfrage: Ist diese Verbesserung am endgültigen Ausgabeformat überhaupt erkennbar?
..aber wieso soll man sich, wenn man bereit ist in Objektive zu investieren mit einem schlecht auflösenden Sensor bescheiden müssen, nur damit einige Pixelpeeper glücklich sind...
...aber wieso soll man, wenn man diese höhere Abtastung absolut nicht braucht, zwangsweise mit Einschränkungen leben? Die durch die höhere Auflösung unnötig sinkende Serienspeed ist z.B. so eine Einschränkung. Und dies nur, weil einige Leute die theoretisch beste Abtastung haben wollen...

Man wirft so viele Modelle auf den Markt, da täte ein bisschen Diversifizierung bei der Auflösung durchaus gut. Dabei kann und soll auch für jeden Anwenderkreis etwas dabei sein. Wie schnell wäre z.B. ein Cam mit aktuellem Prozessor und 12MP? Aber dann müsste das Marketing ja dem Fußvolk erklären, warum die eigentlich höherwertigere Cam (je MP, desto höherwertig) langsamer ist, als das geringer auflösende Modell.

Erwin
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten