• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Brennweitenvorteil bei 36 Megapixel

Ab 100 % habe ich mit radikalem Qualitätsverlust zu kämpfen, denn ab dieser Grenze muss ich Details "erfinden" (interpolieren), die gar nicht aufgenommen wurden, die nur "angenommen" werden mithilfe der Mathematik, es ist eine konstruierte Realität.
Das ist schon eine Illusion – beim Bayer-Sensor wird auch bei 100 % massiv interpoliert, dort heißt es halt De-mosaicing. Auch Geraderichten, perspektivische Entzerrung und die Objektivkorrekturen interpolieren, … und auch Entrauschen und Schärfen "erfinden" Details.

Unterhalb von 50 % geht's im Prinzip ohne Interpolation, aber dafür handelt man sich wieder Antialiasing-Artefakte ein.

Bis 100 Prozent lasse ich Pixel wegfallen und das ist wesentlich einfacher als bei über 100 Prozent Pixel zu "erfinden".
Auch das "Pixel weglassen" würde massiv Antialiasing-Artefakte erzeugen, deshalb wird normalerweise bei unter 100 % ebenfalls interpoliert. Da bleibt normalerweise ebenfalls vom Originalbild praktisch nichts übrig.

Insofern sehe ich allenfalls graduelle Unterschiede zwischen 100 % und anderen Zoomstufen. Jenseits von 100 % entstehen natürlich keine neuen Details, insofern würde ich das nur machen, um ein vorgegebenes Format zu füllen (Bildschirm, Print), aber nicht im ooc-JPEG (und insofern finde ich die "Digitalzooms", die einen Bildausschnitt machen und ihn in der Kamera auf das volle Format vergrößern, persönlich auch völlig überflüssig).

L.G.

Burkhard.
 
Bei der Vergrößoerung geht es überhaupt nicht um "Sensorpixel zu Bildpunkten", sondern ausschließlich um das Verhältnis aus Abmessung des fertigen Bilds zur Abmessung des effektiv benutzten Anteils des Sensors.

Hört doch einfach auf, in Pixeln denken zu wollen, das verwirrt nur alles.


Gruß, Matthias

In der digitalen Fotografie geht es um Pixel, ob jetzt Sensorpixel oder Bildpunkte. Auch ein Pixel ist eine Fläche, nämlich die kleinstmögliche Flächeneinheit. Verwirrend? Nur wenn man gedanklich noch nicht den Sprung in das digitale Zeitalter geschafft hat.

PS: Die eigentliche Verwirrung herrscht beim Begriff "Vergrösserung" fürs Croppen, denn es ist nur eine relative Vergrösserung, da es eigentlich eine geringere Verkleinerung ist.
 
Zuletzt bearbeitet:
Verwirrend? Nur wenn man gedanklich noch nicht den Sprung in das digitale Zeitalter geschafft hat.

Wenn Du wirklich "auf Pixelebene" denken würdest, hättest Du die Einwände gebracht, die Burkhard2 gerade genannt hat. Das ist das digitale Zeitalter. Alles andere ist missverstandener Strahlensatz.

PS: Die eigentliche Verwirrung herrscht beim Begriff "Vergrösserung" fürs Croppen, denn es ist nur eine relative Vergrösserung, da es eigentlich eine geringere Verkleinerung ist.

Genau das ist eine Vergrößerung immer: Relativ! Sie ist das Längen/Breiten-Verhältnis zwischen Ausgabe- und effektiv benutztem Aufnahmeformat.



Gruß, Matthias
 
Das Verständnisproblem ist ein anderes: Ich kann nur vergrössern* bis 100%. Alles unter 100 % ist ein Bildausschnitt. Mehr als 100 Prozent ist kein Bildausschnitt (Crop), sondern Digitalzoom. Und diese Grenze ist für manche anscheinend auch eine Verständnisgrenze. Ab 100 % habe ich mit radikalem Qualitätsverlust zu kämpfen, denn ab dieser Grenze muss ich Details "erfinden" (interpolieren), die gar nicht aufgenommen wurden, die nur "angenommen" werden mithilfe der Mathematik, es ist eine konstruierte Realität. Bis 100 Prozent lasse ich Pixel wegfallen und das ist wesentlich einfacher als bei über 100 Prozent Pixel zu "erfinden".

Wie ich oben schon dargelegt habe, ist diese Definition der "100%" Grenze völlig belanglos.
Es ist vollkommen korrekt, dass beim Vergrößern eins Bildausschnitts die Qualität sinkt aber auch der umgekehrte Sachverhalt gilt: Beim Verkleinern steigt i.A. die Bildqualität (abhänig von der Qualitätskapazität des Endformates und des Skalierungsverfahrens).
Was aber unabhänig von 100% gilt ist , dass das Teleende weniger "Qualität" (ich würde hier eher den Begriff Information schreiben) besitzt als das Weitwinkelende.

Um nochmal ein Beispiel anzuführen wo so eine 100% Grenze keine Rolle spielt:
In 2 Jahren bringt Nokia das PureView 909 (*) raus, welches praktisch identisch mit dem jetzigen PureView ist, nur das es statt einem 40 MP Sensor einen 160 MP Sensor besitzt. Die Ausgabe ist aber, immernoch wie beim Alten, auf maximal 40 MP begrenzt und sonst immer runtergerechnet auf ein noch kleineres Format und es besitzt den gleichen Zoomfaktor von 3.x wie das 808.
Schauen wir die beiden Endstellungen des Zooms an:
Im Weitwinkelbereich bekommt man ein 8 MP Bild, bei dem ungefähr 20 Abtastungen zu einem Pixel verrechnet werden.
Am Teleende bekommt man ein 8 MP Bil, bei dem ungefähr 4 Abtastungen zu einem Pixel verrechnet werden.

Beide Bilder sind weit von einer 1:1 Abbildung zwischen Pixel und Abtastung entfernt, was man aber trotzdem beobachten kann ist, dass WW Bilder eine bessere Qualität haben, besonders wenn wenig Licht vorhanden ist.

(*): Nur damit das klar ist: Das ist frei erfunden um meinen Standpunkt zu erläutern. Zu dem kommenden Einwand ob das überhaupt Sinnvoll sei eine solche Überabtastung vorzunehmen können wir einen eigenen Thread aufmachen.

criz.
 
Zuletzt bearbeitet:
Wenn Du wirklich "auf Pixelebene" denken würdest, hättest Du die Einwände gebracht, die Burkhard2 gerade genannt hat. Das ist das digitale Zeitalter. Alles andere ist missverstandener Strahlensatz.



Genau das ist eine Vergrößerung immer: Relativ! Sie ist das Längen/Breiten-Verhältnis zwischen Ausgabe- und effektiv benutztem Aufnahmeformat.



Gruß, Matthias

Falsch. Es gibt keinen Unterschied zwischen Fläche (Pixel) und Fläche (Quadratzentimeter, -millimeter, was auch immer), weder mathematisch noch optisch, der Strahlensatz steht in keinem Widerspruch dazu. Und dass mit der Relation verstehst du auch nicht, wenn du ersteres nicht verstehst.
 
Zuletzt bearbeitet:
Falsch. Es gibt keinen Unterschied zwischen Fläche (Pixel) und Fläche (Zentimeter).
Na siehste, es gibt also keinen Grund "in Pixeln" dwnken zu wollen, wenn man es nicht beherrscht. :p

Und dass mit der Relation verstehst du auch nicht, wenn du ersteres nicht verstehst.

Irgendwie bist Du niedlich! Du darfst mir glauben, dass ich das verdammt gut verstehe.


Gruß, Matthias
 
Na siehste, es gibt also keinen Grund "in Pixeln" dwnken zu wollen, wenn man es nicht beherrscht. :p



Irgendwie bist Du niedlich! Du darfst mir glauben, dass ich das verdammt gut verstehe.


Gruß, Matthias

Nö, du verstehst nicht, was Pixel sind. Da fängt es schon an, bei diesen einfachsten Grundlagen. Lieber willst du erklären, dass man zum Vergleichen was zum Vergleichen braucht. Toll. Aber Pixel vergleichen willst du nicht, weil du nicht verstanden hast, was Pixel sind. Dein Problem.
 
Nö, du verstehst nicht, was Pixel sind. Da fängt es schon an, bei diesen einfachsten Grundlagen. Lieber willst du erklären, dass man zum Vergleichen was zum Vergleichen braucht. Toll. Aber Pixel vergleichen willst du nicht, weil du nicht verstanden hast, was Pixel sind. Dein Problem.

Was sind denn Pixel Deiner Meinung nach? Kennst Du Dich mit so Sachen wie dem Abtasttheorem und Aliassignalen aus? Nein? Dann hast Du auch keinen Anlass, in Pixeln denken zu wollen.

Wenn Du einen Sensorausschnitt von 1mm x 1,5mm auf 1m x 1,5m vergrößerst, hast Du einen Vergrößerung um den Faktor 1000. Völlig unabhängig davon, wie gut das Bild auf den 1mm x 1,5mm aufgelöst war. Wenn die Auflösung groß war, kannst Du das Bild aus relativer Nähe betrachten, ohne "Pixel" zu erkennen. Wenn die Auflösung zu klein war und/oder Du zu nah rangehst, siehst Du "Pixelunschärfe" (und noch viele andere Unschärfeanteile). Und erst da, wenn überhaupt, werden Pixel interessant: Sie begrenzen das sinnvolle Verhältnis aus Betrachtungsabstand und Ausgabeformat.


Gruß, Matthias
 
Na dann viel Spass beim Betrachten deiner über 100 % vergrösserten Fotos. :rolleyes:

Zum Glück können wir das hier interaktiv machen :)
Hast du mein Beispiel verstanden? Oder soll ich noch ein Beispiel in die andere Richtung bringen?
Diese 100% Grenze ist wirklich nicht relevant wenn man nur vom Informationsgehalt eines Bildes ausgeht.

criz.
 
...

Diese 100% Grenze ist wirklich nicht relevant wenn man nur vom Informationsgehalt eines Bildes ausgeht.

criz.

Wenn du bei deinem Beispiel mit dem Nokia-Handy auf über 100 % kommen willst, müsstest du dir das Bild mit mehr als 41 Megapixel anschauen, wenns ein 41 Megapixel-Sensor ist. Mach das, dann reden wir weiter.
 
Mach das, dann reden wir weiter.

Statt hier die Grundlagenkenntnisse anderer anzuzweifeln, solltest Du Dich mal ganz massiv mit ein paar mehr Grundlagen als der reinen Pixelzählerei beschäftigen. Dann würdest Du nämlich feststellen, dass die Pixelzahl nichts anderes als eine weitere Quelle von Unschärfe im fertigen Bild ist, ganz genau wie früher die Körnigkeit eines Films und sowieso ganz genau wie Beugung, Abbildungsfehler, Verwackeln, Druckauflösung, atmosphärische Störungen usw. usf. Gemeinsam bestimmen sie die Auflösung des fertigen Bilds. Pixel sind da in keiner Weise anders als die anderen Anteile. Und natürlich begrenzt jeder dieser Anteile die Auflösung fast allein, wenn er viel größer ist als alle anderen zusammen (näherungsweise "per RMS" addiert). Und die Auflösung des fertigen Bilds begrenzt dann das genannte sinnvolle Verhältnis aus Betrachtungsabstand und Ausgabeformat. Wenn man das überschreitet, erscheint das Bild unscharf, egal ob diese Unschärfe durch Verwackeln, Beugungsunschärfe, Pixelzahl oder durch alle zusammen hervorgerufen wurde.

Im Rahmen der kleinen Welt Deines Themas hier spielen Pixel also keine andere Rolle als die anderen Anteile und können einfach unter dem Dach "Auflösung" betrachtet werden. Das "digitale Zeitalter" beginnt erst außerhalb dieser kleinen Welt, und das ist dann doch etwas komplizierter.



Gruß, Matthias
 
Wenn du bei deinem Beispiel mit dem Nokia-Handy auf über 100 % kommen willst, müsstest du dir das Bild mit mehr als 41 Megapixel anschauen, wenns ein 41 Megapixel-Sensor ist. Mach das, dann reden wir weiter.

Beispiel 2:
Ich hab hier eine 5D Mk II mit ca. 20 MP, dummerweise hat mir mein Postbote gestern ein RetinaX Display von FutureProducts(tm) mit 4m Diagonale gelieftert (Ich frag mich immernoch wie der das durch die Tür gebracht hat). Die native Auflösung des Displays ist bei 300 DPI gute 500 MP.
Ich benutz das Teil eigentlich nur um meine Bilder dazustellen. Wenn ich ein natives Bild der 5D darstellle streckt sich ein "Pixel" auf über 25 Pixel am Display - wenn man nahe hingeht sieht es richtig matschig aus, aber normalerweise steht man zum Glück weit genug weg.
Ich hab aber auch Bilder weil ich aus Prinzip kein Tele hab, wo ich einfach ein Bild von 20 MP auf 5 MP beschnitten habe (also sozusagen 2-fach Zoom) diese Bilder kann ich auch anzeigen mit einem "Pixel" auf über 100 Pixel am Display. Diese sehen nahe auch Matschig aus, weiter weg sehen diese gut aus. Diese Bilder sehen aber Qualitativ immernoch schlechter aus als die mit nativer Auflösung.

Wo sind nun die 100%?

criz.
 
Beispiel 2:
Ich hab hier eine 5D Mk II mit ca. 20 MP, dummerweise hat mir mein Postbote gestern ein RetinaX Display von FutureProducts(tm) mit 4m Diagonale gelieftert (Ich frag mich immernoch wie der das durch die Tür gebracht hat). Die native Auflösung des Displays ist bei 300 DPI gute 500 MP.
Ich benutz das Teil eigentlich nur um meine Bilder dazustellen. Wenn ich ein natives Bild der 5D darstellle streckt sich ein "Pixel" auf über 25 Pixel am Display - wenn man nahe hingeht sieht es richtig matschig aus, aber normalerweise steht man zum Glück weit genug weg.
Ich hab aber auch Bilder weil ich aus Prinzip kein Tele hab, wo ich einfach ein Bild von 20 MP auf 5 MP beschnitten habe (also sozusagen 2-fach Zoom) diese Bilder kann ich auch anzeigen mit einem "Pixel" auf über 100 Pixel am Display. Diese sehen nahe auch Matschig aus, weiter weg sehen diese gut aus. Diese Bilder sehen aber Qualitativ immernoch schlechter aus als die mit nativer Auflösung.

Wo sind nun die 100%?

criz.

Lern also erst mal, was 100%-Ansicht heisst.
 
Lern also erst mal, was 100%-Ansicht heisst.

Was heißt das denn? Z.B. bei einer Leuchtreklamewand am Times Square in New York, wo jeder einzelne Pixel mehrer cm im Quadrat groß ist. Was ist da eine 100%-Ansicht? Aus welcher Entfernung betrachtest Du die?


Gruß, Matthias
 
Im Rahmen der kleinen Welt Deines Themas hier spielen Pixel also keine andere Rolle als die anderen Anteile und können einfach unter dem Dach "Auflösung" betrachtet werden. Das "digitale Zeitalter" beginnt erst außerhalb dieser kleinen Welt, und das ist dann doch etwas komplizierter.
Ich persönlich würde auch von einem optimalen Sensor mit optimaler Optik ausgehen. D.h. die Optik besitzt keinerlei Abbildungsfehler, ist lediglich Beugungsbegrenzt und es herrscht immer gute Sicht. Der Sensor erfasst alle Infomration so gut es ihm die heisenbergsche Unschärferelation erlaubt.
"Auflösung" oder Bildqualität würde dann einer Metrik entspechen die proportional zu der aufgenommenen Information ist, also irgendwas was aus dem Bauch heraus proportional zu n * E_lamda wobei n die Anzahl der Quanten und E_lambda deren durchnittliche Energie ist.
Pixel an sich wären dabei wirklich nurnoch etwas was eine Art Flächenmaß darstellt.

criz.
 
WERBUNG
Zurück
Oben Unten