• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Frage zur Auflösung von Fotos und Betrachtung am Monitor

Mirco2706

Themenersteller
Hallo


Ich hätte folgende Frage an euch:
Angenommen, ich habe ein Display (Monitor, TV Gerät oder was auch immer) mit sagen wir mal, 2000*1000 Pixel und ein Foto in der gleichen Auflösung. Nun kann dieses ja in 100% Ansicht im Display angezeigt werden. Jetzt habe ich noch ein Foto mit 4000*2000 Pixeln. Dieses braucht dann ja nur zu 50% angezeigt werden, um das Display zu füllen.
Jetzt interessiert mich folgendes: Mehr Pixel gleich mehr Auflösung, das ist klar. Aber, wäre das höher aufgelöste Foto von der Ansicht her besser oder feiner? Denn es hat ja noch Reserve oder macht das bei der Betrachtung keinen Unterschied? Sondern nur beim Druck?

Danke, Mirco
 
Wenn das Foto nicht exakt der Bildschirmauflösung entspricht, muss es für die vollständige Darstellung runterskaliert werden. Das kann man schon vorab machen in einem Bildbearbeitungsprogramm oder man überlässt es der Software, die das Bild wiedergibt. Was von beiden besser aussieht, hängt von der Skalierungsmethode ab; da gibt es bessere und schlechtere.

Wenn das Bild zum Zeitpunkt der Wiedergabe eine höhere Auflösung hat als für den Bildschirm nötig, hat das normalerweise keinen Vorteil, weil die Bildschirmauflösung quasi einen Grenzwert setzt. Es kann sogar einen Nachteil haben, wenn die wiedergebende Software schlecht skaliert. Qualitativ auf Nummer sicher geht man immer, indem man Bilder schon vorab mit einem hochwertigen Verfahren auf die nötige Auflösung bringt und dann 1:1 wiedergibt.
Einzige Ausnahme: Wenn das Bild während der Vorführung noch evtl. gezoomt werden soll. Dafür muss es natürlich Auflösungsreserven haben.
 
Hallo!

Da kommt es zunächst drauf an, wie du das Foto von 4000*2000 auf die kleineren 2000*1000 runterrechnen lässt. Ein Bildbetrachtungsprogramm kann das evtl. nicht so gut wie ein Bildbearbeitungsprogramm, mit dem du das Foto wirklich verkleinerst und dann wieder pixelgerecht (100%) anzeigen lässt. Die Unterschiede dürften aber sehr gering sein. Es ist ja anzunehmen, dass dieses 1000*2000 Pixel-Foto auch nicht nativ so vom Kamerasensor kommt, sondern auch schon runtergerechnet wurde. Aber angenommen die beiden Beispielauflösungen werden tatsächlich so vom Kamerasensor ausgegeben und beide Fotos wurden technisch perfekt aufgenommen und die verwendete Optik hatte keine Probleme, das Motiv für die beiden Sensoren aufzulösen. Dann hast du tatsächlich Reserven, die beim Verkleinern dafür sorgen, dass die Auflösung/Schärfe höher ist. Aber auch das sollte eher gering ausfallen. Dies gilt aber meinem Verständnis nach auch nur, wenn der Bildsensor mit der gängigen Bayer-Matrix arbeitet. Liegt für jedes Pixel die volle Farbinformation vor (dank Sigma/Foveon-Sensor oder Pixel-Shift-Aufnahmeverfahren), glaube ich dass man den Unterschied nicht sehen kann.

Aber vielleicht meinst du die Frage auch so: Alle deine Fotos haben die hohe Auflösung und du willst diese Fotos speziell für eine Präsentation an dem geringer auflösenden Monitor vorbereiten? Dann würde ich sie alle runterrechnen. Außer jedoch, du möchtest die Möglichkeit haben, z.B. auf Anfrage deiner Zuschauen mal in ein Bild reinzuzoomen um gewisse Details zu erkennen. Dann ist es natürlich gut, die Reserven zu haben. Solange du aber nicht reinzoomst, bringt sie dir nichts und es wäre denkbar - wie eingangs beschrieben - dass die Bilder durch das Runterrechnen (z.B. durch einen TV) weniger scharf erscheinen. Zumindest abe ich diese Erfahrung an etwas älteren Fernsehen gemacht, in die man einfach einen USB-Stick reinsteckt.

Beim Druck ist es übrigens genauso. Liegt die Auflösung des Fotos oberhalb der für den Druck notwendigen Auflösung, bringt dir die Reserve nichts.

Edith: Zu spät! :grumble: Als hätte ich bei beiti abgeschrieben! :devilish: ;)
 
Zuletzt bearbeitet:
Wenn das Foto nicht exakt der Bildschirmauflösung entspricht, muss es für die vollständige Darstellung runterskaliert werden....
...Da kommt es zunächst drauf an, wie du das Foto von 4000*2000 auf die kleineren 2000*1000 runterrechnen lässt...
...Display (Monitor, TV Gerät...) mit sagen wir mal, 2000*1000 Pixel und ein Foto in der gleichen Auflösung...Jetzt habe ich noch ein Foto mit 4000*2000 Pixeln.
Dieses braucht dann ja nur zu 50% angezeigt werden, um das Display zu füllen....wäre das höher aufgelöste Foto von der Ansicht her besser oder feiner?
...oder macht das bei der Betrachtung keinen Unterschied?...
Nach meiner Lesart geht´s dem TO gar nicht um Skalierung.
Sondern um den Qualitätsvergleich einer "50%-Ansicht" von 4000x2000 Pixeln mit dem Komplettfoto in 2000x1000 auf einem Monitor mit eben dieser Auflösung.

Natürlich erscheint dir dann dieses "50%-Foto" auf deinem fiktiven Monitor vergleichsweise "feiner". Weil es bei 1:1 und auf gleicher Fläche eben mehr Details erkennen läßt.
"Besser" ist es damit jedoch noch lange nicht. Schliesslich werden bei solch einem Vergleich auch einzelne Sensorpixelfehler, CA´s, etc. auffällig(er).
 
Zuletzt bearbeitet:
Natürlich erscheint dir dann dieses "50%-Foto" auf deinem fiktiven Monitor vergleichsweise "feiner". Weil es bei 1:1 und auf gleicher Fläche eben mehr Details erkennen läßt.

Wie sollte das gehen, wenn für die "feinere" Darstellung keine Pixel vorhanden sind? Wie von den anderen beschrieben, wird in jedem Fall skaliert. Ob vorab skalieren besser ist oder die Software, die den Bildschirm ansteuert, es besser kann, muss man im Einzelfall sehen.
 
Wie sollte das gehen...Wie von den anderen beschrieben, wird in jedem Fall skaliert....
Ich denke, wir reden aneinander vorbei.
Nach meinem bisherigen Verständnis geht es dem TO gar nicht um "vollständige Darstellung" und Skalieren.
Sondern vielmehr darum, 2000x1000 Sensorpixel auf 2000x1000 Monitorpixel zu übertragen und dann ein ganzes Bild mit einem halben viertel zu vergleichen.

Aber mal schau´n, was er noch sagen wird, der TO.
 
Zuletzt bearbeitet:
Nach meinem bisherigen Verständnis[/I] geht es dem TO gar nicht um "vollständige Darstellung" und Skalieren.
Sondern vielmehr darum, 2000x1000 Sensorpixel auf 2000x1000 Monitorpixel zu übertragen und dann ein ganzes Bild mit einem halben zu vergleichen.

In dem Fall wäre kein halbes Bild (50%) sondern nur ein Viertel (25%) von den 4000*2000 Pixeln zu sehen.

Statt dieser etwas unklaren Frage wäre eine Anforderung aus der Praxis die bessere Formulierung gewesen.
 
Am "schärfsten" sieht immer eine Bild aus, das genau die Auflösung des Bildschirms hat, auf dem es wiedergegeben wird. Ist die Auflösung geringer, muss hochskaliert werden, was Details kostet, beim runterskalieren erreicht man nie/selten die Qualität, in der das per EBV möglich ist, zumal man dann ja in der Regel noch angepasst schärft etc.
 
In dem Fall wäre kein halbes Bild (50%) sondern nur ein Viertel (25%) von den 4000*2000 Pixeln zu sehen....
Stimmt natürlich. Hab´s oben korrigiert. Hatte unüberlegt die Formulierung des TO übernommen und seine "50%"-Anzeige.
 
Zuletzt bearbeitet:
Hallo Mirco,
ein Bild, das in 100% angezeigt wird, ist optimal und kann nicht besser werden, viele haben das so bestätigt.
Ein Bild, was in 50% angezeigt wird, ist exakt genauso gut.
Ein Bild, was in 49% angezeigt wird, ist in der Regel schlechter in der Wiedergabe als ein Bild in 50%. Für 50% braucht es keine aufwendigen Verrechnungen, die halt Ungenauigkeiten bringen wegen der Rechenökonomie mancher Programme. Runterrrechnen auf 50% ist positiverweise etwas für Doofe.
Ganz schlimm sind Bilder, die in z.B. 98% angezeigt werden. Klicke sie im Viewer auf 100% und Du siehst den Unterschied sofort.
Ich mache Panoramen mit recht grossen Dateien. Ich rechne sie so runter, dass man sie in exakt 25 oder 50% ansehen kann. 16,7%, 33% oder 67% sind in vielen Viewern schlechter in der Darstellung.
Die Viewer rechnen im Allgemeinen schlechter = weniger aufwendig, die Bildbearbeitungsprogramme besser. Aber auch zwischen den Bildbearbeitungsprogrammen gibt es erkennbare Unterschiede, die extrem werden, wenn man die Bilder nicht nur kleiner macht, sondern auch noch DREHT. Da gibt es deutliche Schärfeunterschiede (der TO hatte danach aber NICHT gefragt). Mit älteren Programmen, die auf kleinere Rechner ausgelegt waren, sind die Unterschiede grösser.
ois choaf wünscht
maro
 
Das höher aufgelöste Foto ist problematischer beim Druck und bei der vorherigen Ansichtsbeurteilung unterhalb der Realauflösung als ein fest skaliertes.
Sinnigerweise bringt man Fotos IMMER vorher auf die entsprechende Ausgabegröße, um Fehler und Schärfemankos in 100% ausmerzen zu können. Dafür gibt es allerdings kein Patentrezept. Leider.

Aus meiner Erfahrung ist ein am Monitor temporär skaliertes Foto in jedem Fall schlechter und schwammiger dargestellt als ein auf die Ausgabegröße fest skaliertes. Unabhängig von jeglicher Skalierungsgröße. Das ist algorithmusbedingt. Entsprechend der Interpolation auf einem Kamerasensor werden umher angeordnete Pixel bei einem skalierten Foto zur Verkleinerung/Vergrößerung herangezogen und weichen entsprechend auf oder überschärfen. Bei Bayer-Sensoren ist es eben farblich-strukturell bedingt, in deinem Fall auflösungsbedingt.

Bei der reinen Betrachtung spielt eine große Rolle, was Silvestri angibt. Stichwort: Moire.
 
Als Beispiel Ausschnitte von screenshots von unterschiedlich herunter gerechneten Bildern.
 

Anhänge

Zuletzt bearbeitet:
Wenn das Foto nicht exakt der Bildschirmauflösung entspricht, muss es für die vollständige Darstellung runterskaliert werden. Das kann man schon vorab machen in einem Bildbearbeitungsprogramm oder man überlässt es der Software, die das Bild wiedergibt. Was von beiden besser aussieht, hängt von der Skalierungsmethode ab; da gibt es bessere und schlechtere.

Bei der Darstellung von Kamerabildern auf Bildschirmen ist bis auf wenige Zufälle ohnehin
  • eine Auswahl des Bildausschnitts (b.z.w. sinnvolle Bildergänzungen) notwendig, da selten Kamera und Bildschirm das gleiche Seitenverhältnis haben,
  • die Auflösung umzurechen, da gleiches für die Pixelzahl gilt und
  • bei unterschiedlichen Farbräumen sind auch diese noch umzurechnen.
Das sollte jedem Bild nur einmal angetan werden. Unter der Annahme, dass Bildbetrachtungsprogramme nicht dümmer als Fotobearbeitungsprogramme sind, vorzugsweise bei der Wiedergabe, da dann alle Größen bekannt (AR, Auflösung, Farbraum, Bildschirmgröße, Betrachtungsabstand) sind.

Ausnahmen sehe ich, wenn die Bilder zu groß sind, denn ein On-the-Fly-Umrechnen von z.B. 60 MPixel in 8 MPixel dauert länger als 20 ms.

Wenn das Bild zum Zeitpunkt der Wiedergabe eine höhere Auflösung hat als für den Bildschirm nötig, hat das normalerweise keinen Vorteil, weil die Bildschirmauflösung quasi einen Grenzwert setzt.
Subpixel-Algorithmen kommen horizontal noch etwas weiter und erzeugen keinerlei Artefakte an vertikalen Kanten.
Um sie zu nutzen, braucht man sowohl die Zielauflösung und die Subpixelanordnung.

Es kann sogar einen Nachteil haben, wenn die wiedergebende Software schlecht skaliert.
Schlechte Software ist immer schlecht.

Qualitativ auf Nummer sicher geht man immer, indem man Bilder schon vorab mit einem hochwertigen Verfahren auf die nötige Auflösung bringt und dann 1:1 wiedergibt.
Hochwertige Verfahren sind schon lange kein Hexenwerk mehr.
Der Glaube, dass Anzeigeprogramme zu blöd zum sauberen Reskalieren sind, halte ich für Aberglauben.

Ein Nachteil von Umskalieren ist, dass Bilder ein erneutes Mal JPEG-kodiert werden. In kritischen Bildregionen (Kerzen bei Kerzenlicht) und bei Bildern mit höherer Dynamik ist das deutlich zu sehen. Auch bei quality=100.
 
Da wir idR von Bayer-demosaiced-en Bildern sprechen, ist Runterskalieren kein falscher Ansatz - und wie @Frank_Klemm es angesprochen hat, sollte man im Jahr 2019 nicht pauschalisieren, dass die Algorithmen in Betrachtern schlecht sind.

Nur ist mir die Frage an sich nicht ganz klar. Wenn ein doppelt aufgelöstes Bild in der 1:1 Ansicht angezeigt wird, dann sieht man nur ein Viertel und.. dann? Sieht man nur ein Viertel des Bildes.

Wenn Bilder statisch angezeigt werden, ist die native Auflösung des Wiedergabemediums anzupeilen. Wenn KenBurns-Animationen gemacht werden, ist mehr Auflösung idR besser.
 
WERBUNG
Zurück
Oben Unten