• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Oktober 2025.
    Thema: "Abendstimmung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Oktober-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Display-Zoom bei 32x immer unscharf?

Vor allem bei weniger Dunst und ruhigen Luftschichten sollte da mehr gehen. Aber wann hat man das schonmal, besonders in der Stadt
 
absolut ja, das sind wohl etwa 400%!
Wenn ein Bild bei 4x (50%) scharf ist, dann ist es scharf;)


Das verstehe ich nicht. Wenn ich auf meinem Bildschirm 100% Ansicht wähle entspricht die Ansicht der 19-fachen Vergrößerung auf meinem Kameramonitor. Habe ich eben mal praktisch ausprobiert und nebeneinander gehalten.

Ich weiß zwar, dass Bildschirme auch unterschiedlich hoch auflösen, aber so einen großen Unterschied dürfte das doch nicht machen? Oder wo ist mein Denkfehler?
 
zum Objektiv: Nicht vergessen sollte man Unschärfe, die bei hohen Distanzen durch Luftverwirbelungen, Flimmern, Temperaturunterschiede etc. zu Stande kommt. Eine objektive Beurteilung ohne das Gesamtbild, Entfernungsangaben etc ist daher gar nicht möglich!
 
Mit 19fach Vergrößerung hast du jetzt vielleicht den selben Abbildungsmaßstab wie an deinem Computerbildschirm, 100% an der Kamera entspricht dies nicht! Grund ist die deutlich höhere Auflösung/mehr Punkte pro Zoll (ppi) des Kameradisplays. An der Kamera wird jetzt also ein Bildpixel von meheren Displaypixeln dargestellt.
Für die Beurteilung der Schärfe ist die %-Ansicht (33%, 50% etc.) sinnvoll, weil bei kleinen und hoch aufgelösten (ppi) Displays meist auch der Betrachtungsabstand geringer ist.

Als Denkanstoß: Dein 23" Display hat mit 1920x1080 vielleicht die selbe Auflösung wie der 42" TV im Wohnzimmer, beide bei 100% haben unterschiedliche Abbildungsmaßstäbe. Hat zur Folge, dass sich das gleiche Schärfeempfinden bei unterschiedlichem Betrachtungsabständen einstellt.

siehe auch z.B.:
http://foto.beitinger.de/posterdruck/index.html
 
Zuletzt bearbeitet:
Das verstehe ich nicht. Wenn ich auf meinem Bildschirm 100% Ansicht wähle entspricht die Ansicht der 19-fachen Vergrößerung auf meinem Kameramonitor. Habe ich eben mal praktisch ausprobiert und nebeneinander gehalten.

Ich weiß zwar, dass Bildschirme auch unterschiedlich hoch auflösen, aber so einen großen Unterschied dürfte das doch nicht machen? Oder wo ist mein Denkfehler?

100 % Auflösung heißt, das ein Pixel aus dem Bild auf dem jeweiligen Bildschirm einen Pixel groß dargestellt wird. Also kann das eigentlich nicht stimmen
K5 4928 * 3264

Display 640 * 480 damit ein Faktor 8
Bildschirm 1024 * 768 circa Faktor 5
Bildschirn 1600 * 1080 circa Faktor 3
 
...Ist das ne gute Schärfe, die man hier sieht? Oder würde ein besseres Obj da noch mehr leisten?
...

Natürlich leistet ein besseres Objektiv DEUTLICH mehr. Ist aber auch wesentlich größer, schwerer, teurer.

Mir ist auch aufgefallen, dass die Darstellung des Vorschaubildes zur Beurteilung der Schärfe nicht gerade optimal ist.
Da machen durchaus auch Vergrößerungen über 8x Sinn, wenn man z. B. schlecht sieht. Wenn allerdings bei der Vergrößerung nicht der nächste Pixel genommen wird, sondern mit einem Algorithmus die Kanten verwischt werden, wie es offensichtlich der Fall ist, ist das zumindest suboptimal.
 
Mir ist auch aufgefallen, dass die Darstellung des Vorschaubildes zur Beurteilung der Schärfe nicht gerade optimal ist.
... Wenn allerdings bei der Vergrößerung nicht der nächste Pixel genommen wird, sondern mit einem Algorithmus die Kanten verwischt werden, wie es offensichtlich der Fall ist, ist das zumindest suboptimal.
Ja, daran dachte ich auch schon: Wird bei der Lupe in der Kamera wirklich auf die Original-Sensordaten (bzw. RAW-Aufnahmedaten) zugegriffen, oder eher auf ein schon komprimiertes Vorschaubild?

Wenn es ein Vorschaubild ist, dann wäre damit auch klar, daß ich bei 32x nicht das optimale Ergebnis sehe, was am Ende am PC zu sehen ist.

Dann wäre die Unschärfe, die ich am Display sehe, also kein Effekt des Objektivs oder Motivs sondern der "miesen" Kamera-Software (das sag ich jetzt mal so als Software-Entwickler).
 
daß ich bei 32x nicht das optimale Ergebnis sehe

nochmal das sind 400%, das sieht am PC auch nicht mehr optimal aus;)
auch mit der besten Linse nicht! Zur Beurteilung der Schärfe ist 100%(8x*) das maximal brauchbare, eigentlich reicht aber auch die 50%(4x*) Ansicht völlig aus.

*bezogen auf K-5
 
Zuletzt bearbeitet:
@Tempelorg

Es geht glaube ich eher darum das 32x so eine "absurd" hohe Vergrößerung ist, sodass es "immer" unscharf ist, einfach weil es nunmal vergrößert ist...


laerche hatte die vermutung das vielleicht die Kanten verwischt werdden (was mit jedem Algorithmus früher oder später passiert).

Das Bild was dir hinten auf dem Display gezeigt wird, ist eine der Vergrößerung angepaste Auflösung, wenn du in der "komplett Bild" ansicht bist, gibt es für jedes Pixel auf dem Bildschirm natürlich mehrere Pixel Sensor-Informationen.

Es wurde jetzt glaube ich schonmal ein paar mal ausgerechnet das das 1:1 Verhältniss ungefähr bei 7,7x oder 8x Vergrößerung liegt und selbst hier sollte man sich für die meisten Zwecke fragen:" Wenn ich 15-20xm vom Bild weg wäre, wäre es zum "angenehmen" betrachten schonwieder fast zugroß...

Ich glaube die Leute setzten das nichtmehr in relation zu einandern, selbst wenn ihr in PS CS5 ein Foto der K5 nehmt und auf "ganzes Bild" einstellt, seid ihr gerade mal bei 30,9% es "wirklichen" Bildes....

Überlegt doch mal was ihr mit den Bildern macht und wo sie (realistisch) zum Einsatz kommen....
 
Aber wenn die Technik (also K-5 mit verfügbaren Objektiven) mehr nicht leisten kann, muss ich mit halt damit arrangieren. Wenn aber mehr drin sein sollte, dann kann ich je nach Preis und Aufwand abwägen, ob ich noch mehr investiere.

Aber ich hab einfach zu wenig Erfahrung, um beurteilen zu können, ob ich schon an der max. techn. möglichen Schärfe angekommen bin. Wie finde ich das denn heraus?

Komische Aussage, klingt irgendwie als wenn die K-5 hier limitieren würde. Das tut sie nicht, es ist die Physik!

Ich habe meine erste Zoomstufe bei der Bildkontrolle auf 8x eingestellt, was schon das absolute Maximum ist. 4x würde auch reichen.
 
Ich hab den Eindruck, daß viele denken, ich würde den Unterschied zw. groben Pixeln und Schärfe nicht verstehen.

Daß eine 400%-Vergrößerung natürlich "pixelig" aussieht, ist keine Frage (ich benutze Computer vermutlich länger als irgendwer sonst von euch). Aber die Aufnahmen sehen halt dennoch auch unscharf aus, und darum geht es mir. Das sieht man doch auch auf meinem Beispielbild - das ist doch klar unscharf.

Die Frage ist, warum. Mögliche Erklärungen: Atmosphäre oder schwache Optik, oder, wie zuletzt aufgekommen, an der Tatsache, daß die Kamera nicht das Originalbild für die Lupendarstellung verwendet, sondern eins, das bereits eine geringere Auflösung hat. Oder absolute Leistungsgrenze, die auch mit besserer Optik nicht mehr zu verbessern wäre.

In meinem schlecht gewählten Bespielbild könnte man meinen, daß es nur an der Atmosphäre liegt. Aber ich sehe diese Unschärfe bei JEDEM Bild, das ich im Display in der Lupe ansehe, mit all meinen Objektiven. Und ich wüßte gern, warum. Bzw: Gibt es jemanden, der in der Lupe die Bilder als "scharf" bezeichnen würde? Wenn ja, unter welchen Umständen?

Ein Beispiel: Ich habe ein Digitalmikroskop. Wenn ich damit eine Aufnahme mache, dann ist das Bild scharf auch bei 100%-Ansicht. Das heißt: Ein Motiv zeigt sehr scharfe Kanten, die nur durch die Pixel-Auflösung begrenzt ist. Oder schaut diese Schrift auf dem Monitor im Browser an: Die Kanten der Buchstaben sind Pixel-Scharf, nicht wahr? Und genau diese Schärfe sehe ich in der Display-Lupe nicht. Da verschwimmt eine Kante über viele Pixel. Das ist mein Kriterium. Jetzt verständlich?
 
Zuletzt bearbeitet:
Die Frage nach der Sinnhaftigkeit dieses Threads mal außen vor gelassen: Google mal nach "Bayer-Sensor", "Anti-Aliasing" und "Interpolation" (letzteres dürfte die Pentax-Software wie so ziemlich jede andere Foto/Bildbearbeitungsanwendung standardmäßig beim Vergrößern durchführen), und Du wirst bestimmt fündig ;)
 
Zuletzt bearbeitet:
Da er Software-entwickler ist, sollte ihm das doch klar sein was Anti-Aliasing und Interpolation ist ;)

Was für ein digital Mikroskop hast du den?
 
Da er Software-entwickler ist, sollte ihm das doch klar sein was Anti-Aliasing und Interpolation ist ;)
Was für ein digital Mikroskop hast du den?
Wenn die Leute mit akademischen Weisheiten kommen, wird es immer ganz besonders. Er macht es ja auch mit der Signatur deutlich :-)
Ich weiß nicht so richtig. Liegt es daran, dass die Fotos einfach nicht scharf sind oder die Auflösung (Kamwera/Objektiv-Kombination) eben nicht ausreicht? Ich habe mir gerade meine gestrigen Fotos angesehen. Die Bilder bleiben auch in der höchsten Zoomstufe scharf. Das bleibt dann auch bei 400 % ! am Monitor so. Generell ist die Schärfebeurteilung am Kameradisplay schwierig, wie ich finde. Insofern verstehe ich die Argumente nicht so richtig. Was ich jetzt beitragen wollte ist eigentlich, dass es nicht unbedingt so sein muß.
 
Zuletzt bearbeitet:
So, vergeßt meine Beispielbilder, die ich zuvor gezeigt habe. Die haben schließlich nichts mit der eigentlichen Frage dieses Threads zu tun.

Dafür habe ich nun etwas, das meine Frage deutlich belegt. Ich habe mit meiner K20D eine Aufnahme gemacht und die dann am PC vergrößert. Ebenso habe ich den selben Ausschnitt in der Display-Lupe (32x) abfotografiert. Auch wenn das Foto vom Display (mit iPhone gemacht) nicht optimal ist, sieht man doch deutlich den Unterschied: Das Originalbild am PC ist ziemlich scharf, während das in der Display-Lupe nicht nur verschwommener ist (z.B. sind die diagonalen Streben dicker), sondern es zeigt auch Artefakte, die typisch für JPEG-Kompressionen sind, nicht wahr?

Damit wäre wohl klar, daß die Lupe nicht das Originalbild sondern ein komprimiertes Vorschaubild zeigt.

Und das ist damit eine Schwäche der Software in der Kamera und nicht eine Schwäche der Optik.

Nun bleibt noch die Frage, ob das bei allen DSLR so ist, oder nur eine Schwäche bei Pentax.
 
Damit wäre wohl klar, daß die Lupe nicht das Originalbild sondern ein komprimiertes Vorschaubild zeigt.

Die vom Sensor kommenden Roh-Informationen können nicht (sinnvoll) als Bild dargestellt werden. Daher benötigt man immer auch eine JPG-Engine, die diese Informationen auswertet und interpretiert, damit etwas darstellbares herauskommt. Was du also auf dem Display deiner Kamera siehst, ist nichts weiter als ein JPG. Und das i.d.R. nicht mal in höchster Auflösung.

Wie stark die Kompression für die Vorschaubilder bei den jeweiligen Herstellern ist, entzieht sich allerdings meiner Kenntnis.

Nun bleibt noch die Frage, ob das bei allen DSLR so ist, oder nur eine Schwäche bei Pentax.

Das ist bei allen Herstellern so. Es ist allerdings möglich, das sich der ein oder andere Hersteller mehr Mühe mit den Vorschau-JPGs für das Display gibt. Dann würde der Effekt natürlich auch erst später auftreten.

Gruß
Christian
 
Die vom Sensor kommenden Roh-Informationen können nicht (sinnvoll) als Bild dargestellt werden. Daher benötigt man immer auch eine JPG-Engine
Sorry, das ist technisch nicht richtig.

JPEG ist ein komprimierendes Verfahren, und sowas ist hier nicht zwingend nötig.

Was du meinst, ist die Engine, die die Sensor-Daten, die räumlich getrennt verteilte einzelne Pixel und R, 2xG und B enthalten, in R-G-B Pixel für das Display umrechnen (also etwas, das eher dem TIFF-Format gleichkommt). Dabei passieren natürlich Interpolationen. Aber meine Beispiele zeigen ganz andere Artefakte: Nämlich JPG-Artefakte, die bei TIFF so nicht auftreten würden.

Das heißt, daß die Kamera zwar offenbar (komprimierte) JPGs für die Vorschau verwendet, aber das ist nicht zwingend nötig, so wie du es behauptest.
 
WERBUNG
Zurück
Oben Unten