• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb August 2025.
    Thema: "Kurven"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum August-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

APS-C Sensor der 650D - kein Fortschritt bei Canon ?

Status
Für weitere Antworten geschlossen.
Ihr streitet um Heckspoiler bei Tretrollern denn beide genannten Kameras sind Einstiegermodelle.
Nur wer damit auskommt, sollte die Cams direkt vergleichen. Hat er aber mehr vor und will beim Hobby bleiben, dann muss er die gesamte Systempalette werten.

Was nutzt eine gute Einsteiger-DSLR, wenn später - bei Erweiterungen und Upgrades - die Luft bei diesem Hersteller dünn wird, bzw raus ist.

Mögen als abschreckendes Beispiele die POSSS dienen. Die starten - immer - wie die Tiger und landen dann gewöhnlich als Bettvorleger.

***Panasonic, Oly, Sony, Sigma,Samsung
 
Auch von mir ein klares Ja zu mehr Dynamikumfang des Sensors. Wobei mir aber klar ist, dass es hier nicht so leicht sein wird, mit dem derzeitig verbreiteten Sensorprinzip nach oben zu kommen. Da braucht man auch nicht groß zu diskutieren, ob nun Hersteller A oder B besser ist. Solange beide auf das gleiche Sensorprinzip setzen, ist der Unterschied im Vergleich zum max. erreichbaren Dynamikumfang nur marginal.

Zudem sehe ich auch die diesbezügliche Prio bei den Herstellern nicht so arg weit oben angesetzt. Deutlich mehr Dynamik bringt doch nur etwas bei RAW-Aufnahmen, viel Aufwand wird aber derzeit für verbesserte ooc JPGs betrieben. Wie soll aber die JPG-Engine wissen, auf was es bei Fotos mit wirklich hoher Dynamik genau ankommt?

Wenn das Ausgabeformat bereits in der Kamera auf 8 Bit eingedampft wird, braucht man an eine weitere Dynamikerhöhung nicht zu denken. Ich weiß nicht, wie ihr es wahrnehmt, aber mir kommt es so vor, als würden die verbesserten JPG-Engines immer mehr Leute von RAW abhalten.

Erwin
 
*daumen runter*
(...)

HDR-Aufnahmen sind eine Krücke, die ausgleichen sollen, dass die Sensoren einen geringeren Dynamikumfang als das menschliche Auge haben.

Ich glaube du hast nicht verstanden das HDR nicht primär die limitationen der Sensoren sondern die der Ausgabe umgehen soll :rolleyes:

Ob One shot HDR oder über eine belichtungsreihe ist wumpe ...kein mir bekannte ausgabevariante der Welt kann auch nur im Ansatz die 12 bis 13 blenden die in nem modernen raw stecken darstellen...von dem wahrnehmbaren dynamikumfang des menschlichen sehapparat ganz zu schweigen.

Das tonemapping wirst auch mit einem Sensor der 25 blenden aufzeichnet durchführen müssen ;)
 
...Zudem sehe ich auch die diesbezügliche Prio bei den Herstellern nicht so arg weit oben angesetzt. Deutlich mehr Dynamik bringt doch nur etwas bei RAW-Aufnahmen, viel Aufwand wird aber derzeit für verbesserte ooc JPGs betrieben. Wie soll aber die JPG-Engine wissen, auf was es bei Fotos mit wirklich hoher Dynamik genau ankommt? ...

Die letzten Kameramodelle bieten die Möglichkeit, HDRs zu machen, aus 2 oder mehr Belichtungen. Diese könnte man bei mehr DR teilweise durch die Entwicklung aus einem RAW ersetzen.

Und ja, die JPEG-Engine wird natürlich nie wissen, wie ich die Entwicklung für ein bestimmtes Bild haben will.

Gruß,

Karl-Heinz
 
Wenn das Ausgabeformat bereits in der Kamera auf 8 Bit eingedampft wird, braucht man an eine weitere Dynamikerhöhung nicht zu denken. Ich weiß nicht, wie ihr es wahrnehmt, aber mir kommt es so vor, als würden die verbesserten JPG-Engines immer mehr Leute von RAW abhalten.

Erwin

dem stimm ich besonders zu , vorallem wenn man sich in so manchem fotostudio umschaut und ich red nich von passbildern
 
Zudem sehe ich auch die diesbezügliche Prio bei den Herstellern nicht so arg weit oben angesetzt. Deutlich mehr Dynamik bringt doch nur etwas bei RAW-Aufnahmen, viel Aufwand wird aber derzeit für verbesserte ooc JPGs betrieben. Wie soll aber die JPG-Engine wissen, auf was es bei Fotos mit wirklich hoher Dynamik genau ankommt?

Wenn das Ausgabeformat bereits in der Kamera auf 8 Bit eingedampft wird, braucht man an eine weitere Dynamikerhöhung nicht zu denken. Ich weiß nicht, wie ihr es wahrnehmt, aber mir kommt es so vor, als würden die verbesserten JPG-Engines immer mehr Leute von RAW abhalten.

Eine Erhöhung des Dynamikumfangs hat aber auch bei jpegs den Vorteil, dass es keine reinweißen oder -schwarzen Stellen mehr gibt. Das wird aber bei so einer starken Komprimierung durch vermutlich auftretende Tonwertabrisse wieder zunichte gemacht... Außerdem: Wieso sollte die JPEG-Engine nicht wissen, worauf es ankommt? Primär will man doch wohl ein Bild, das möglichst an allen Stellen noch Zeichnung aufweist - und das lässt sich je wohl relativ einfach erreichen.

Und zum Dynamikumfang des Auges: Ich glaube, dass der gar nicht so groß ist, denn es passt sich ja stets an das einfallende Licht an - und da man immer nur relativ kleine Schnipsel einer Szene gleichzeitig wahrnimmt, bekommt man den Eindruck vermittelt, alles wäre richtig "belichtet". Das gleiche kann ich auch mit meiner Kamera machen, sieht dann nur doof aus, wenn ich hundert verschieden belichtete Einzelbilder gleichzeitig wahrnehme (und nicht nacheinander, wie unser Wahrnehmungsapparat es tut)...
 
...kein mir bekannte ausgabevariante der Welt kann auch nur im Ansatz die 12 bis 13 blenden die in nem modernen raw stecken darstellen...

Das tonemapping wirst auch mit einem Sensor der 25 blenden aufzeichnet durchführen müssen ;)

... die Objektive sind ein Kompromiss, der AF ist zu langsam; der Sensor rauscht, die Engine ist ein Kompromiss, das RAW kann nicht alles was in ihm steckt übertragen...
..ein Wunder das man Bilder betrachten kann.:p
helene
 
Wieso sollte die JPEG-Engine nicht wissen, worauf es ankommt? Primär will man doch wohl ein Bild, das möglichst an allen Stellen noch Zeichnung aufweist - und das lässt sich je wohl relativ einfach erreichen.
Das mag bis zu einem gewissen Dynamikumfang gehen, aber irgendwann liegt zwar alles mit Zeichnung vor, aber der Gesamtbildeindruck ist im Eimer. Außerdem ist der Belichtungsspielraum in hellen Bereichen immer kleiner, was dazu führt, dass man besser etwas in Richtung Unterbelichtung geht. Diesen notwendigen Ausgleich mit einer Anhebung der Tiefen, um wirklich den bestmöglichen Dynamikumfang zu erreichen, wird aber jede JPG-Engine überfordern. Ne, ich sehe es wirklich so, dass man bei Bildern, wo es auf bestmöglichen Dynamikumfang ankommt, JPG ooc besser außen vor lässt.
Und zum Dynamikumfang des Auges: Ich glaube, dass der gar nicht so groß ist, denn es passt sich ja stets an das einfallende Licht an..
Das sehe ich ebenso, insofern ist der Vergleich mit dem Sensor etwas irreführend. Ein Vergleich mit einem Aufnahme, bei der die verschiedenen Bildbereiche unterschiedliche Belichtungszeiten abbekommen, wäre durchaus plausibler. Wobei wir hier beim Mehrbild-HDR wären.

Erwin
 
... die Objektive sind ein Kompromiss, der AF ist zu langsam; der Sensor rauscht, die Engine ist ein Kompromiss, das RAW kann nicht alles was in ihm steckt übertragen...
..ein Wunder das man Bilder betrachten kann.:p
helene

Genau.

Ich finde teilweise lesen sich die Dynamikanmerkungen zum Sensor
als würde einige hier zum fotografieren gezwungen.

Man sollte mit Freude und Spass am Hobby, versuchen
den Wiedrigkeiten des Sensors entgegen zu treten.

Analog war es um ein vielfaches aufwändiger, wenn man
mit dem Daumen rubbelnd, den unterbelichteten Teilen des Positivs,
noch im Entwickler liegend zu Leibe rücken musste.

Und dann gab es noch die Zonenmessung bei der man
z.B. 10 verschieden Bildstellen mit dem Belichtungsmesser
erfasste um aus der Summe eine passende Belichtung zu ermitteln.

Aber dass machte alles Spass den es gab auch damals nicht
den perfekten Film, der das selbe Spektrum wie das Auge erfasste.

A.
 
Warum treten denn bei einer Kompression Tonwertabrisse auf?


Gruß, Matthias

Weil ich nur eine bestimmte, limitierte Anzahl von Farben zur Verfügung hab - und wenn das Bild in den Tiefen meinetwegen einen Verlauf enthält, dann kann der nicht mehr glatt dargestellt werden (also Tonwertabrisse - oder ich verwende das Wort falsch ;)), oder? Sowas kann man doch auch wunderbar bei einer gif-Kompression beobachten - da sehen Verläufe nun mal gar nicht schön aus...
Ist ja auch logisch, oder? Ich mein, wenn ich meine 16000 verschiedenen Farbabstufungen (14 Bit) auf die 256 Farbabstufungen (8 Bit) komprimiere, dann sieht der Verlauf nicht mehr hübsch aus und es gehen zwangsläufig auch Details mit geringen Farbunterschieden verloren.
Kann auch sein, dass ich einen Denkfehler gemacht habe - dann klär mich bitte auf! :)

Das mag bis zu einem gewissen Dynamikumfang gehen, aber irgendwann liegt zwar alles mit Zeichnung vor, aber der Gesamtbildeindruck ist im Eimer. Außerdem ist der Belichtungsspielraum in hellen Bereichen immer kleiner, was dazu führt, dass man besser etwas in Richtung Unterbelichtung geht. Diesen notwendigen Ausgleich mit einer Anhebung der Tiefen, um wirklich den bestmöglichen Dynamikumfang zu erreichen, wird aber jede JPG-Engine überfordern. Ne, ich sehe es wirklich so, dass man bei Bildern, wo es auf bestmöglichen Dynamikumfang ankommt, JPG ooc besser außen vor lässt.

Hm, vermutlich hast du recht. Ich kenne jedenfalls keine Software, die ein vernünftiges Tonemapping automatisch hinbekommt - andererseits hab ich mich auch schon lange nicht mehr mit HDRs beschäftigt...
Was meinst du aber damit, dass der Belichtungsspielraum in hellen Bereichen immer kleiner ist? Dass Zeichnung in den hellen Bereichen wichtiger ist? Stimmt, aber wenn ich überall Zeichnung habe, dann kann mir das doch egal sein... :D Dem Gesamteindruck ist das aber trotzdem nicht unbedingt zuträglich, da hast du schon recht.

Zitat von hellight
... die Objektive sind ein Kompromiss, der AF ist zu langsam; der Sensor rauscht, die Engine ist ein Kompromiss, das RAW kann nicht alles was in ihm steckt übertragen...
..ein Wunder das man Bilder betrachten kann.
helene




Genau.

Ich finde teilweise lesen sich die Dynamikanmerkungen zum Sensor
als würde einige hier zum fotografieren gezwungen.

Man sollte mit Freude und Spass am Hobby, versuchen
den Wiedrigkeiten des Sensors entgegen zu treten.

Analog war es um ein vielfaches aufwändiger, wenn man
mit dem Daumen rubbelnd, den unterbelichteten Teilen des Positivs,
noch im Entwickler liegend zu Leibe rücken musste.

Und dann gab es noch die Zonenmessung bei der man
z.B. 10 verschieden Bildstellen mit dem Belichtungsmesser
erfasste um aus der Summe eine passende Belichtung zu ermitteln.

Aber dass machte alles Spass den es gab auch damals nicht
den perfekten Film, der das selbe Spektrum wie das Auge erfasste.

A.

Niemand behauptet, dass man jetzt keine Bilder machen kann. Aber der technische Aspekt lässt sich dennoch verbessern - und damit bekommt der Fotograf ganz einfach noch ein weiteres Gestaltungsmittel, denn er kann damit auch mit geringerem Aufwand (oder sogar überhaupt, bspw. hohe Dynamik im Sport) Fotos machen, die so sind, wie er es sich wünscht. Ohne dabei den "Widrigkeiten des Sensors" gegenübertreten zu müssen.
 
Zuletzt bearbeitet:
Was meinst du aber damit, dass der Belichtungsspielraum in hellen Bereichen immer kleiner ist?
In Richtung überbelichtet kann man nicht mehr viel korrigieren, weil hier die Lichter ziemlich schnell so ausgefressen sind, dass nichts mehr zu retten ist. Unterbelichtete Teile kann man dagegen noch recht gut ein schönes Stück hochziehen, bevor es allzu viel rauscht.

Sollte das Motiv zusätzliche 2 oder noch mehr Stufen Dynamik erfordern als die Histogrammbreite hergibt, darf man sich mit der Belichtung nicht mehr in die Mitte legen, weil man ansonsten zwangsläufig in nicht mehr korrigierbare ausgefressene Lichter läuft.

Erwin
 
Kann auch sein, dass ich einen Denkfehler gemacht habe - dann klär mich bitte auf! :)

Es ist genau andersrum. Die bspw. 256 Helligkeitsstufen eines JPG sind ja so abgestuft, dass Du sie als kontinuierlichen Helligkeitsverlauf wahrnimmst. Einen Tonwertabriss siehst Du nur, wenn einer oder mehrere Werte fehlen. Und das kann passieren, wenn Du weniger als 256 Werte auf 256 "spreizt". Aber wenn Du viel mehr Werte auf 256 "zusammenstauchst", passieren Tonwertabrisse nur, wenn Du in irgendeinem Helligkeitsbereich dann doch wieder spreizst. Aber warum solltest Du das tun?


Gruß, Matthias
 
Es ist genau andersrum. Die bspw. 256 Helligkeitsstufen eines JPG sind ja so abgestuft, dass Du sie als kontinuierlichen Helligkeitsverlauf wahrnimmst. Einen Tonwertabriss siehst Du nur, wenn einer oder mehrere Werte fehlen. Und das kann passieren, wenn Du weniger als 256 Werte auf 256 "spreizt". Aber wenn Du viel mehr Werte auf 256 "zusammenstauchst", passieren Tonwertabrisse nur, wenn Du in irgendeinem Helligkeitsbereich dann doch wieder spreizst. Aber warum solltest Du das tun?
Gruß, Matthias

Okay... das erscheint mir ziemlich sehr sinnvoll. Danke fürs erklären! :D

Aber, zu meiner Verteidigung: Dies 256 Abstufungen ergeben einen weniger glatten Verlauf als die 16.000, und es gehen Details verloren, die sich um weniger als 63 Helligekeitsstufen (bei angenommener linearer Umwandlung) im 14Bit Bild unterscheiden, right?
Das natürlich unabhängig von den Ausgabegeräten betrachtet, mit denen man das sowieso nicht wahrnehmen könnte.

In Richtung überbelichtet kann man nicht mehr viel korrigieren, weil hier die Lichter ziemlich schnell so ausgefressen sind, dass nichts mehr zu retten ist. Unterbelichtete Teile kann man dagegen noch recht gut ein schönes Stück hochziehen, bevor es allzu viel rauscht.

Sollte das Motiv zusätzliche 2 oder noch mehr Stufen Dynamik erfordern als die Histogrammbreite hergibt, darf man sich mit der Belichtung nicht mehr in die Mitte legen, weil man ansonsten zwangsläufig in nicht mehr korrigierbare ausgefressene Lichter läuft.

Erwin

Ja, sag ich ja. Ausgefressene Bereiche sind unschöner (bzw. auffälliger) als abgesoffene. Denn bei zu wenig Dynamikumfang muss man ja zwangsläufig oben oder unten was abschneiden. Das lässt sich aber durch einen ausreichend hohen Dynamikumfang vermeiden, und wenn der gegeben ist, ist auch keine Unterbelichtung mehr vonnöten.
 
Aber, zu meiner Verteidigung: Dies 256 Abstufungen ergeben einen weniger glatten Verlauf als die 16.000, und es gehen Details verloren, die sich um weniger als 63 Helligekeitsstufen (bei angenommener linearer Umwandlung) im 14Bit Bild unterscheiden, right?

Wie kommst Du auf 63 Helligkeitsstufen? Bei 14bit sind es 64x so viele wie bei 8bit. Aber Vorsicht! Die 8bit eines JPG sind nicht linear codiert, deshalb ist der darstellbare Dynamikumfang größer als 8EV.


Gruß, Matthias
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten