• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Sony A7S iii

Dieses 'Runterrechnen und alles ist gleich' wird schon seit Jahren durch die Gegend gewälzt. Ständige Wiederholung macht es aber trotzdem nicht wahr. Selbst wenn wir von derartigen Quad-Pixeln reden, wird das Binning in Hardware, sehr nah an der eigentlichen Datenquelle, bessere Ergebnisse liefern, als es im Nachgang in Software erledigen zu lassen.

Und deine Aussage belegst du mit welchen Fakten? Mag sein, dass hier und da kleine Unterschiede entstehen, aber dann eher in der 100% Ansicht.
 
Und deine Aussage belegst du mit welchen Fakten? Mag sein, dass hier und da kleine Unterschiede entstehen, aber dann eher in der 100% Ansicht.
Erfahrung, weil ich mehr als genug Kameras durch die dunklen Höhlen aka (Underground-)Clubs gejagt habe. Die Theoretiker haben damit ein Problem, aber das liegt nicht an mir, sondern an deren primitiven Modellen von der Welt :D Und nein, die Probleme sind real und sieht man in stärkeren Ausprägungen sogar dann, wenn alles auf Briefmarken-Größe skaliert wird. Da rauscht nichts mehr, und trotzdem sieht man es noch ... schon fies, aber so ist das halt. :p
 
Erfahrung, weil ich mehr als genug Kameras durch die dunklen Höhlen aka (Underground-)Clubs gejagt habe. Die Theoretiker haben damit ein Problem, aber das liegt nicht an mir, sondern an deren primitiven Modellen von der Welt :D Und nein, die Probleme sind real und sieht man in stärkeren Ausprägungen sogar dann, wenn alles auf Briefmarken-Größe skaliert wird. Da rauscht nichts mehr, und trotzdem sieht man es noch ... schon fies, aber so ist das halt. :p

Also keine Fakten sondern nur gefühlte Fakten, kennt man derzeit ja in allen Lebensbereichen.
Schön für dich, dass du verschiedenste Kameras besessen hast, da bist du nicht allein auf dieser Welt. Allein dies taugt wenig für eine ernsthafte Problemlösung.

Ich werde heute Abend mal gleiche Szenarien mit der A7sII und der A7rIII fotografieren und dann anschließend das A7R Bild auf die 12MP der S runterskalieren. Mal sehen was dabei rauskommt und ob das für 99% der "Höhlentouren" relevant ist... ich habe meine begründeten Zweifel :eek:. Ob dann noch was auf "Briefmarkengröße" erkennbar ist.... nun wird man sehen.
 
Und deine Aussage belegst du mit welchen Fakten? Mag sein, dass hier und da kleine Unterschiede entstehen, aber dann eher in der 100% Ansicht.

Der Unterschied liegt im read noise (Ausleserauschen). Wenn ich (wie bei CCDs einfacher möglich) hardware binning machen kann und meine pixel zu einem größeren Pixel zusammenschließen kann, dann habe ich für das Auslesen nur einmal das Ausleserauschen. Lese ich mehrere Pixel einzeln aus und mache das binning per Software, dann habe ich das Ausleserauschen eben mehrfach.
 
Das mag sein, kommt halt auf den Chip an. Ich wollte nur den Unterschied zwischen Hardware und Software-Binning bezogen auf read noise benennen, wenn ich bei ein und demselben Sensor die Wahl zwischen Hard- und Software-Binning habe. Read-Noise entsteht halt pro Lese-Vorgang für jeden Pixel einzeln. Daher kann die Reduktion von Lese-Vorgängen (Hardware-Binning) vorteilhafter sein gegenüber Software-Binning.

EDIT: Vielleicht noch ergänzend: Das read noise ist bei den modernen Sensoren so gering, dass der Unterschied vernachlässigbar ist und das read noise nur bei low-light Anwendungen interessant wird. Und man bedenke halt den Unterschied zwischen CMOS und CCD-Sensoren (CMOS hat idr wesentlich geringeres read-noise, aber nicht die Möglichkeit von HW-Binning).
 
Zuletzt bearbeitet:
schaut man sich einfach mal grafiken z.b. bei DXO an und vergleicht das Rauschen der R2 oder R3 (42Mpixel) mit der S2 (12 Mpixel), dann sieht man keine relevanten Unterschiede im High Iso Bereich. Und der untere ISO Bereich ist bei keiner heutigen Kamera kritisch.
Dumm nur, daß ich eine A7rII schon in den Händen hatte. Die kommt mit einer A7s im Low-Light eben doch nicht mit.

Größere Pixel sammeln mehr Licht als kleinere Pixel. Wie auch schon erwähnt wurde, ist das Ausleserauschen mittlerweile sehr niedrig, aber es ist halt da. Soll heißen, der Signal-Rausch-Abstand SNR wird primär von den umgesetzten Photonen bestimmt. Wie schon eben gesagt, sammeln größere Pixel mehr davon ein.

Jetzt kommen z.B. DR-Messungen an. Die nehmen sich die RAW-Daten (!), und stellen dabei fest, daß z.B. eine 10MPix-Kamera bei ISO6400 einen normskalierten DR von sagen wir mal 10 Blenden hat. Eine 40MPix-Kamera kommt auf den gleichen Wert. Daraus ergibt sich, daß die 10MPix-Kamera pro Pixel 2 Blenden mehr Licht einsammelt (!), und wenn sich dieser Abstand über den gesamten ISO-Bereich zieht, sind das selbst 2 Blenden Unterschied bei niedrigen ISOs.

Das dumme an der Digital-Fotografie ist leider, daß wir die RAW-Daten nicht wirklich anschauen können. Die müssen irgendwie umgewandelt werden. Und da fängt der Spaß an: Diese Operationen arbeiten mit dem, was die einzelnen Pixel zu liefern haben. Weißabgleich, Demosaicing, Gamme-Kurve, Farbprofil der Kamera, usw. Erst nachdem der Großteil dieser Operationen durch ist, wird runterskaliert.

Bei der 40MPix-Kamera werden also z.B. Farben bestimmt aus Werten, die sich teils schon mit dem Ausleserauschen vermengen, während das bei der Kamera mit 10MPix kein Problem darstellt, da diese Werte deutlich mehr Abstand zum Ausleserauschen haben. Durch die ungleiche Verteilung der Farbanteile, Weißabgleich usw. bekommt man da schnell mal Farbstiche, die sich in den dunkleren Farben tummeln, und das kommt auch immer mit einer latenten Desaturierung einher. Sowas läßt sich durch Runterskalieren nur noch bedingt beheben.

Das näher liegende Ausleserauschen beschränkt auch die Bearbeitungsmöglichkeiten, denn wie gesagt, es wird mit den Daten der einzelnen Pixel gerechnet, nicht mit irgendwelchen normskalierten Werten basierend auf den RAW-Daten. Man ist also dem Ausleserauschen, ganz entgegen der Messungen, die so gerne zitiert werden, näher.

Damit sollte dann aber auch klar sein, daß Aussagen wie "ich habe das Rauschen verglichen" auf eine falsche Meßmethodik hindeuten. Ebenso darf man diese normskalierten RAW-Messungen nur im Kontext der gesamten Verarbeitungskette betrachten; alles andere ist ein Fehler, d.h. falsche Schlußfolgerung.

Und als Nachtisch, weil ich auch kurz auf niedrige ISOs eingegangen bin: Die GH5s liefert 14bit pro Pixel, ggü. den "handelsüblichen" 12bit bei µFT. Nur mal so als Hinweis. Denn eine Konsequenz aus dem "alles ist gleich" wäre ja, daß ein 500MPix-Sensor auch die gleichen Resultate liefern würde. So mit 8bit pro Pixel oder sowas :D Spätestens dann sollte aber klar sein, daß dieser Denkansatz irgendwo einen Fehler hat.

Übrigens werden derartige Artefakte wie oben beschrieben selbst bei simulierten Tests sichtbar. Man sieht ganz gut, wie sich in dem 1.25µm-Bild die Farben an einigen Stellen doch deutlich von dem 5µm-Bild unterscheiden (welches relativ gute Farbtreue zum Original hat), kaputte(re)s Schwarz usw. Diese Farben korrigieren sich auch nicht durch weiteres runterskalieren oder irgendwelche andere Entrauschungsmagie.
 
Damit sollte dann aber auch klar sein, daß Aussagen wie "ich habe das Rauschen verglichen" auf eine falsche Meßmethodik hindeuten. Ebenso darf man diese normskalierten RAW-Messungen nur im Kontext der gesamten Verarbeitungskette betrachten; alles andere ist ein Fehler, d.h. falsche Schlußfolgerung.
Hm, ich bin einfach so Oldschool und schaue mir das fertige Bild nachher in der Ausgabegröße an wie ich sie für nötig halte und schaue welches Bild weniger rauscht. Werde ich wohl dann ändern müssen ;)
 
Hm, ich bin einfach so Oldschool und schaue mir das fertige Bild nachher in der Ausgabegröße an wie ich sie für nötig halte und schaue welches Bild weniger rauscht. Werde ich wohl dann ändern müssen ;)
Das ist auch eine valide Vorgehensweise. Ich kann genau dieses Prinzip auch bei niedrigen ISOs verwenden und z.B. eine 5D3 mit einer D750 vergleichen. Wenn ich nicht viel mit den Bildern anstelle, komme ich auch auf das gleiche Ergebnis.

Der Fehler liegt nun darin, aus dieser Meßmethodik auf alles zu schließen, was offensichtlich falsch ist ("Die 5D3 ist genauso gut wie die D750!"). Bei niedrigen ISOs gibt es deswegen keine Diskussionen, bei hohen ISOs muß man diesen Umstand jedesmal aufs Neue durchdeklinieren. Ab welchem ISO ist diese Meßmethodik denn gültig für alles? Und vor allem: Warum?

Natürlich kann man sich auch selbst eine Meßmethodik zusammenstellen. Beispielsweise Ausdruck auf eine max. Größe, mit entsprechendem Material, Drucktechnik und sich daraus ergebende Auflösung; übliche Bildbearbeitung in den und den Grenzen. Dann definiert man sich einen max. "Rauschpegel" (also eher Körnigkeit), mit dem man noch leben kann. Dann kann man durchaus Kameras mit dieser einfachen Meßmethodik vergleichen, weil man effektiv sämtliche Grenzen abgesteckt hat. Aber lassen sich diese Ergebnisse generell verallgemeinern? Nein.

Ich habe ISO12k Bilder aus einer A7rII, und die sehen richtig gut aus. Ich weiß aber eben auch, warum die "funktionieren". Genauso gibt es ISO12k Bilder, bei denen die Grenzen der A7rII sehr deutlich werden und meine A7s nur mit den Schultern zuckt so nach der Art "war was?".

Genau deswegen wird eine A7sIII nur dann mit höherer Auflösung kommen, wenn es Sony schafft, die Sensitivität ggü. A7s/II zu halten oder sogar zu verbessern. Und die haben selbst gesagt, daß die von der Pixelgröße abhängt. Von daher sind die Grenzen also schon gesteckt. Mit BSI geschätzt 18-20MPix oder sowas maximal. Alternativ lassen sich noch bessere 12MPix bauen. Oder halt diesen Quad-Pixel-Ansatz, aber das dürfte zu deutliche Artefakte produzieren, die bei Smartphones im Gemenge all der anderen Artefakte und Probleme eher untergehen.
 
Mal ein paar Gedanken bezüglich AF:

Momentan haben A7S und A7S II ja einen reinen Kontrast-AF. Vermutlich hat Sony den Weg gewählt um bei diesem besonderen Model keine toten Pixel auf dem Sensor zu haben.
Was kommt also bei der A7SIII? Wieder ein reiner Kontrast AF?
Oder setzt Sony vielleicht das erste mal einen Dual-Pixel-AF oder vielleicht sogar einen Quad-Pixel-AF ein? Der könnte dann im Gegensatz zu den Canon sogar auf horizontale Pixel scharf stellen.
 
Naja, den Rolling Shutter fand ich bisher persönlich nie das große Problem bei den aktuellen Kameras.
Für Action-Produktionen und Mitzieher auf dem Sportplatz aber sicher praktisch. :devilish:
 
Ich wußte ja schon bei der Vorbestellung der A7s, daß ich die für eine ganze Weile behalten würde. Um so mehr Krimskrams die in den Sensor der A7sIII einbauen, um so größer ist die Chance, daß bzgl. Low-Light die Grenze nicht weitergeschoben wird, einfach weil der neue Krams Verbesserungen in dem Gebiet wieder auffrißt. Siehe BQ-Unterschiede A9 und A7III, welche definitiv dem Sensorsandwich der A9 zuzuschreiben sind. Dafür bekommt man eben andere coole Dinge :)

Und selbst schnelle Ausleseraten so ala A9, aber bei Video, würden ja auch schon einen weiten Schritt nach vorn bringen. Immer noch nicht perfekt, aber schon deutlich besser als z.B. die 1/30s derzeit.
 
da noch nicht einmal ein release oder ein einziges Feature bekannt ist, niemand weiss, ob 6K ein Thema ist, sind alle Aussagen zum Preis und ob man warten soll, irgendwie sinnbefreit, oder?
 
WERBUNG
Zurück
Oben Unten