• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Wann bringt Nikon sRAW?

jenne

Themenersteller
Solange Nikon kein sRAW und auch keinen perfekten Weißabgleich hat, wären riesige Auflösungen über 12 MP nur abschreckend, denke ich. Vielleicht ist das der Grund, warum Nikon bisher noch keine größere Auflösung als 12 MP angeboten hat? Ich finde, sRAW ist langsam auch bei Nikon fällig. Wann kommt's?
j.
 
Ähm, ja. Nikon wird an der immensen Aufgabe scheitern, die Hälfte der aufgenommenen Pixel wegzuwerfen.

Troll dich.

Hast du meinen Link (und den Thread drumherum) angesehen? Es wird eben nicht die Hälfte weggeworfen, sondern runtergerechnet (was ich bei RAW eigentlich auch nicht für möglich gehalten hatte). Das 100%-Rauschen reduziert sich und die Detailschärfe bei 100% steigt.
j.
 
jenne schrieb:
Es wird eben nicht die Hälfte weggeworfen, sondern runtergerechnet
Auch nicht viel aufwendiger.
 
Auch nicht viel aufwendiger.
Dann muß man sich schon fragen, warum es in den aktuellen 12-MP-Modellen noch nicht umgesetzt ist.

So einfach dürfte es auch gar nicht sein - insbesondere die Zwischenvariante, wo die Auflösung nicht gleich geviertelt wird. Immerhin reden wir hier nicht von fertigen Bilddaten, sondern von Sensor-Rohdaten. Wenn ich recht informiert bin, ist das sRAW-Format von Canon auch recht kompliziert umgesetzt, um möglichst wenig Qualität zu verschenken; so soll in sRAW die Farbtiefe um 1 Bit höher sein, um Rundungsverluste beim Umrechnen aufzufangen.

Für mich ist das fehlende sRAW durchaus ein Argument, das mich derzeit von den höherauflösenden Nikons abschreckt. Spätestens mit Einführung der angekündigten 24-MP-Monster wird es dann wirklich dringend nötig, damit diese Kameras auch jenseits der Hochauflösungs-Anwendungen praktikabel nutzbar werden.
 
also ich glaube hier werden Äpfel mit Birnen verglichen.

1. die D3 hat nicht desswegen eine geringere Auflösung erhalten, weil es von der Komprimierung nicht gegangen wäre... sondern eher, dass Nikon sich erst mal im KB mit einer Sportkamera platzieren wollte.
24MP bei 9fps ist schlicht auch nicht einfach so umzusetzen.
Dazu kommt, dass wohl die Zielgruppe von Sportkameras eher die Finger von Hochauflösenden Dinger hält.

Das Pendant heisst 1D-MKIII. Und die besitzt auch gerade mal 10MP.
Ob da sRAW überaupt Sinn macht, mag ich stark zu bezweifeln.
Denn Sportfotografen von Agenturen fotografieren nicht im RAW.
Also benötigen sie auch kein sRAW.

eine Kompakte KB wie sie die D700 ist, wusste man schon ziemlich im voraus, dass sie auflösungstechnisch kaum mehr bringen wird als eine D3.
Hierzu ist es eher erstaunlich, dass Nikon mit der D700 die Option gewährt sie auf 8fps zu puschten bei gleicher AF-Qualität und Auflösung.
Die D3 ist somit eher unter Druck geraten.

Tatsache ist, dass Nikon noch garkeine wirkliche Hochauflösende Kamera hat.
Also warten wir doch einfach mal ab, was Nikon mit der D3x (wenn sie dann mal kommen wird) bringen wird.
24MP oder wenns dann sogar noch mehr sein werden, werden sicherlich "handelbar" sein.
Nikon hat in letzter Zeit mit Ihren Kamerausführungen stark darauf geachtet, dass diese auch praktikabel sind. Und ich denke in den Folge-Modellen wird dies kaum anders sein.

Nur denk ich, dass es bisher kaum sinn gemacht hat, ein sRAW in den Momentanten Segmenten einzuführen.
 
Bei sraw wird übrigens nicht auf die Hälfte reduziert, sondern auf ein Viertel. Es werden immer 4 Pixel eines Bayer Patterns (RGGB) zu einem Pixel zusammengefasst. Die Pixel sind dann natürlich superscharf (ähnlich den Foveon-Sensor-Bildern), aber mit einem 24 Megapixel-Sensor bekomme ich dann halt nur noch Bilder mit 6 Megapixeln, was ich auch hinterher im Bildbearbeitungsprogramm machen könnte.

Wozu soll der Spaß also gut sein? Zum Sparen von Speicherplatz? Bei einer Kamera jenseits von 2k€? Ich glaube, die Anwender einer Mittelformatkamera mit (neustens) 60 Megapixeln werden sich auch tierisch ärgern, dass sie kein sraw haben...

Viele Grüße
Christian
 
ertmal: sRAW würde ich nie benutzen.

trotzdem kleine Rechnung:
D300: 1300 EUR
shutter ist auf 150.000 Auslösungen ausgelegt.
14MB/14-bit lossless RAW = 2050GB
1000GB kosten ca. 100EUR

Speicherplätz sollte wirklich nicht das Problem sein.
 
Bei sraw wird übrigens nicht auf die Hälfte reduziert, sondern auf ein Viertel. Es werden immer 4 Pixel eines Bayer Patterns (RGGB) zu einem Pixel zusammengefasst. Die Pixel sind dann natürlich superscharf (ähnlich den Foveon-Sensor-Bildern), aber mit einem 24 Megapixel-Sensor bekomme ich dann halt nur noch Bilder mit 6 Megapixeln, was ich auch hinterher im Bildbearbeitungsprogramm machen könnte.
Ähem, ohne mich hier einmischen zu wollen, aber im Grunde ist das verhältnismäßig einfach. So ziemlich jedes grundlegende Programm, das versucht RAWs zu interpretieren, weil eben dies die Auflösung ist für die wirklich Informationen vorliegen. Im Grunde ist das Aufblasen der Auslösung (ich mache aus jedem monochromen Sensor ein dreifarbiges Pixel ein vollkommen unnötiges aufblasen, das im Grunde nur bedingt zu rechtfertigen ist.
Natürlich gibt es da immer eine Reihe von Kleinigkeiten die beachtet werden müssen, aber das ist eigentlich Business as usual. Im Vergleich zu den sonstigen Problemen ist das ziemlich trivial und mit Sicherheit KEIN Hindernis.
 
Hast du meinen Link (und den Thread drumherum) angesehen? Es wird eben nicht die Hälfte weggeworfen, sondern runtergerechnet (was ich bei RAW eigentlich auch nicht für möglich gehalten hatte). Das 100%-Rauschen reduziert sich und die Detailschärfe bei 100% steigt.
j.


Ich verstehe die Diskussion nicht. Dies Umrechung von 4 Pixel auf eine RGB Pixel also (G-R-B-G) kann man doch auch noch hinterher machen. Letztlich wirft man Information weg, 4Pixel werden auf 3 Pixel abgebildet, während des Standard Demosiking aus 4 Pixel auf 12 Pixel aufgeblasen werde.

Also ein 10MP Kamera liefert 30MPixel RGB Daten, d.h 10M Farbpunkt, nach dem Standard Verfahren, während nach dem sRAW Verfahren 2.5M RGB Farbpunkt herauskommen. Das duch Mittelung das Rauschen reduziert wird, ist doch trival. Ich kann auch mein 10M Farbpunkte Bild auf 2.5MP RGB NACHTRÄGLICH herunterskalieren. Dann habe ich doch den selben Effekt!

Für mich ist das keine Frage: RAW sollte möglichst die digitalisierten Sensordaten in der kleinste möglichen Verarbeitungsstufe enthalten. Dann kann man später entscheiden, die Auflösung herunterzurechen von RAW auf sRAW oder andere Bayer Algorithmen zu benutzen.

Nur: wenn die Pixelinformation erst einmal weg ist, ist das unwiederbringlich. 25% Infos werden weggeworfen. Wo ist da der Gewinn? Du brauchst besser Algorithmen, die aus verrauschen Daten Details herausholen. Die Einzigen, die ich kenne sind die "Maximum Entropy" Methoden, die seit den 70er Jahren erfolgreich in der Astrophysik eingesetzt werden, denn die Astrophotos sind durch die Fluktuationen der Erdatmosphäre stark verrauscht. Es wäre aber kurz gegriffen, allein benachbarte Pixel zu kombinieren. Da muss man schon die gesammte Bildinformation untersuchen.

Frithjof
 
Nochmals... lasst euch doch einfach überraschen.
Nikon hat in meinen Augen noch keinen Kamera herausgebracht, die zum heutigen Zeitpunkt als Hochauflösend gilt.

Und je länger sich die Bekanntgabe der D3x gegenüber der Sony A900 herauszieht, desto mehr glaube ich daran, dass die D3x mehr MPs bekommen wird als die A900.

Unterm Strich wird sich Nikon bestimmt etwas einfallen lassen.
Grundsätzlich ist jedes "herunter rechnen" verlustbehaftet.
Mann kann es drehen und wenden wie man will, aber die Datei mit den "meisten" Informationen ist diejenige, die ganz am Anfang entstanden ist und jedes Pixel in seinem Inhalt einzeln speichert (= grosse Datenmengen).
Jedes jetzt noch so kleine Zusammenfassen bewirkt ein kleiner Verlust.
Ob das im Sinne einer Hochauflösenden Aufnahme ist, wo man sowieso nach fast jedem Detail suchen möchte... denke ich, wird wohl der "Suchende" diese Dateigrösse in Kauf nehmen.

Wenn jedoch für den TO bereits 12MP an der Grenze ist, dann gibts doch für ihn kein Grund noch eine hochauflösendere Kamera sich zu zu legen.
Da ist ja die D700 genau das richtige für Ihn.
Ausserdem, Leute die sich Hochauflösung zulegen, haben ihren ganzen Workflow darauf ausgerichtet. Somit auch Digitale Dunkelkammer ect.
Somit wird es bei diesen Leuten wohl kaum an Speicher-Ressourcen oder an Rechen-Performance fehlen. Die Kamera ist "ein Teil" vom Ganzen und steht am Anfang der Kette.

Ich seh da die Problematik nicht.
 
Grundsätzlich ist jedes "herunter rechnen" verlustbehaftet.

Nur bedingt.Wenn du deinen Sensor recht genau kennst kannst du etwas sparen da es auch "analoge" Kompressionen gibt, also Werte die in der Praxis nicht oder nur sehr bedingt auftreten. Da läßt sich durchaus einiges über Vorfilterung, Umverteilung und Transformierung einiges machen. Kostet halt etwas Arbeit bei Ver und Entpacken und es ist mit Aufwand verbunden den man sonst in andere Features stecken könnte. Und in einigen seltenen Situationen kann das dann auch mal nach hinten losgehen und für deutliche Verluste sorgen.
 
trotzdem braucht man für die schnappschüsse beim sonntagsausflug keine 24mpix, und daher finde ich ein (gut umgesetztes) sraw ziemlich sinnvoll.
bei den aktuellen canons werden die pixel aber - was ich bisher gelesen habe - nicht zusammengerechnet sondern wirklich einfach ein großteil davon weggeworfen. das ist dann halt suboptimal.
 
Bei sraw wird übrigens nicht auf die Hälfte reduziert, sondern auf ein Viertel. Es werden immer 4 Pixel eines Bayer Patterns (RGGB) zu einem Pixel zusammengefasst.
Nein, genau das passiert ja eben nicht. Würde man 4 Bayer-Pixel zu einem RGB-Pixel zusammenfassen, würde man ledliglich 25 % Speicher sparen (also man müßte z. B. statt 4x 12 Bit dann 3x 12 Bit speichern) - und das bei geviertelter Auflösung. Das hilft nix.
Der Witz an sRAW ist also, daß man wieder eine Art verkleinertes Bayer-Muster bekommt und dadurch fast so viel Speicher spart, als hätte man einen niedriger auflösenden Sensor.
Außerdem beherrscht Canon nicht nur die Viertelung der Auflösung, sondern auch die Halbierung. Etwa die EOS 50D hat ein volles RAW mit 15 MP und zwei sRAW-Varianten mit 7,1 und 3,8 MP - wie auch immer das intern funktioniert. Ich stelle mir vor, daß z. B. für jeden neuen Grün-Pixel die Werte der jeweils nächstgelegenen Grün-Pixel als Grundlage genommen werden.
 
Die Möglichkeit sRAW nutzen zu können, zwingt ja nicht dazu. Ich kann mir vorstellen, dass 21 MP auch mal vorteilhaft sein könnten. Ich habe aber bisher bei meinen 6 MP Auflösung nichts vermisst. Da geht es mir beim Fotografieren mehr um andere Dinge als Auflösung. Ich würde bei der 5D MK2 wahrscheinlich meistens die 5 MP RAW nehmen, die wohl etwa wie 8 konventionelle MP aufgelöst sind. Es geht ja nicht nur um den Speicher auf der Platte. Ich habe bei meinem letzten Urlaub ~3000 Bild geschossen (1 Woche). Pro Datei 3 MB (12 MP Jpeg normal). Das sind ca. 9 GB. Das gleiche mit der 5D Mk2 wären bei RAW ca. 80 GB. Da muss ich dann auch noch einen mobilen Speicher im Zelt dabei haben oder eben 10x 8 GB Karten. Dann kommt die Sache mit dem Speichern zuhause (externe Festplatten). Zu den RAWs kommen noch Jpegs dazu, sind vielleicht mal eben 100 GB pro Urlaub. Das geht mir zu schnell. Weiterhin braucht die Bearbeitung ja auch mehr Zeit als bei kleinen RAWs. Und das alles, obwohl ich 21 MP meistens gar nicht brauche? Nee, ich finde die Möglichkeit, sRAW zu haben, sehr gut - jedenfalls wenn die Cam um die 20 MP hat. Ein solcher Sensor ist zusammen mit sRAW doch super. Die 10 MP-Einstellung der 5D Mk2 löst sicherlich besser auf als die 12 MP der D700, oder? Und das bei kleineren RAWs und vermutlich besserem Rauschverhalten. (?)
Meiner Meinung kommt Nikon nicht mehr lange drumherum, Ähnliches zu bieten wie Canons sRAW.
j.

PS: Ich nutze jetzt nur deswegen Jpeg, weil die Fuji außerordentlich zuverlässig belichtet (Weißabgleich und so). Bei Nikon, Canon etc. käme für mich nur RAW in Frage. Und 12 MP nehme ich, weil man bei 6 MP nicht weit genug reinzoomen kann bei der Betrachtung am Display.
 
Nein, genau das passiert ja eben nicht. Würde man 4 Bayer-Pixel zu einem RGB-Pixel zusammenfassen, würde man ledliglich 25 % Speicher sparen (also man müßte z. B. statt 4x 12 Bit dann 3x 12 Bit speichern) - und das bei geviertelter Auflösung. Das hilft nix.
Der Witz an sRAW ist also, daß man wieder eine Art verkleinertes Bayer-Muster bekommt.

Wir haben offensichtlich beide unrecht. Im zuerst verlinkten Thread hat kaha300d sich mal den dcraw-Quelltext vorgenommen: siehe Post 45, 47 und 48. Demnach befindet sich im sRaw-Format ein verlustfreies jpeg, in welchem die Bildinformationen als YCbCr 4:2:2 (oder einem vergleichbaren interpolierendem Verfahren) gespeichert sind.

Die Bezeichnung Raw ist hier wohl etwas fehl am Platz, da die Umwandlung des Bayer-Muster nebst Verkleinerung bereits in der Kamera vorgenommen wird, wie bei einem normalen jpeg auch. Der Unterschied ist die verlustfreie Kompression sowie eine höhere Bitrate als 8 bit (14 oder 15 bit?) plus vielleicht noch etwaige Meta-Informationen zu den Kameraeinstellungen (sofern die nicht eh in den Exifs enthalten sind).

Viele Grüße
Christian
 
plus vielleicht noch etwaige Meta-Informationen zu den Kameraeinstellungen (sofern die nicht eh in den Exifs enthalten sind).

Das sind sie und zwar im EXIF Block selbst (der vom IFD0 adressiert wird) gibt es im allgemeinen das Makernote Tag (37500) das auf einen opaquen Datenblock zeigt in dem Hersteller "private" Informationen abspeichern.
 
Die Bezeichnung Raw ist hier wohl etwas fehl am Platz, da die Umwandlung des Bayer-Muster nebst Verkleinerung bereits in der Kamera vorgenommen wird, wie bei einem normalen jpeg auch. Der Unterschied ist die verlustfreie Kompression sowie eine höhere Bitrate als 8 bit (14 oder 15 bit?) plus vielleicht noch etwaige Meta-Informationen zu den Kameraeinstellungen
Aber man kann doch beim sRAW auch die Belichtung und den Weißabgleich nachträglich ändern, oder nicht?
j.
 
WERBUNG
Zurück
Oben Unten