• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Warum RAW nur mit max Auflösung?

Die Lücken versteh ich schon, ich wüsste aber nicht, welche fiesen Auswirkungen die aufs Ergebnis haben. Das ergibt sich, wenn man in dem Muster ganz oben nicht nur die einzelnen Farbwerte, sondern auch noch deren Position mittelt.
 
Wenn ich Dich richtig verstehe, dann sagst Du, dass die von Dir angedeuteten Lücken das Problem sind. Die Lücken entstehen aber gar nicht. Bei der Mittelwertbildung geht die Information der einzelnen Farbpixel nicht verloren, nur ist die Winkelauflösung durch die Addition je nach Richtung um die von Dir erwähnten Abstände ungenauer geworden. Die Pixel sind also gewissermaßen zu entsprechend großen virtuellen Pixeln geworden.

Aus einer Aufnahme auf einem 2000 x 2000 Pixel Bayer-Sensor (2 Millionen grüne, 1 Million blaue, 1 Million rote Sensoren) entsteht nach dem Demosaiking ein RGB-Bild mit 4 Millionen RGB-Pixeln. Es entsteht KEIN Bild mit 1 Million RGB-Pixeln.

Dein Vorschlag endet bei einer Reduktion des Speicherbedarfs um 75% (es bleiben 25% übrig!) aber bei 256.000 RGB-Pixeln (Reduktion um 93,75% auf 6,25%). Selbst wenn man berücksichtigt, daß rekonstruierte Bayerpixel nicht ganz so wertvoll wie richtige Pixel sind, ist das ein Kuhhandel.

Aus dem Sensor der 5D würdest Du einen 0,8 MPixel-Sensor machen (in der kleinsten Binningstufe, die nächste würde bei 360 KPixel landen).

Wenn man wirklich etwas Speicherplatz sparen will, dann sollte man etwas intelligenter vorgehen und nicht mit dem Holzhammer auf die Daten losgehen.

Intelligente Methoden wären:
  • Nichtlineare Kodierung verwenden (so wie Nikon) mit wählbaren Verlusten (1,5 / 0,8 / 0,4 / 0,2 / 0,1 / 0,0 DIN-Stufen)
  • Hochwertiges Vorhersagemodell verwenden (so wie PNG), ggf. den Anwender zwischen schnell schreiben+gute Kompression und langsam schreiben+sehr gute Kompression wählen lassen oder die Software adaptiv reagieren lassen.
  • Nur kleines JPEG-Vorschaubild einbinden (mit z.B. 320 x 240 Pixel)
  • Größere Bilder für das Preview-Zoomen werden aus dem RAW-File generiert (die gesamte Software dafür hat die Kamera ja schon, warum nutzt das keiner?)
  • Neben 3:2-Formaten Unterstützung von 1:1-Format (wenn man ohnehin ein quadratisches Bild haben will) und von 16:10 / 16:9 bis 2:1-Formaten.
  • Erlauben des nachträglichen Löschens von JPEG oder RAW, wenn Bilder mit JPEG+RAW aufgenommen wurden.

Bei üblichen Bildern dürfte man zwischen 4 und 7 bit/Pixel bei ISO 100 landen.
das ist zwar immer noch mehr als 2 bis 3 bit/Pixel von JPEG-Bildern, aber auch nicht mehr die Welt.

Ingesamt sind aber die Zeiten vorbei, in denen Flashspeicher in homöopatischen Größen ein halbes Vermögen gekostet hat. Aktuelle Preise sind 10 EUR/GByte, analoges Filmmaterial ist selbst bei Vergleich mit RAW-Dateien teurer (wenn der Designer des RAW-Formats nicht zu großen Murks treibt).
 
Wenn ich Dich richtig verstehe, dann sagst Du, dass die von Dir angedeuteten Lücken das Problem sind. Die Lücken entstehen aber gar nicht. Bei der Mittelwertbildung geht die Information der einzelnen Farbpixel nicht verloren, nur ist die Winkelauflösung durch die Addition je nach Richtung um die von Dir erwähnten Abstände ungenauer geworden. Die Pixel sind also gewissermaßen zu entsprechend großen virtuellen Pixeln geworden.

Wenn Du das machst, verlierst Du einen Faktor 4 an Auflösung in horizontaler Richtung, einen Faktor 4 in vertikaler Richtung und gewinnst trotzdem nur einen Faktor 4 an Datendichte.

Ich geb's auf, das zu erklären. Es begreift sowieso keiner.
 
Ich kenne für mich bei meiner Ds nur zwei Aufnahmeformate:
4MP JPG oder RAW (6MP/Sensorauflösung)

Wenn ich in RAW fotografiere, dann nimmt eine Aufnahme soviel Zeit in Anspruch, dass ich eine Speicherkarte sowieso an einem Tag nicht mehr voll bekäme.

Wenn ich in JPG knipse, dann sind die Einflüsse der Kameraautomatik und meiner "Schlamperei" bei der Bildkomposition eh deutlich größer als die Qualitätsverluste von JPG gegenüber RAW.

Ein kleineres RAW hätte evtl. noch den Vorteil, dass man die Anzahl der Zufallstreffer beim knipsen erhöhen könnte, doch gewöhnt man sich nicht auch ein wenig das fotografieren ab, wenn man knipsen kann und anschließend die eigene Gedankenlosigkeit mit den höheren Dynamikreserven des RAWs wieder kompensiert?

Selbst JPG bieten noch beachtliche Reserven für einen nachträgliche Weißabgelich, für Schärfung und sogar innerhalb des auf normalen Medien sichtbaren Dynamikbereichs.

Mal anders gefragt: die JPG-Wandlung der Kamera sollte doch schon den größtmöglichen Teil des genutzen Bereichs des Histogramms bei der Konvertierung berücksichtigen - welche Fehler kann ich bei einem Mini-RAW noch korrigieren, bei JPG jedoch nicht und wären die nicht auch recht einfach im Vorfeld vermeidbar gewesen?

Mir erschließt sich der Sinn nicht so ganz.
- Ich habe für 8 MP bezahlt, dann will ich auch 8 MP nutzen.
Also warum RAW's mit weniger Megapixeln?
Wer macht mich schlau? :D

Ich hatte seinerzeit für die Kamera meiner Wahl bezahlt, nicht für die Megapixel. Als ich mir vor zwei Jahren die *istDs mit 6MP für fast 800 EUR (Gehäuse) gekauft habe, gab es bei Aldi schon 8MP für weniger als 200 EUR und selbst bei einer DSLR (Canon EOS 350D) gab es 8MP schon für einen geringeren Preis (damals ca. 700 EUR).

Doch wenn du für die Megapixel statt für deine Kamera bezahlt hast, bedenke dabei, dass mehr Megapixel in der gleichen Kameraklasse immer billiger wurden als die wenigen Megapixel zuvor.

Die 6MP der EOS300D waren teuerer als die 8MP der 350D, die 10MP der 400D wurden dann noch ein wenig günstiger.

Auch bei Pentax waren die 6MP der istD seinerzeit teurer als die 10MP der K10D.

Bei Nikon war es von der D70 zur D80 nicht anders.

Selbst bei den Kompakten war es so. Die 7MP einer Ixus 700 waren günstiger als die 4MP einer Ixus 400, welche gegenüber den 2MP einer Ixus V2 ein richtiges Sonderangebot war.

mehr Pixel scheinen eine Kamera abzuwerten :evil:
 
Zuletzt bearbeitet:
Nur mal so als Einwurf. Verkleinerte RAWs hätten garkeinen wirklichen Grössenvorteil... Es wird ja für jedes Pixel nur genau ein Wert gespeichert (der aber mit 12bit...). Wenn ich nun um wie in RAW den ganzen Kontrastumfang zu erhalten einfach mal Faktor zwei runterskaliere aber immer noch in 12bit speichere werde ich ja sinnigerweise gleich ein "richtiges" RGB Bild erzeugen wollen und nicht 50-75% der Daten einfach wegschmeissen (ansonsten wäre ein kleiner skaliertes JPG ja schon besser). Das heisst ich speichere dann halbe Auflösung -> ein Viertel der Pixel, aber mit allen drei Farben. Dann lande ich bei Sensorpixel * 1/4 * 3 * 12bit. Das ist gerade mal 1/4 weniger Datenaufkommen als ein normales RAW...
Wenn man die Bearbeitung schneller haben will macht man halt die im Konverter rasend schnell ablaufende Half-size-interpolation und erhält rattenscharfe Fotos mit halber Sensorauflösung.
 
Nun, das mit dem Größenvorteil ist so eine Sache. Beim Bayer-Sensor mag das durch den komplexeren Aufbau stimmen.

Beim Foveon ist das wohl einfacher und recht effektiv. Zur Untermauerung ein paar Zahlen:

High (2268 x 1512 x 3) ~ 7-8 MByte

Medium (1512 x 1008 x 3) ~ 3,5-4,5 MByte

Low gerade keine Zahlen zur Hand

Die genauen Größen sind natürlich abhängig vom Motiv (Dynamikumfang etc.), aber insgesamt lohnt sich das hier schon, wenn man mehr Bilder auf den Speicher quetschen will. Wie schon gesagt: Für den, der es braucht, ne feine Sache.

Gute Nacht :-)
 
Die Auflösungsumrechnung ist je nach verwendetem Verfahren der 3. oder 4. Berechnungsschritt, man muß die ersten Bearbeitungsschritte schon erledigt haben, bevor man sie durchführen kann (Weißabgleich, Bayerrekonstruktion, ggf. Scharfzeichnen, ggf. adaptive Rauschfilterung).

Hallo Frank,

ich habe in der Literatur zwar auch gefunden, das der Weißabgleich der erste Schritt ist, z.B. hier:
http://www.siliconimaging.com/RGB Bayer.htm
Ich finde aber bisher keinen vernünftigen Grund, warum das so ist. Die Skalierung der Farbkanäle kann doch genauso nach der Bayerrekonstruktion durchgeführt werden.
Hast Du dazu eine einleuchtende Erklärung oder Literaturstelle?

Gruß

Klaus
 
Wenn Du das machst, verlierst Du einen Faktor 4 an Auflösung in horizontaler Richtung, einen Faktor 4 in vertikaler Richtung und gewinnst trotzdem nur einen Faktor 4 an Datendichte.

Ich geb's auf, das zu erklären. Es begreift sowieso keiner.
Faktor 4? Es ist sowohl in horizontaler als in vertikaler Richtung der Faktor 2! ;) Einfach zählen, auch bleibt die Eigenschaft der Matrix erhalten und aus den 4 "virtuellen" Pixel (R', B' ,G' und g') werden vier vollwertige RGB-Pixel.

Einzig die Zentrumverschiebung erfordert eine Anpassung des Algorithmus und könnte eventuell zu Schärfeverlusten führen (Überschneidung). Man müsste das halt mal Simulieren. - Wer hat Zeit. :)
 
WERBUNG
Zurück
Oben Unten