• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Warum RAW nur mit max Auflösung?

Ich möchte Euch mal erklären, warum es für mich hin und wieder sinnvoll wäre, das RAW-Format runter zu schrauben.

Da ich ab und zu für Onlieshops Produktfotos anfertige und diese meist nur in einer maximalen Auflösung von 600x600 Pixeln abgebildet werden sollen, ist für diese Art der Bilder eine 5D bei voller RAW-Auflösung völlig überdimensioniert. Da ich an den Bildern nachträglich etwas herumschraube, möchte ich jedoch auf die Farbtiefe des RAW-Formates nicht verzichten. JPG kommt somit nicht in Frage.

Die Datengröße der RAW-Bilder (locker mal 12 MB bei der 5D) sind ein ziemlicher Zeitkiller. Das hantieren mit solch großen Bilddateien ist sehr zeitaufwändig, vor allem, wenn es mehrere Hundert sind. Daher würde es mich sehr freuen, wenn die Kamerahersteller besonders bei den hochauflösenden Bildsensoren dazu übergehen würden, die RAW-Dateien auch in "halber Größe" abzulegen oder als JPG mit höherer Farbtiefe.

LG
Ramiro
 
Dieses Foveonkonzept hat Dich scheinbar sehr beeindruckt. Bloss weil die dort die Pixel übereinander und nicht nebeneinander angebracht sind, ändert das nichts daran, dass 3 Pixel zu einem Bildpunkt kombiniert werden müssen. Bei Bayer-Sensoren sind es eben 4 physikalischen Pixel, die zu einem Bildpunkt werden. Bei Bayer-Sensoren muss nichts besonderes "weggelassen" werden, um das RAW kleiner zu bekommen.
Ich bin zwar kein Programmierer, aber ich stelle mir das beim Foveon einfacher vor. Alle üblichen Interpolationsmethoden gehen doch davon aus, daß jeder Pixel bereits alle drei Farbanteile hat. Bei Foveon hat man von Anfang an für jeden Pixel drei Farbinformationen, also sozusagen drei vollständige SW-Bilder in linearen 12 Bit. Die kann man einfach herunterskalieren und dann die drei neuen Teilbilder genauso als RAW nutzen wie ein RAW, das schon hardwaremäßig mit dieser niedrigeren Auflösung aufgenommen wurde.
Beim Bayer-Sensor hat man vor der Interpolation viele Lücken in der Bildinformation, also es sind noch keine benachbarten Pixel in grün, rot oder blau vorhanden, aus denen man Zwischenwerte errechnen könnte. Man könnte die Interpolation vorziehen und damit ein Quasi-Foveon-RAW erzeugen, aber dann würde man ja die Datenmenge zuerst verdreifachen, was am Ende den gewünschten Speicher-Spar-Effekt deutlich reduziert. Oder man findet einen Weg, "über die Lücken hinweg" zu interpolieren; was dabei rauskommen kann, weiß ich allerdings nicht. Die normale Bayer-Interpolation nutzt ja auch die andersfarbigen Pixel mit, aber genau das will man doch vermeiden, wenn man ein verkleinertes RAW anstrebt.
 
Ich möchte Euch mal erklären, warum es für mich hin und wieder sinnvoll wäre, das RAW-Format runter zu schrauben.
Ich möchte Euch mal erklären, warum es beim Hausbau sinnvoll ist, erst den Innenausbau durchzuführen, dann das Dach zu decken, dann den Rohbau hinzulegen, dann das Fundament zu gießen, dann die Baugrube auszuschachten und als letztes die Bauplanung durchzuführen.
 
Gehen wir nochmal zum Foveon Sensor,

dieser bietet wie gesagt in der Sigma SD 9/10/14schon 3 verschiedene RAW Aufloesungen an, weil sich eben bei diesem das Pixel Binding einfacher machen laesst als bei einem Bayer Pattern Sensor.

eine Info dazu gibt es hier:

http://www.foveon.com/article.php?a=71

http://www.foveon.com/files/vps_pixel_bindingv5.swf

Mich wuerde nun natuerlich interessieren wie Canon das nun bei der EOS 1d M III machen wird, da nach dem Beispiel von Foveon nur ein 2x2 und 4x4 Binding sinnvoll waehre ( meiner Meinung nach)
 
Ich möchte Euch mal erklären, warum es beim Hausbau sinnvoll ist, erst den Innenausbau durchzuführen, dann das Dach zu decken, dann den Rohbau hinzulegen, dann das Fundament zu gießen, dann die Baugrube auszuschachten und als letztes die Bauplanung durchzuführen.
Es geht hier nicht darum, die Reihenfolge komplett zu verdrehen, sondern darum, bestimmte Vorteile von höher auflösenden und niedriger auflösenden Kameras zu kombinieren.
 
Beim Bayer-Sensor hat man vor der Interpolation viele Lücken in der Bildinformation, also es sind noch keine benachbarten Pixel in grün, rot oder blau vorhanden, aus denen man Zwischenwerte errechnen könnte. Man könnte die Interpolation vorziehen und damit ein Quasi-Foveon-RAW erzeugen ...

Für die Bayer-Rekonstruktion benötigst Du zumindest einen groben Weißabgleich.
Man sollte daher die Bayer-Rekonstruktion für die so üblichen 7 bis 10 Beleuchtungen durchführen, die Bilder in der Auflösung halbieren und dann diese 7 bis 10 Beleuchtungen abspeichern. Man landet bei etwa dem doppelten Speicherbedarf, hat immer noch etwas, was schlechter als das Original funktioniert und braucht etwa die 10fache Rechenleistung.

Sollte man sich patentieren lassen.

Bis das fertigentwickelt ist, bekommt man für 100 EUR Speicherkarten, die 4000 Raw-Bilder speichern. Und selbst wenn es dieses Faeture gäbe, es würde wahrscheinlich nur im äußersten Notfall verwendet werden. Sehr viel Aufwand für praktisch keinen Nutzen.

Wer so was haben will, sollte zu einer Behörde gehen.
 
Mich wuerde nun natuerlich interessieren wie Canon das nun bei der EOS 1d M III machen wird, da nach dem Beispiel von Foveon nur ein 2x2 und 4x4 Binding sinnvoll waehre ( meiner Meinung nach)
Im günstigsten Fall bekommen wir 2x2 Hardwarebinning, aber da an jedem Rand 8 Pixel weggelassen werden, wird es wohl eher eine Softwarelösung sein bei der man den Rand meidet, um die Algorithmen einfach zu halten, bzw Artefakte am Rand zu vermeiden. Das Whitepaper lässt sich zu diesem Punkt leider nicht aus.
 
Ich möchte Euch mal erklären, warum es beim Hausbau sinnvoll ist, erst den Innenausbau durchzuführen, dann das Dach zu decken, dann den Rohbau hinzulegen, dann das Fundament zu gießen, dann die Baugrube auszuschachten und als letztes die Bauplanung durchzuführen.

Kannst Du mir bitte mal erklären, was dieses Eintrag soll?

LG
Ramiro
 
Es geht hier nicht darum, die Reihenfolge komplett zu verdrehen, sondern darum, bestimmte Vorteile von höher auflösenden und niedriger auflösenden Kameras zu kombinieren.

Was Du willst, ist mir klar.
Es geht nur nicht, weil man Bearbeitungsschritte nicht einfach vertauschen kann.
Du kannst Deine Wünsche aufschreiben, aber Du kannst Dir sicher sein, daß sie nie erfüllt werden.

Ein Foveon könnte man binnen (wenn die Zentren der Pixel für die einzelnen Farbauszüge weitgehend übereinander liegen).

Ein Bayer kann man nicht binnen (es sei denn, man gibt sich mit sehr niedriger Qualität zufrieden). In dcraw.c steht es drin, weiterhin in allen möglichen Papern über Bayer-Rekonstruktion. Die Auflösungsumrechnung ist je nach verwendetem Verfahren der 3. oder 4. Berechnungsschritt, man muß die ersten Bearbeitungsschritte schon erledigt haben, bevor man sie durchführen kann (Weißabgleich, Bayerrekonstruktion, ggf. Scharfzeichnen, ggf. adaptive Rauschfilterung).
 
Ein Bayer kann man nicht binnen (es sei denn, man gibt sich mit sehr niedriger Qualität zufrieden).

Das stimmt nicht. Man nehme 4 Bayer "Pixel" und wende 2x2 Binning an:
Code:
R1 g1 R2 g2
G1 B1 G2 B2
R3 g3 R4 g4
G3 B3 G4 B4
und bekommt mit
Code:
R' g'
G' B'
eine neue Bayermatrix mit R' = 1/4( R1+R2+R3+R4), g', G' und B' analog, wobei g und G die beiden Grüns unterscheiden sollen. Das mag bei einem planaren Chip wegen der nötigen gekreuzten Leitungen nicht einfach sein, aber möglich ist es allemal ohne irgendwelche Verluste, ausser dem prinzipbedingten Auflösungsverlust.
 
Raws croppen zu können fänd ich schon cool, ich glaub aber nicht, daß die jetzigen Dateiformate soweit durchdacht sind, daß man da auch Bilder anderer Größe drin speichern könnte. Ich hab immer so im Ohr, daß mit jeder neuen Kamera den Programmen auch ein neues Raw-Format beigebracht werden will.
 
Das stimmt nicht. Man nehme 4 Bayer "Pixel" und wende 2x2 Binning an:
Code:
R1 g1 R2 g2
G1 B1 G2 B2
R3 g3 R4 g4
G3 B3 G4 B4
und bekommt mit
Code:
R' g'
G' B'
eine neue Bayermatrix mit R' = 1/4( R1+R2+R3+R4), g', G' und B' analog, wobei g und G die beiden Grüns unterscheiden sollen. Das mag bei einem planaren Chip wegen der nötigen gekreuzten Leitungen nicht einfach sein, aber möglich ist es allemal ohne irgendwelche Verluste, ausser dem prinzipbedingten Auflösungsverlust.

Tritt man einen Schritt weiter nach hinten, sieht man das Problem. Es entsteht keine Bayer-Matrix mehr und die neue entstehende zzzip-Matrix hat einige ganz unangenehme Eigenschaften:

Aus
Code:
R00 G01 R02 G03 R04 G05 R06 G07 R08 G09 R0A G0B R0C G0D R0E G0F
G10 B11 G12 B13 G14 B15 G16 B17 G18 B19 G1A B1B G1C B1D G1E B1F
R20 G21 R22 G23 R24 G25 R26 G27 R28 G29 R2A G2B R2C G2D R2E G2F
G30 B31 G32 B33 G34 B35 G36 B37 G38 B39 G3A B3B G3C B3D G3E B3F
R40 G41 R42 G43 R44 G45 R46 G47 R48 G49 R4A G4B R4C G4D R4E G4F
G50 B51 G52 B53 G54 B55 G56 B57 G58 B59 G5A B5B G5C B5D G5E B5F
R60 G61 R62 G63 R64 G65 R66 G67 R68 G69 R6A G6B R6C G6D R6E G6F
G70 B71 G72 B73 G74 B75 G76 B77 G78 B79 G7A B7B G7C B7D G7E B7F
R80 G81 R82 G83 R84 G85 R86 G87 R88 G89 R8A G8B R8C G8D R8E G8F
G90 B91 G92 B93 G94 B95 G96 B97 G98 B99 G9A B9B G9C B9D G9E B9F
RA0 GA1 RA2 GA3 RA4 GA5 RA6 GA7 RA8 GA9 RAA GAB RAC GAD RAE GAF
GB0 BB1 GB2 BB3 GB4 BB5 GB6 BB7 GB8 BB9 GBA BBB GBC BBD GBE BBF
RC0 GC1 RC2 GC3 RC4 GC5 RC6 GC7 RC8 GC9 RCA GCB RCC GCD RCE GCF
GD0 BD1 GD2 BD3 GD4 BD5 GD6 BD7 GD8 BD9 GDA BDB GDC BDD GDE BDF
RE0 GE1 RE2 GE3 RE4 GE5 RE6 GE7 RE8 GE9 REA GEB REC GED REE GEF
GF0 BF1 GF2 BF3 GF4 BF5 GF6 BF7 GF8 BF9 GFA BFB GFC BFD GFE BFF
wird
Code:
    r00 g01         r02 g03         r04 g05         r06 g07
    g10 b11         g12 b13         g14 b15         g16 b17


    r20 g21         r22 g23         r24 g25         r26 g27
    g30 b31         g32 b33         g34 b35         g36 b37


    r40 g41         r42 g43         r44 g45         r46 g47
    g50 b51         g52 b53         g54 b55         g56 b57


    r60 g61         r62 g63         r64 g65         r66 g67
    g70 b71         g72 b73         g74 b75         g76 b77
Mit dieser Matrix kann man zwar auch irgendwie rumwursteln, aber die ganzen Verfahren der Rekonstruktion von Bayermatrizen funktionieren nicht mehr, die versuchen, alle Pixel zu rekonstruieren (d.h. die Unterabtastung der Farbauszüge zu eliminieren).
 
N'Abend Allerseits!

Über die Vorteile von RAW gegenüber jpeg brauche ich wohl nichts mehr zu sagen. Die spätere Bearbeitbarkeit ist für mich das Killerargument.

Dennoch kann es durchaus auch sinnvoll sein, die RAW-Auflösung zu beschränken - und zwar aufgrund des Speicherverbrauchs. Für einige mag dieses Argument heute völlig überholt sein, aber manch einer hat vielleicht keine Lust viel Geld auszugeben und haufenweise Karten mitzuschleppen, nur um im mehrwöchigen Urlaub oder auf einer Rucksacktour durchgängig fotografieren zu können. Manch ältere Kamera nimmt auch keine 8GB-Karten.

Als ich letztes Jahr in China war, habe ich mir zweimal eine 1GB-Karte nachgekauft, obwohl ich von Anfang an nur in mittlerer Auflösung geschossen habe. Ich hatte mich halt verschätzt. Bei hoher Auflösung wäre es noch schlimmer geworden.

Wem jpegs ausreichen, der fährt damit wohl besser, aber selbst wenn meine Kamera (SD 10) dies böte, würde ich es nicht nutzen (s.o.). Auch das Bearbeiten am Computer geht nachher schneller. Nicht jeder hat oder braucht ständig den neuesten Rechner.

Insgesamt ist es also eine Abwägung zwischen Speicherverbrauch, Qualität und Bearbeitbarkeit, die jeder für sich treffen muss. Wohl dem, der es nicht braucht, aber die Moglichkeit zu haben ist viel Wert. Meine 0,02€...

Gruß


Nullvektor
 
Helf mal bitte beim Denken: Was stellen die Einträge mit den kleinen Buchstaben dar? Bei meinem Vorschlag enstehen aus 4 Bayer-"Pixeln", sprich 16 Sensoren, ein neuer Bayer-Pixel. Warum sollte das nicht skalieren?
 
Helf mal bitte beim Denken: Was stellen die Einträge mit den kleinen Buchstaben dar? Bei meinem Vorschlag enstehen aus 4 Bayer-"Pixeln", sprich 16 Sensoren, ein neuer Bayer-Pixel. Warum sollte das nicht skalieren?

Es entsteht kein Bayer-Sensor. Die Zentren liegen völlig anders. Die Abstände schwanken zwischen 1 und 3 Pixeln statt konstant 2 Pixel zu sein.

Das einfachste ist es, einfach mal zu versuchen, moderne Demosaiking-Verfahren mal mit solchen Pixelanordnungen zu implementieren. Als Startpunkt kann man dcraw benutzen.
 
Es entsteht kein Bayer-Sensor. Die Zentren liegen völlig anders. Die Abstände schwanken zwischen 1 und 3 Pixeln statt konstant 2 Pixel zu sein.
Wenn ich Dich richtig verstehe, dann sagst Du, dass die von Dir angedeuteten Lücken das Problem sind. Die Lücken entstehen aber gar nicht. Bei der Mittelwertbildung geht die Information der einzelnen Farbpixel nicht verloren, nur ist die Winkelauflösung durch die Addition je nach Richtung um die von Dir erwähnten Abstände ungenauer geworden. Die Pixel sind also gewissermaßen zu entsprechend großen virtuellen Pixeln geworden.
 
WERBUNG
Zurück
Oben Unten