• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Vergrößerungs-Potential Foveon-Fotos vs. Bayer-Fotos

Es geht um die Qualität des elektronischen, vom Sensor gelieferten, Pixel-bezogenen Informationsgehaltes und wo mehr berechnet (geraten / gemalt) werden muss, CFA- oder X3 -Sensor.

Was soll denn ein »elektronischer Informationsgehalt« überhaupt sein?? Das ist doch eine total sinnlose Worthülse, bist Du mit der Übersetzung des vom Hauptquartier gestellen Marketing-Materials nicht klargekommen?

Alles nach dem Sensor ist Bildbearbeitung (Interpolation etc.). Und hier ist eben die zur Verfügung stehende Information des Foveon X3 Sensors einfach besser.

Oh ja. Soviel besser dass die Daten aussehen als ob man sie mit einer 3-4 Jahre alten Mobil-Telefon-Kamera gemacht hat wenn man sie nicht durch massive Interpolation entrauscht??

Mit dem 3-kanaligen TRUE- / TRUE II -Prozessor ist man in der Entwicklung nun auf dem Stand, dass man 3 Kanäle separat verarbeiten kann. Auch dieses Konzept ist richtig.

So und jetzt darfst Du uns mal genau erklären was es heißt »3 Kanäle separat zu verarbeiten« bzw. wo der Unterschied zur bisherigen Verarbeitung liegt.
Die einzigen mir bekannten und für den Endanwender real erfahrbaren Verbesserungen durch den »Wahrheits-Prozessor« sind doch dass die eingebetten JPEGs für die Bild-Vorschau 20% schneller berechnet werden können als beim Vorgänger, dass die OOC-JPEGs weichgespülter entrauscht sind, sowie dass der Energie-Verbrauch soweit gesenkt werden konnte dass die Prozessoren auch in den DPs mit ihren wesentlich kleineren Akkus betrieben werden können.
Ansonsten gilt »Same sensor -- same limitations«. Nicht ein Millimeter Fortschritt was die Bild-Qualität betrifft.

Solange diese Probleme bestehen ist es ziemlich sinnlos mit einem grösseren Foveon X3 Sensor auf den Markt zu gehen, denn er würde die Probleme und die Kosten in der weiteren Hard- und Software-Entwicklung nur unverhältnismässig stark vergrössern.

FALLS die Probleme wirklich nur in der der Daten-Erfassung nachgelagerten Aufbereitungs-SW liegen könnte Sigma doch sehr wohl einen größeren Sensor auf den Markt bringen -- alle Bilder die damit jetzt gemacht werden würden ja von späteren Verbesserungen der SW automatisch mit profitieren.
Jetzt mit höherer Foveon-Auflösung zu fotografieren würde auch eines der derzeitigen Probleme zumindest teilweise bessern: Wenn man die X3Fs für den Print nicht so stark vergrößern müsste wäre das Foveon-typische Rauschen in dunklen Bild-Partien lang nicht so stark sichtbar.
Fakt ist doch dass Sigma beim Sensor seit 4 Jahren absolut null Innovation gezeigt hat, nicht mal in Demos oder Ankündigungen. Man kann daraus -- bedauerlicherweise -- nur folgern dass die Firma einfach nicht in der Lage ist die Foveon-Sensor-Technologie überhaupt weiter zu entwickeln.

Was Sigma hier fehlt ist eine stringente Koordination von Hardware- / Firmware- und Software-Entwicklung.

Seufz, was Sigma fehlt ist überhaupt irgendeine Art von Entwicklung auf der HW-Seite. Außer der Integration von durch Andere entwickelten und zugelieferten Komponenten machen die doch Nichts... und selbst dafür brauchen sie Jahre.

Nichts desto trotz ist es jedoch auch jetzt schon möglich mit geeigneten Tools Bildergebnisse zu drucken, die anderen, wesentlich aufwändigeren und teureren Kameras in Nichts nachstehen.

Das ist eine krasse Werbe-Lüge.
Denn dass genau das nicht stimmt ist doch genau in diesem Thread schon X-fach mit Bildmaterial belegt worden:
Sigma-Kameras sind (bzw. waren was die SDs betrifft) sehr billig und liefern bezogen auf den Preis ordentliche Bild-Qualität.
Aber mit den teureren aktuellen FF-DSLRs können sie in keiner Weise mithalten -- bei Geschwindigkeit, Ergonomie, Größe der Prints, Available Light wird sofort klar warum Sigma-Kameras nur noch im Billig-Segment absetzbar sind.
Und auch bei den APS-C-DSLRs zieht die Konkurrenz davon: Die Leistungsfähigkeit (s. Vergleiche z.B. mit der 500D) der CFA-DSLRs ist beim bisherigen Foveon-Alleinstellungs-Merkmal Gesamt-Auflösung des Sensors inzwischen mindestens genausogut wie bei den SDs, und die Konkurrenz-Produkte sind ja inzwischen sogar billiger (s. z.B. 550D).

Alle anderen Argumente hier halte ich für zwar am Bildschirm oder theoretisch darstellbar, deswegen aber noch lange nicht für unbedingt richtig.

Schwachsinn.
Genau hier ist doch aufgezeigt worden dass X3Fs schon bei Print-Größen über 45x30cm deutlich überstrapaziert sind.
Sigma heißt Kameras für kleines Geld und kleine Prints, mehr ist für die Firma (leider) auf absehbare Zeit einfach nicht drin. Die Konkurrenz ist hier inzwischen mehrere Produkt-Generationen weiter.

Alles andere ist Kaffesatzleserei. Jede Kamera, die aus den Sensordaten dann ein mehr oder weniger "gutes" Bild produziert ist nichts anderes als ein Bildbearbeitungsrechner der mir eine vom Kamerahersteller vorgegebene Bildvariante liefert, die eventuell nicht meinen Vorstellungen, oder der fotografierten Realität entspricht und die ich nur in begrenztem Umfang nach meinen Vorstellungen bearbeiten kann. Bei den Sigma Kameras habe ich, aufgrund des Umstandes, dass Kamera und RAW-Konverter als EIN System direkt zusammenarbeiten, wenigstens noch die Möglichkeit mit relativ einfachen Mitteln das Erscheinungsbild der Aufnahme direkt zu beeinflussen.

Was für ein zusammenhangloser Quatsch ist das denn jetzt wieder??
Für den Versuch in diesen Absatz irgendeinen Sinn hinein zu interpretieren muss man Kaffesatzleserei betreiben... bei jeder Kamera die die Speicherung von RAW-Dateien erlaubt wird vom Hersteller ein SW-Konverter geliefert der mit der Kamera als »ein System« zusammenarbeitet.
 
@KeinKorn

ist Dir wieder mal nix eingefallen als schnöde Polemik und dumme Anmache ?


Zum Thema:

Das darf doch gar nicht mehr war sein. Ihr stellt hier Vergleiche an die einem, schon von der nüchternen Betrachtung der technischen Voraussetzung her, die Haare zu Berge stehen lassen.

Ihr streitet über die Bildqualität von Kameras in der Printausgabe anhand von Bildausschnitten mit x-facher Vergrösserung, auf 300 oder 600 DPI interpoliert, die ihr auf einem Display betrachtet welches 72, 96 oder 128 DPI Auflösung hat.

Ihr Diskutiert über und beurteilt die Qualität von Bilder mit zig Megapixeln die ihr euch auf einem Display anschaut welches maximal 1,3 MPixel (1280 x 1024 Bildpunkte) darstellt.

Professionelle Fernsehkameras arbeiten nicht ohne Grund mit 3 Sensoren (RGB, 3 Chip-Kameras) bei der niedrigen Pixelanzahl. Einzig ARRI hat hier den Versuch gestartet in einer professionellen Kamera einen speziell entwickelten RGB-Sensor zu verbauen.

Fernsehbilder haben, bei der Darstellung im herkömmlichen 4:3 Seitenverhältnis, eine Auflösung von 720 x 576 Pixeln die auf Bildröhren mit 70cm Bilddiagonale als scharf (bei 100Hz-Technologie sogar als sehr scharf) bezeichnet werden. HDTV hat eine Darstellung von 1920 x 1080 bzw. 1280 x 720 Pixeln. Die Bilder werden auf Displays mit 80cm und mehr Bildschirmdiagonale dargestellt und als das Beste jemals Dagewesene, als superscharf empfunden.

Mit anderen Worten ein Bild von 1920 x 1080 = 2MPixeln auf 800mm Diagonale (Bildschirm) wird als erstklassige Darstellung bezeichnet, wogegen ein 2640 x 1760 = 4,7MPixel Bild auf 1456mm Diagonale (A0) ausgegeben von minderwertiger Qualität ist ?

Und zu den Pixeln, um nicht wieder bei Adam und Eva anzufangen, (selbst auf die Gefahr hin, dass mir wieder jemand Werbung für Sigma oder Foveon unterstellt) noch einmal der Link zur Definition von Pixels (Seite 12 bis 14) : http://www.dicklyon.com/tech/Photography/Pixel-SPIE06-Lyon.pdf

Sicher kann Qimage seine Vergrösserungen als RGB-File ausgeben, aber das ist doch Quatsch. Es soll den Drucker ansteuern - angepasst an die Steuerung der Druckköpfe - und damit die Bilddetails möglichst präzise zu Papier bringen. Mein Bildschirm kann nur RGB darstellen, kein CMYK- und schon gar kein 8-farbiges C/LC/M/LM/Y/LY/K/LK-Format. Selbst wenn der ganze Bildbearbeitungsweg von der Kamera über den Bildschirm bis zum Drucker kalibriert ist, geht das halt nicht. Und Papier über´s WEB versenden - an der Technologie arbeitet man vielleicht noch.

Gruss,

Browny.
 
Man sollte den Kameraherstellern verbieten ihr gefährliches Halbwissen hier über die Mitarbeiter zu promoten.

Lasst es einfach.
Lasst ihm das Spotlight.

Es ist alles falsch.
 
Hallo,

mensch ist das hier alles polemisch. Um noch ein wenig Öl ins Feuer zu gießen - ich hab schön öfters jetzt Fotos von der SD14 auf 50x70cm ausbelichten lassen und bin mehr als zufrieden. Die Relation Pixelzahl zur Sensorgröße scheint also beim FOVEON gar nicht so schlecht zu sein.

Manchmal denke ich mir dass viele zwar drüber reden es aber keiner macht.

Nutzt einfach eure Cams und macht schöne Bilder - und lasst die Polemik weg.

Gruß,
Harald
 
In dieser Sache warte ich ja z.B. immer noch auf Beispiele von Browny, der ja ganz einfach selbst eigene Beispiele bringen könnte, so, wie es Andere auch machen... (y)

...Im Übrigen ist es, wie fast immer, eine Frage des Geschmackes, des je nach Visus variierenden optimalen Betrachtungsabstandes, der dann auch noch vom Verwendungszweck, der Raumgröße etc. abhängt. :)

Wer will kann und darf mit seiner Sigma in Sachen Bildqualität zufrieden sein, so wie ich es auch häufig bin, aber verträumt und z.T. radikal hervorheben muss Ich das nicht unbedingt, da gewisse Schwächen offensichtlich sind und es diesbezüglich Alternativen und Entwicklungspotential (inklusive Lösungen) gibt, die Ich keinem madig machen brauche, um besser autosuggestiv mit meinen Entscheidungen zurecht zu kommen. :cool:

Es erstaunt mich immer wieder wieviel Energie in z.T. leicht und offensichtlich wiederlegbare Falschdarstellungen gesteckt wird, anstatt diese in Form von Zeit, Kreativität und Geld in die Entwicklung zu stecken, um ehrlich und gerechtfertigt auf etwas wirklich stolz sein zu können.


Uli


P.S.:
Fussball zeigt ja mal wieder (diese Tage) die weite Verbreitung von m.E. zumeist ungerechtfertigtem Stolz,
wie er auch bei Religionen und Ideologien zu finden ist...:eek:

Hallo,

mensch ist das hier alles polemisch. Um noch ein wenig Öl ins Feuer zu gießen - ich hab schön öfters jetzt Fotos von der SD14 auf 50x70cm ausbelichten lassen und bin mehr als zufrieden. Die Relation Pixelzahl zur Sensorgröße scheint also beim FOVEON gar nicht so schlecht zu sein.

Manchmal denke ich mir dass viele zwar drüber reden es aber keiner macht.

Nutzt einfach eure Cams und macht schöne Bilder - und lasst die Polemik weg.

Gruß,
Harald
 
Um noch ein wenig Öl ins Feuer zu gießen - ich hab schön öfters jetzt Fotos von der SD14 auf 50x70cm ausbelichten lassen und bin mehr als zufrieden.

...Im Übrigen ist es, wie fast immer, eine Frage des Geschmackes, des je nach Visus variierenden optimalen Betrachtungsabstandes, der dann auch noch vom Verwendungszweck, der Raumgröße etc. abhängt. :)

Damit hab ich überhaupt keine Probleme -- im Gegenteil, bis A3+ bin ja auch ich zufrieden mit dem was die Foveons abliefern (und das erst recht angesichts des Preises den ich für meine 2 SD14-Gehäuse gezahlt hab ;)).
Und klar, mit dem »korrekten« Betrachtungs-Abstand kann man ja von der im Auge des Betrachters resultierenden End-Auflösung her jedes Bild auf das Äquivalent von ca. 3MP reduzieren (war das nicht sogar ein Argument für die Gesamt-Auflösung der ersten Foveon-Kameras?? Mir fehlt hier leider die genaue Quelle... aber auch z.B. professionelle digitale Kino-Projektoren kommen ja m.W. mit ca. 1,5MP gut aus, und das auf Leinwänden die Dutzende von Quadratmetern groß sind).
Aber vom Visus des Betrachters allein hängt das nicht ab, sondern auch von der Intention des Fotografen: Ich möchte bei meinen Fotos dem Betrachter die Wahlfreiheit lassen wie genau er die Prints anschauen kann, und ihm das näher treten nicht mit sichtbaren digitalen Artefakten oder verwaschener Interpolations-Soße verleiden. Damit kann ich dann aber beim Einsatz von Sigma-Kameras nur deutlich kleinere Prints fertigen als wenn ich modernere -- aber z.T. eben auch deutlich teurere! -- CFA-DSLRs einsetze. Und diesen Fakt lass ich hier nicht durch undifferenziertes Werbe-Prospekt-Geblubber wegschwindeln.

In dieser Sache warte ich ja z.B. immer noch auf Beispiele von Browny, der ja ganz einfach selbst eigene Beispiele bringen könnte, so, wie es Andere auch machen... (y)

Tja ich kann Dir nur raten mit dem Warten darauf aufzuhören... jenseits der Werbe-Tröterei ist da nichts zu erhoffen, die kilometerhohen Pappwände mit den Marketing-Sprüchen bleiben doch immer ungestützt im Wind stehen und fallen dann zwangsläufig beim schwächsten Hauch aus der Realität in sich zusammen :(.

Nutzt einfach eure Cams und macht schöne Bilder - und lasst die Polemik weg.

Keine Sorge, vom Fotografieren hält mich dieses Forum nun wirklich nicht ab :).
Was die Polemik angeht -- ohne den groben Keil auf die Marketing-Tröte geht's halt leider nicht: Eine Werbe-Vuvuzela kann man nun mal mit keiner noch so detailliert und differenziert gespielten Violine der sachlich-technischen Argumentation übertönen :(:(...
 
@KeinKorn

Bevor Du hier von "undifferenziertem Werbe-Prospekt-Geblubber", "kilometerhohen Pappwänden mit den Marketing-Sprüchen" und "Werbe-Vuvuzela" sprichst solltest Du Deine "so detailliert und differenziert gespielten Violine der sachlich-technischen Argumentation" erst einmal zu spielen lernen, denn Auflösungsberechnung auf falscher Grundlage ohne Berücksichtigung systemimanenter Gegebenheiten und Hindernisse ist einfach nur Argumentation mit Halbwissen.

Zum Thema :

Bei Digitalfotos sprechen wir von Bildern im RGB Farbraum - richtig ?

Dies führt zwangsläufig zu einer Einschränkung der von einem "Direct Image Sensor" gelieferten Bildinformationen, denn sie müssen erst in diesen Farbraum umgerechnet werden.

Die Signalverarbeitung in Kamera (für JPG/TIFF) und Computer benutzt ebenfalls den RGB-Farbraum ebenso die Bildbearbeitungsprogramme. Für die Bildschirmdarstellung und das Standard-JPG-Format ist dieser Farbraum nach CCIR Rec 701 (XA/11) standardisiert (YUV 4:2:2). Daher muss z.B. eine Bildverabeitungsstrecke für den erweiterten ADOBE RGB (1998) Farbraum speziell kalibriert werden.

http://de.wikipedia.org/wiki/RGB-Farbraum

SPP arbeitet mit höchster Farbauflösung im YUV 4:4:4 Format und speichert z.B. JPGs auch in dieser Kodierung ab. Andere Bearbeitungsprogramme arbeiten standardmäßig in YUV 4:2:2 um die Bildschirmdarstellung zu realisieren und speichern auch in YUV 4:2:2 ab.

Mit anderen Worten aus den von einem "Direct Image Sensor" gelieferten Informationen wird nur ein (durch den verwendeten Farbraum) begrenzter Teil der Informationen genutzt und als Bild dargestellt. Man sieht also aufgrund der verwendeten Technologie, anders als beim CFA Sensor der rein auf dem RGB-Farbraum YUV 4:2:2 aufbaut, nur einen stark begrenzten Bildinhalt.

http://de.wikipedia.org/wiki/YUV-Farbmodell

Weitere Unzulänglichkeiten ergeben sich aus der Bildschirmdarstellung (Grafikkarte, Grafiktreiber, Bildschirmelektronik, Bildschirmtreiber, Displaypanel etc.)

U.A. aus den oben angeführten Gründen hat Mike Chaney mit Qimage den direkten Weg vom RAW-File zum Drucker, also die Umsetzung der relativ orignalen Sensordaten in den CMYK-Farbraum gewählt ( http://de.wikipedia.org/wiki/CMYK-Farbmodell ). Damit erreicht man dann eine bessere Ausnutzung der in den RAW-Daten enthaltenen Bildinformationen von "Direct Image Sensor"-Bildern. Auch bei CFA-RAW Bildern bringt diese Vorgehensweise noch Vorteile. Qualitätsverluste durch die Vergrösserung der Bilder in anderer Software fallen weg.

Die folgenden Bilder zeigen die entstehenden Verluste, wenn man mit herkömmlichen Programmen vergrössert und als RGB-Bild speichert. Eben diese Verluste lassen sich beim Druck über Qimage vermeiden.

Gesamtbild :
Anhang anzeigen 1365780
100% Crop vom 1:1 Bild
Anhang anzeigen 1365861
Ausschnitt :
Anhang anzeigen 1365781
100% Crop von einer Vergrößerung auf 15.166 x 22.749 Pixel / 53,5 x 80,25 cm bei 720 DPI (Dateigröße ca. 987MB also fast 1 GB)
Anhang anzeigen 1365783

Eventuell kann man jetzt verstehen weshalb eine pixelgenaue Farbinformation essentiell wichtig ist für eine saubere Darstellung in extremen Vergrösserungen. Rechnerisch kann man Bilder von CFA-Sensoren auf die gleiche bzw. eine höhere Detailgenauigkeit rechnen. Man braucht nur ausreichend viele Pixel hoher Qualität. Diese ist aber erst mit Sensoren wie sie bei Mittelformatkameras eingesetzt werden gegeben. Die mittels Estimations-Algorithmen eingerechneten, wahrscheinlichen Details von kleineren als Mittelformatsensoren kann man im Druck leicht an ihrer geringeren Farbintensität erkennen. Diese erfordern dann gezielte Nacharbeit, so dass man ein einheitliches Erscheinungsbild des Fotos erzielen kann.

Solange man mit reinen Bildschirmvergleichen von verlustbehafteten Bildausschnitten arbeitet hat man halt keinen echten Vergleich.

Gruss,

Browny.
 
Zuletzt bearbeitet:
Hallo Browny,

sei mir nicht böse, aber jetzt verrennst Du dich. Denn der wesentlichste Informationsverlust bei der Aufnahme ist nicht der SRGB-Farbraum, sondern bereits der Sensor selbst - weil er das Spektrums auf 3 Koeffizienten reduziert. Das betrifft den CFA genauso wie den X3. Ob die Signale dabei hinter- oder nach einer Mikrolinse nebeneinander liegen, spielt spektral (so gut wie) keine Rolle und auch geometrisch wie bereits geschrieben nur bei Spitzlichtern. Die Absorptionskurven der Sensoren findest Du für den Foveon hier, für einige Canon EOS hier.
Da diese Absorptionskurven aber nicht mit denen übereinstimmen, welche den genormten Farbräumen (SRGB, Adobe, CIELab, whatever) zugrunde liegen, haben die Sensor-Rohdaten noch gar keinen Farbraum (auch das Bayer RGGB-Pattern nicht). Alles, was danach an Farbverarbeitung kommt, dient dann dazu, mittels 3x3-Matrizen (im einfachsten Fall) oder eben Kalibrierung mit n Stützstellen die erfassten Koeffizienten an die den Farbräumen zugrunde liegenden anzupassen. Macht die Kamera intern nicht bereits letzteres oder möchte man die Option zum späteren Farbraumwechsel haben, kommt man um RAW ohnehin nicht herum. Insofern spielt SRGB zu diesem Zeitpunkt noch gar keine Rolle.

Zum Thema YUV. Zunächst ist das nur ein (farbraumloses) Kompressionsverhältnis. 4:2:2 besagt, dass die Farbkomponenten mit 2-fach weniger Auflösung gespeichert werden als die Helligkeitsinformationen. Das ist auf das menschliche Auge abgestimmt und macht für Bayer-Sensoren, die ja genau dieses Verhältnis aufweisen, auch Sinn. Bei Foveon würde es dagegen die Per-Pixel-Information kaputtmachen, und nur deswegen speichern die Sigma-Kameras in YUV 4:4:4. Das ist also kein spezielles Feature, sondern eine reine Notwendigkeit und hat mit Farbräumen absolut nichts zu tun. Wer maximale Qualität will, wird allerdings ohnehin nicht in einem verlustbehafteten Format wie JPG speichern.

Deine Folgerung, dass man von Sigma-Bildern weniger sähe, als drin steckt, ist entsprechend falsch (ein JPG-Betrachter zeigt auch YUV 4:4:4 richtig an). Darüber hinaus stellt sich auch hier wieder einmal die Frage, warum Sigma damit nicht argumentiert, wenn es denn so wäre.

Zu guter Letzt lässt sich feststellen:
- Ja, der Foveon enthält pro Pixel um Faktor 2,5-3 mehr Information.
- Nach Auflösung / Bild = Auflösung/Pixel * Pixel/Bild kommt er damit gegen moderne CFA-Sensoren trotzdem nicht an.
- Die Farbreproduktion hängt mehr vom individuellen Sensor und dessen Farbfilter (CFA) oder Verhältnis der Schichtdicken (X3) ab als vom Sensortyp und lässt sich kaum vergleichen (bestenfalls anhand von Absorptionsspektren).

Liebe Grüße,

*****
 
...jesses, was geht denn hier ab?

Wirklich gar gruselig sind doch wohl, bis auf ein paar wenige Ausnahmen, die derzeit auf dem Markt erhältlichen 12-14MP Taschenknipsen, deren Photos in der Anmutung alle, wie bis zur Unendlichkeit aufgeblasene, hochskalierte 4MP Cams daherkommen. Flauschig, kontrastarmes, aufgeblähtes, unscharf rauschiges Zeugs ohne Biss. Einfach gruselig aber Hauptsache es steht 14MP drauf. Gute Nacht Marie
:lol::D
Der M.
 
Folgendem sollte man m.E. möglichst Nichts mehr hinzufügen...

Hallo Browny,

sei mir nicht böse, aber jetzt verrennst Du dich. Denn der wesentlichste Informationsverlust bei der Aufnahme ist nicht der SRGB-Farbraum, sondern bereits der Sensor selbst - weil er das Spektrums auf 3 Koeffizienten reduziert. Das betrifft den CFA genauso wie den X3. Ob die Signale dabei hinter- oder nach einer Mikrolinse nebeneinander liegen, spielt spektral (so gut wie) keine Rolle und auch geometrisch wie bereits geschrieben nur bei Spitzlichtern. Die Absorptionskurven der Sensoren findest Du für den Foveon hier, für einige Canon EOS hier.
Da diese Absorptionskurven aber nicht mit denen übereinstimmen, welche den genormten Farbräumen (SRGB, Adobe, CIELab, whatever) zugrunde liegen, haben die Sensor-Rohdaten noch gar keinen Farbraum (auch das Bayer RGGB-Pattern nicht). Alles, was danach an Farbverarbeitung kommt, dient dann dazu, mittels 3x3-Matrizen (im einfachsten Fall) oder eben Kalibrierung mit n Stützstellen die erfassten Koeffizienten an die den Farbräumen zugrunde liegenden anzupassen. Macht die Kamera intern nicht bereits letzteres oder möchte man die Option zum späteren Farbraumwechsel haben, kommt man um RAW ohnehin nicht herum. Insofern spielt SRGB zu diesem Zeitpunkt noch gar keine Rolle.

Zum Thema YUV. Zunächst ist das nur ein (farbraumloses) Kompressionsverhältnis. 4:2:2 besagt, dass die Farbkomponenten mit 2-fach weniger Auflösung gespeichert werden als die Helligkeitsinformationen. Das ist auf das menschliche Auge abgestimmt und macht für Bayer-Sensoren, die ja genau dieses Verhältnis aufweisen, auch Sinn. Bei Foveon würde es dagegen die Per-Pixel-Information kaputtmachen, und nur deswegen speichern die Sigma-Kameras in YUV 4:4:4. Das ist also kein spezielles Feature, sondern eine reine Notwendigkeit und hat mit Farbräumen absolut nichts zu tun. Wer maximale Qualität will, wird allerdings ohnehin nicht in einem verlustbehafteten Format wie JPG speichern.

Deine Folgerung, dass man von Sigma-Bildern weniger sähe, als drin steckt, ist entsprechend falsch (ein JPG-Betrachter zeigt auch YUV 4:4:4 richtig an). Darüber hinaus stellt sich auch hier wieder einmal die Frage, warum Sigma damit nicht argumentiert, wenn es denn so wäre.

Zu guter Letzt lässt sich feststellen:
- Ja, der Foveon enthält pro Pixel um Faktor 2,5-3 mehr Information.
- Nach Auflösung / Bild = Auflösung/Pixel * Pixel/Bild kommt er damit gegen moderne CFA-Sensoren trotzdem nicht an.
- Die Farbreproduktion hängt mehr vom individuellen Sensor und dessen Farbfilter (CFA) oder Verhältnis der Schichtdicken (X3) ab als vom Sensortyp und lässt sich kaum vergleichen (bestenfalls anhand von Absorptionsspektren).

Liebe Grüße,

*****

Uli
 
...
Denn der wesentlichste Informationsverlust bei der Aufnahme ist nicht der SRGB-Farbraum, sondern bereits der Sensor selbst - weil er das Spektrums auf 3 Koeffizienten reduziert.
...

*****

wie du schon sagst,spielen farbräume bei der gewinnung der rohdaten keine rolle.
das ein informationsverlust einhergeht mit der beschränkung auf drei werte ist für mich im moment nicht nachvollziehbar,da diese drei werte jeweils die gesamte bandbreite des entsprechenden spektralraumes einfangen.
als groß verlustbehaftet würde ich die anpassung an gewünschte farbräume nicht sehen.
es sind m.e. nicht die verschobenen absorbtionskurven ursächlich für einen informationsverlust,sondern eher das prinzipielle absorbtionsverhalten des foveon-sensors. ich denke,dass hier das hauptproblem liegt. photonen werden absorbiert,wo sie nicht hingehören und wo welche gezählt werden müßten kommen sie in den tiefen nicht an.
warum hier in diesem zusammenhang partiell von einer blauschwäche geredet wird erschließt sich mir auch nicht. gerade der kanal,also die oberste absorbtion dürfte m.e. am wenigsten probleme machen,da noch das gesamte spektrum zur verfügung steht.
 
Das ist Riefchen:

http://www.fotocommunity.de/pc/pc/mypics/26405/display/20782849

SD14

Das ist Kirsten:
http://www.fotocommunity.de/pc/pc/mypics/26405/display/9632235

SD9

und das sind Meisen im Winter:
http://www.fotocommunity.de/pc/pc/mypics/26405/display/20232339

Pentax K-x

und das ist Otto:

http://www.fotocommunity.de/pc/pc/mypics/26405/display/14327968

Pentax K200D

Ich verstehe dieses Geraufe um Pixel, Mathematik, Rechthaben und dergleichen wirklich ÜBERHAUPT nicht.


Entweder man versucht kreativ zu sein und Kunst zu machen (so man denn kann, ich schliesse mich nicht ein),
oder
man sieht nur die Kamera, und NICHT was man damit anfangen kann.

Ein Bild ist es, worauf es ankommt, nicht die Kamera

LG

Andi
 
das ein informationsverlust einhergeht mit der beschränkung auf drei werte ist für mich im moment nicht nachvollziehbar,da diese drei werte jeweils die gesamte bandbreite des entsprechenden spektralraumes einfangen.
Ganz einfach gesprochen hat jedes einzelne Photon eine bestimmte Wellenlänge, wir haben also (fast) beliebig viele Werte. Wenn wir das auf 3 Koeffizienten reduzieren, ist das eine (gewichtete) Summe. Eine Summe ist immer ein Informationsverlust: 5+(-2) ist genauso 3 wie 2+1.
Stell Dir vor, Du möchtest eine Funktion hohen Grades mit einem Polynom 3. Ordnung annähern - eine ganz schöne Sauerei, oder?
Für unser Auge ist dieser Informationsverlust nur nicht bemerkbar, wenn die Reproduktion des aufgenommenen Bildes mit Lichtquellen erfolgt, deren spektrale Verteilung den Empfindlichkeitskurven des menschlichen Auges proportional ist. Was wiederum erfordern würde, dass auch die ursprüngliche Aufnahme (der Sensor) proportionale Empfindlichkeitskurven benötigte.
Da all das in der Realität kaum gegeben ist, wird versucht, mit Kalibrierung das schlechte Polynom 3. Ordnung irgendwie wenigstens an die Werte ranzubiegen, welche das menschliche Auge dabei gezeigt hätte. Leuchtende Farben wie Neon, UV o.ä. kann man mit dieser Interpolation aber kaum herbeizaubern. Schon deswegen nicht, weil da nämlich die Stäbchen als 4. Sensor eine Rolle spielen.

es sind m.e. nicht die verschobenen absorbtionskurven ursächlich für einen informationsverlust,sondern eher das prinzipielle absorbtionsverhalten des foveon-sensors. ich denke,dass hier das hauptproblem liegt. photonen werden absorbiert,wo sie nicht hingehören und wo welche gezählt werden müßten kommen sie in den tiefen nicht an.
Das ist so nicht ganz richtig. Im großen und ganzen werden die Photonen schon da absorbiert, wo sie "hingehören". Das Problem ist eher, dass die wellenlängenabhängige Eindringtiefe in das Halbleitersubstrat nicht unbedingt mit der Empfindlichkeitskurve der L/M/S-Zapfen des Menschen korreliert. Allerdings tut sie das beim Foveon tatsächlich immer noch (deutlich) besser als z.B. bei der EOS 50D oder 5DII - vgl. die bereits genannten Links hier und hier.
Dafür hat der Foveon aber nicht die Möglichkeit, die geringe blaue Schichtdicke mit stärkeren Filtern vor Rot (Canon) oder Grün auszugleichen.
Mich persönlich würde das zu dem Schluss verleiten, dass der Foveon bei gutem Licht deutlich natürlichere Farben aufzeichnet als z.B. genannte Canons - und bei schwachem Licht im Blau verliert. Aber wie gesagt ist das kein Problem der Sensortechnik, sondern eher der gewählten Filter (CFA) und Schichtdicken (X3). Und diesbezüglich haben die Foveon-Ingenieure offensichtlich bessere Arbeit abgelegt als die Canon-Techniker. Für Nikon kann ich nicht sprechen, da fehlen mir die Kurven.
warum hier in diesem zusammenhang partiell von einer blauschwäche geredet wird erschließt sich mir auch nicht. gerade der kanal,also die oberste absorbtion dürfte m.e. am wenigsten probleme machen,da noch das gesamte spektrum zur verfügung steht.
Meines Erachtens ist die Eindringtiefe nicht das Maximum, sondern eher die statistisch größte Häufung. Das würde bedeuten, dass rotes Licht tatsächlich kaum Elektronen im blauen Bereich auslöst.
Aber auch wenn ich mich da irre, lässt sich die Blauschwäche erklären: schließlich müssten dann die oberen Schichten jeweils von den tieferliegenden abgezogen werden. Blau wäre ein Pixel dann nur, wenn er weder im Rot- noch im Grünbereich niederschlägt. Da diese beiden aber deutlich dicker sind, schlägt auch hier wieder die geringe Schichtdicke zu.

*****
 
Das ist Riefchen:
Das ist Kirsten:
und das sind Meisen im Winter:
und das ist Otto:
Schöne Bilder und schön trockener Text. (y)
Ist aber (leider) trotzdem 'ne technische Diskussion. :eek:
Vorschlag zur Güte: Thread zwangsschließen und alle Poster eine Strafrunde Bilder in der Galerie zeigen? ;)
 
Ganz einfach gesprochen hat jedes einzelne Photon eine bestimmte Wellenlänge, wir haben also (fast) beliebig viele Werte. Wenn wir das auf 3 Koeffizienten reduzieren, ist das eine (gewichtete) Summe. Eine Summe ist immer ein Informationsverlust: 5+(-2) ist genauso 3 wie 2+1.
Stell Dir vor, Du möchtest eine Funktion hohen Grades mit einem Polynom 3. Ordnung annähern - eine ganz schöne Sauerei, oder?
Für unser Auge ist dieser Informationsverlust nur nicht bemerkbar, wenn die Reproduktion des aufgenommenen Bildes mit Lichtquellen erfolgt, deren spektrale Verteilung den Empfindlichkeitskurven des menschlichen Auges proportional ist. Was wiederum erfordern würde, dass auch die ursprüngliche Aufnahme (der Sensor) proportionale Empfindlichkeitskurven benötigte.
Da all das in der Realität kaum gegeben ist, wird versucht, mit Kalibrierung das schlechte Polynom 3. Ordnung irgendwie wenigstens an die Werte ranzubiegen, welche das menschliche Auge dabei gezeigt hätte. Leuchtende Farben wie Neon, UV o.ä. kann man mit dieser Interpolation aber kaum herbeizaubern. Schon deswegen nicht, weil da nämlich die Stäbchen als 4. Sensor eine Rolle spielen.


Das ist so nicht ganz richtig. Im großen und ganzen werden die Photonen schon da absorbiert, wo sie "hingehören". Das Problem ist eher, dass die wellenlängenabhängige Eindringtiefe in das Halbleitersubstrat nicht unbedingt mit der Empfindlichkeitskurve der L/M/S-Zapfen des Menschen korreliert. Allerdings tut sie das beim Foveon tatsächlich immer noch (deutlich) besser als z.B. bei der EOS 50D oder 5DII - vgl. die bereits genannten Links hier und hier.
Dafür hat der Foveon aber nicht die Möglichkeit, die geringe blaue Schichtdicke mit stärkeren Filtern vor Rot (Canon) oder Grün auszugleichen.
Mich persönlich würde das zu dem Schluss verleiten, dass der Foveon bei gutem Licht deutlich natürlichere Farben aufzeichnet als z.B. genannte Canons - und bei schwachem Licht im Blau verliert. Aber wie gesagt ist das kein Problem der Sensortechnik, sondern eher der gewählten Filter (CFA) und Schichtdicken (X3). Und diesbezüglich haben die Foveon-Ingenieure offensichtlich bessere Arbeit abgelegt als die Canon-Techniker. Für Nikon kann ich nicht sprechen, da fehlen mir die Kurven.

Meines Erachtens ist die Eindringtiefe nicht das Maximum, sondern eher die statistisch größte Häufung. Das würde bedeuten, dass rotes Licht tatsächlich kaum Elektronen im blauen Bereich auslöst.
Aber auch wenn ich mich da irre, lässt sich die Blauschwäche erklären: schließlich müssten dann die oberen Schichten jeweils von den tieferliegenden abgezogen werden. Blau wäre ein Pixel dann nur, wenn er weder im Rot- noch im Grünbereich niederschlägt. Da diese beiden aber deutlich dicker sind, schlägt auch hier wieder die geringe Schichtdicke zu.

*****


Danke *****,

ich hoffe sehr Du postest in Zukunft öfters!
Vereinfacht gefragt-
hiesse das, daß man bei schwachem Kunstlicht (Rotanteil) mit einem vorgeschalteten Blaufilter bessere Ergebnisse beim Foveon erzielen könnte?
 
Schöne Bilder und schön trockener Text. (y)
Ist aber (leider) trotzdem 'ne technische Diskussion. :eek:
Vorschlag zur Güte: Thread zwangsschließen und alle Poster eine Strafrunde Bilder in der Galerie zeigen? ;)

Eben deswegen bitte beim nächsten Unterbelichten für ein rotes Motiv darüber nachdenken, warum Unter- und nicht Über- Belichten... :)

...tja, weil durch die höhere Empfindlichkeit des Foveon im roten Bereich kürzere Belichtungszeiten reichen!
...sollte ja jetzt endlich einleuchten, oder?
(Quasi der auto ISO- Boost für Rot... :D)

Kann Jeder bei der künstlerischen Bildgestaltung praktisch nachvollziehen (leuchtendes Rot!).

Wer´s lieber ausgewogen hat und jeder Farbe eine Chance geben will, der sollte einen geeigneten Filter benutzen, um keine zu großen Kompromisse bei einer Softwarekorrektur eingehen zu müssen...

Die DP1s hat einen Solchen, der aber leider (mal wieder) nicht ganz geschickt umgesetzt wurde, aber immerhin deutlich geschickter ausbalanciert ist, als der DP1 Filter...

Genauso wäre es geschickter etwas mehr Pixel zu haben, um auch beim Ausdruck, Beschnitt, Entrauschen und letztlich Vergrößern (unser Thema hier! :eek:) keine (faulen) Kompromisse eingehen zu müssen.

Uli
 
Zuletzt bearbeitet:
hiesse das, daß man bei schwachem Kunstlicht (Rotanteil) mit einem vorgeschalteten Blaufilter bessere Ergebnisse beim Foveon erzielen könnte?
Prinzipiell ja: Du würdest mit dem Filter den vorhandenen rötlichen Schein abmildern bzw. mehr Spielraum für ETTR haben ohne dass der Rotkanal übersteuert.
Allerdings kann ich Dir nicht sagen, inwieweit die SD14 vor dem Speichern der Rohdaten bestimmte Kanäle bereits hochmultipliziert. Bei CFA-Sensoren gibt es ja UniWB (EOS-Bild ohne Multiplikatoren wäre z.B. popelgrün) und der optimale Filter wäre dann der, der das UniWB-Bild auf normale Farben bringt.

Danke übrigens für das Lob. Ich schreibe aber eher nur sporadisch hier.. manchmal einige Zeit täglich mehrfach, dann wieder eine Weile gar nichts. Je nachdem, ob ich mich vor Papierkram oder irgendwo auf einer Fototour rumdrücke ;)
 
WERBUNG
Zurück
Oben Unten