• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Kontrastumfang DSLR-Sensoren

  • Themenersteller Themenersteller Gast_18834
  • Erstellt am Erstellt am
Dass dies prinzipiell ginge, will ich überhaupt nicht in Abrede stellen. Allein es ist noch nicht wirklich so implementiert. Fotografen, die ihre Bilder per Cardreader einlesen, würden von diesen "heimlichen Verbindungen" nicht profitieren können, Firmware-Versionen der Kameras müssten dann zumindest im Tabellenteil permanent hochgezählt werden. Das ist alles (nahe?) Zukunftsmusik. Anders Uschold stellt sich aber hin und behauptet dies mal einfach so aus der Hüfte. Noch mehr: er sagt, dies seien Resultate seiner umfangreichen Tests. Allein: es *kann* so gar nicht sein. Oder umgekehrt gesagt: wenn es doch ach so korrigiert sei, warum vignettieren dann die Optiken weiter fröhlich vor sich hin?

Micha... Zukunftmusik für wen? Oly geht ins Internet, aktualisiert nicht nur den Body, sondern auch gleich die Linsen, den Blitz und neben dem Konverter noch den Zwischenring.

SO schwer ist das nicht.

Auch Deine Einwände mit Altglas sehe ich anders. Für EF-Linsen, die aus der Analog-Zeit kommen, kann in den Bodies eine Tabelle sein, kein Problem. Die Daten sind bekannt.

Neue Linsen könnten, sofern vorhanden, mit Ihren Daten die Body-Default "überstimmen". Daten vorhanden = übernehmen, keine Daten = default.

Ansonsten gehe ich davon aus, das bei Erscheinen z.B. der 5D im Herbst 2005 bereits die Linsen der nächsten 2 Jahre weitgehend designed waren. Mit dem letzten Update 1.10 könnten bereits die Daten der Linsen der nächsten 2 Jahre geliefert worden sein.

Wo ist also das Problem?

Beispiel: Die Oly E-330 hat bei Erscheinen bereits die Daten der Sigmas enthalten lt. Oly-Technik, obwohl die Optiken erst jetzt nach und nach auf den Markt kommen.
Die Jungs können diese Tabellen auch von Hand feintunen und kennen von daher die Liste der bekannten Objektive. Wie Uschold: Der Name/Kontaktdaten des Technikers ist mir bekannt, ist aber nicht öffentlich, sorry.
 
Dass dies prinzipiell ginge, will ich überhaupt nicht in Abrede stellen. Allein es ist noch nicht wirklich so implementiert. Fotografen, die ihre Bilder per Cardreader einlesen, würden von diesen "heimlichen Verbindungen" nicht profitieren können, Firmware-Versionen der Kameras müssten dann zumindest im Tabellenteil permanent hochgezählt werden. Das ist alles (nahe?) Zukunftsmusik. Anders Uschold stellt sich aber hin und behauptet dies mal einfach so aus der Hüfte. Noch mehr: er sagt, dies seien Resultate seiner umfangreichen Tests. Allein: es *kann* so gar nicht sein. Oder umgekehrt gesagt: wenn es doch ach so korrigiert sei, warum vignettieren dann die Optiken weiter fröhlich vor sich hin?

"Anders Uschold", ist das der Typ mit dem komischen DCTau-Test?
Ist ja nicht alles falsch oder schlecht, aber einiges (z.B. Schärfe durch Dateigrößen bestimmen) ist hanebüchen.

Eine Vignettierungskorrektur ist problemlos nachweisbar. Da für die Ränder und Ecken die effektive Blende abnimmt und die Belichtungszeit bei derzeitigen Sensoren über die gesamte Chipfläche identisch ist, muß an den Rändern und Ecken die ISO hochgezogen werden. Entweder es rauscht dann dort stärker oder die Rauschfilterung muß dort aggressiver werden.

Sehen wir uns einmal verschiedene Verfahren an:

JPEG Output

Hier ist am einfachsten eine Korrektur möglich. Am Rand müßte aber insbesondere bei höheren ISOs und offener Blende
  • das Rauschen steigen
  • bei Rauschfilterung die Detailzeichnung in dunklen Regionen völlig vernichten.
RAW ohne Manipulation der Rohdaten

Hier werden einfach zusätzliche Metadaten abgespeichert, die z.B. der Standard-Raw-Prozessor des Herstellers auswertet. Allerdings würde dcraw das sofort aufdecken.

RAW mit Manipulation der Rohdaten
  • aufwendig
  • erzeugt zusätzliches Umrechnungsrauschen
  • vergibt sich die Möglichkeit des größeren Headrrooms in den Randbereichen
  • würde man mit dcraw sofort am verstärkten Rauschen in den Außenbereichen sehen.
Welche Manipulationen sind in Rohdaten möglich?
  • Dark Frame Subtraction
  • Hot Pixel ausblenden
  • Ausgleich von Empfindlichkeitsunterschieden der einzelen Pixel (White Field Correction)
  • Vignettierung (würde ich aber dort nicht machen)
Welche Manipulationen sind in Rohdaten derzeitig NICHT möglich?
  • Schärfung (ist auch nicht sinnvoll)
  • Rauschfilterung (ist auch nicht sinnvoll)
  • Verzeichnung (ist auch nicht sinnvoll)

... Bildhöhen-abhängige Nachschärfung ...
Es gibt genügend Objektive, deren beste Abbildungseigenschaften nicht in der Mitte liegen. Optimierungen gerader Ordnung neigen vor allem zu einem lokalen Minimum in der Bildmitte.

Beispiele für Optimierung 4. und 6. Ordnung:

 
Zuletzt bearbeitet:
Micha... Zukunftmusik für wen? Oly geht ins Internet, aktualisiert nicht nur den Body, sondern auch gleich die Linsen, den Blitz und neben dem Konverter noch den Zwischenring.
Ich bezog mich auf Nikon.

SO schwer ist das nicht.
Habe ich auch nie behauptet. Aus einem Paramtersatz ein passendes Kernel berechnen und auf die Daten zu werfen, ist fürwahr eine Kleinigkeit - mache ich tagtäglich im Rahmen eines Computer-gestützten Bildauswertungsverfahrens in ca. 10^6-facher Wiederholung.

Auch Deine Einwände mit Altglas sehe ich anders. Für EF-Linsen, die aus der Analog-Zeit kommen, kann in den Bodies eine Tabelle sein, kein Problem. Die Daten sind bekannt.
Nicht Altglas ist das Problem, sondern Nikon-Neuglas.

Neue Linsen könnten, sofern vorhanden, mit Ihren Daten die Body-Default "überstimmen". Daten vorhanden = übernehmen, keine Daten = default.
Dafür müsste dies von den Objektiv/Kamera-Kommunikationsprotokollen so unterstützt werden. Ist Dies Deiner Ansicht nach bei Nikon der Fall?

Ansonsten gehe ich davon aus, das bei Erscheinen z.B. der 5D im Herbst 2005 bereits die Linsen der nächsten 2 Jahre weitgehend designed waren. Mit dem letzten Update 1.10 könnten bereits die Daten der Linsen der nächsten 2 Jahre geliefert worden sein.
Mag ja sein, dass dies "theoretisch irgendwie möglich wäre". Dennoch korrigiert die 5D die Vignettierung genauso wenig wie eine D70s.

Wo ist also das Problem?
Dass A. Uschold solche Gerüchte in die Welt setzt. Mehr nicht.

Beispiel: Die Oly E-330 hat bei Erscheinen bereits die Daten der Sigmas enthalten lt. Oly-Technik, obwohl die Optiken erst jetzt nach und nach auf den Markt kommen.
Die Jungs können diese Tabellen auch von Hand feintunen und kennen von daher die Liste der bekannten Objektive. Wie Uschold: Der Name/Kontaktdaten des Technikers ist mir bekannt, ist aber nicht öffentlich, sorry.
Oly ist ein anderes Ding. Ich redete von der speziellen Situation bei Nikon.
 
Dafür müsste dies von den Objektiv/Kamera-Kommunikationsprotokollen so unterstützt werden. Ist Dies Deiner Ansicht nach bei Nikon der Fall?
Steht bei den Nikons das _Objektiv_ in den Exifs? Moment, ich sehe mal nach... jepp, steht drin. Dann wird es gehen...
 
RAW mit Manipulation der Rohdaten
  • aufwendig
  • erzeugt zusätzliches Umrechnungsrauschen
  • vergibt sich die Möglichkeit des größeren Headrrooms in den Randbereichen
  • würde man mit dcraw sofort am verstärkten Rauschen in den Außenbereichen sehen.
Das ist der Weg den Leica mit der M8 beschreitet (hat mir der Techiker so versichert), aber deren DNG hat den Namen RAW schon nicht mehr verdient, was da so alles vor dem Speichern prozessiert wird.
 
"Anders Uschold", ist das der Typ mit dem komischen DCTau-Test?
Ist ja nicht alles falsch oder schlecht, aber einiges (z.B. Schärfe durch Dateigrößen bestimmen) ist hanebüchen.
Im Nachbarforum gab es mal drei Diskussionsfäden mit ihm, die ganz nett durchzulesen sind:
http://www.digitale-slr.net/showthread.php?t=162998
http://www.digitale-slr.net/showthread.php?t=439768
http://www.digitale-slr.net/showthread.php?t=473355
(nehmt Euch viiiel Zeit ;) )

Eine Vignettierungskorrektur ist problemlos nachweisbar. Da für die Ränder und Ecken die effektive Blende abnimmt und die Belichtungszeit bei derzeitigen Sensoren über die gesamte Chipfläche identisch ist, muß an den Rändern und Ecken die ISO hochgezogen werden. Entweder es rauscht dann dort stärker oder die Rauschfilterung muß dort aggressiver werden.
Jepp!

Welche Manipulationen sind in Rohdaten möglich?
...
Da A. Uschold aber keine Rohdaten testet (die Kunden seiner Tests würde nauch nicht in RAW fotografieren), sondern die JPEG-Ausgabe, frage ich mich ohnehin, wie er überhaupt etwas Sinnvolles zur Dynamik aussagen will.


Es gibt genügend Objektive, deren beste Abbildungseigenschaften nicht in der Mitte liegen. Optimierungen gerader Ordnung neigen vor allem zu einem lokalen Minimum in der Bildmitte.
Ebend, so bereits in dem Uralt-Thread zu A. Uschold entgegnet:
http://www.digitale-slr.net/showpost.php?p=440188&postcount=72
;-)
 
Das ist der Weg den Leica mit der M8 beschreitet (hat mir der Techiker so versichert), aber deren DNG hat den Namen RAW schon nicht mehr verdient, was da so alles vor dem Speichern prozessiert wird.

Und was ist:
  • Wenn ich die Vignettierung will?
  • Ich nur eine gewisse Ziel-Vignettierung haben will (z.B. Gaussförmiger Abfall definierbarer Stärke statt des diskontinuierlichen Abfalls des Objektiv?
  • Ich eine Korrektur haben möchte, die schöner als das Original aussieht, aber maximal -0,2+1,0 Blenden korrigiert?
 
Das ist der Weg den Leica mit der M8 beschreitet (hat mir der Techiker so versichert), aber deren DNG hat den Namen RAW schon nicht mehr verdient, was da so alles vor dem Speichern prozessiert wird.
Trotz der guten Winkel-Toleranz des KAF-10500 halte ich das für gut möglich. Es müsste allerdings auch leicht erkennbar sein: Objektiv müsste nämlich vor und nach dem Barcode-Labeln (bzw. bei Abkleben der Markierung) eine andere Vignettierung zeigen.
 
Das ist der Weg den Leica mit der M8 beschreitet (hat mir der Techiker so versichert), aber deren DNG hat den Namen RAW schon nicht mehr verdient, was da so alles vor dem Speichern prozessiert wird.

Mir fehlt es noch an stichhaltigen Gründen, warum es die anderen Hersteller nicht auch machen (können). Die vorgetragenen Gründe unterschätzen die aktuellen Signalprozessoren völlig. Und so simple Dinge wie Objektivdaten zum Body übertragen kann jeder in seinen Exifs nachlesen, dass ist stand der Technik.

Ich habe in Exifs auch schon Seriennummern von Objektiven gesehen... genauer geht nur noch eine Einzelselektion, die wohl nur jemand machen wird, denn Objektivdaten während der Produktion vermessen und einprogrammieren muss tatsächlich vorgeplant werden. Aber Objektivtyp auslesen und in einer Tabelle die normierten Seriendaten nachlesen ist trivial.

MAL WAS ZUM DISKUSSIONSSTIL:
@Micha und Frank: Ich empfinde ich die persönlichen und ehrverletztenden Angriffe gegen Personen wie Anders Uschold zur Unterstützung der eigenen Ansichten als unpassend und nur den Autor bloßstellend.

Ihr habt eine Menge Fachwissen, aber Päpste seid Ihr nicht.

Und ausser Gerüchten und Vermutungen hast z.B. Du, Micha, bzgl. Firmware auch nix zu bieten. Oder WEISST Du irgendetwas sicher, was in der Firmware gemacht wird? HAST Du Connections zur F/E der Hersteller? Du hast auch nur Versuche und Vermutungen zur Verfügung.

Mit sachlicher Diskussion haben solche Beleidigungen und üblen Nachreden nichts zu tun.

Zitate im folgenden:
Würde er [Anders Uschold] mal so einfache Messungen machen, wie z.B. von Nightshot in "Betrachtungen zur Vignettierung" hier im Technik-Teil des Forum oben angetackert zu finden, so würde er nicht so viel blühende Phantasie entwickeln was die Bildhöhen-abhängige Nachschärfung, Kontrast- und Helligkeitsanhebung angeht.
Anders Uschold stellt sich aber hin und behauptet dies mal einfach so aus der Hüfte. Noch mehr: er sagt, dies seien Resultate seiner umfangreichen Tests. Allein: es *kann* so gar nicht sein.
Dass A. Uschold solche Gerüchte in die Welt setzt. Mehr nicht.
Und @Frank:
"Anders Uschold", ist das der Typ mit dem komischen DCTau-Test?
Ist ja nicht alles falsch oder schlecht, aber einiges (z.B. Schärfe durch Dateigrößen bestimmen) ist hanebüchen.
 
@Micha und Frank: Ich empfinde ich die persönlichen und ehrverletztenden Angriffe gegen Personen wie Anders Uschold zur Unterstützung der eigenen Ansichten als unpassend und nur den Autor bloßstellend.

Ihr habt eine Menge Fachwissen, aber Päpste seid Ihr nicht.

Ich habe so gut wie kein Fachwissen, aber ich kenne die Maxwellgleichungen und pflege, Aussagen mit Hilfe formaler Logik zu überprüfen.
Ich weiß, daß formale Logik vor 2000 Jahren mal sehr "in" war und heutzutage mit Füßen getreten wird.

Guido G. schrieb:
Zitat von Frank Klemm ...
"Anders Uschold", ist das der Typ mit dem komischen DCTau-Test?
Ist ja nicht alles falsch oder schlecht, aber einiges (z.B. Schärfe durch Dateigrößen bestimmen) ist hanebüchen.
Kannst mir mal einen Kurs geben, wie man Wahrheiten etwas sanfter ausdrücken kann. Ich warne allerdings schon, von Honig muß ich mich übergeben, geht mir ähnlich wie den Bienen.

Die Schärfemessungen im DCTau-Messung ist wirklich himmelschreiend (diese Bedeutung meinte ich mit hanebüchen, nicht die Bedeutung "verabscheuenswürdig"). Es stimmt zwar, daß Schärfe in Bildern zu größeren Dateien führt und das überschärfte Bilder sehr große Dateien ergeben, allerdings gibt es noch jede Menge anderer Eigenschaften, die die Dateigröße beeinflussen. Die bekannteste dürfte das Rauschen sein. Und das ist nicht erst seit der Einführung von Digitalkameras der Fall.

Wenn ich Firmware für Kameras programmieren würde, könnte ich Dir durch kleine Änderungen der Firmware so ziemlich jedes gewünschte Zielergebnis einstellen, ohne das es an sichtbaren Veränderungen am Bild kommt. Das ganze ist genauso sinnvoll wie der Vorschlag von einigen Beratern, die Qualität von Software an der durchschnittlichen Zeilenzahl von Funktionen oder dem Verhältnis von Codezeilen zu Kommentarzeilen festzumachen.

Zur Bestimmung der Auflösung:

Bei modernem Processing ist die Auflösung erst mal von
  • der Empfindlichkeit (ISO)
  • dem Farbabgleich
  • der Helligkeit des Motivs
  • dem Abstand vom Bildzentrum
  • der Richtung (sag, tang, hor, vert)
  • ...
abhängig. Davon mal abgesehen, muß man sowohl das Signal wie den Rauschuntergrund messen (und möglichst so, daß beide an den gleichen Stellen gemessen werden, damit dynamische Rauschfilterung nicht zu stark das Ergebnis beeinflußt).

Die Qualität ist dann definiert durch Signal/Rauschen, die eigentliche Höhe des Signals (ob 80% oder 5%) interessiert nicht.
Man könnte zum Beispiel definieren:
  • Nominale Auflösung: Signal / Rauschen = +12,8 dB
  • Erweiterte Auflösung: Signal / Rauschen = +6,0 dB
  • Grenzauflösung: Signal / Rauschen = 0,0 dB

Hintergrund ist der, daß gleiche Signal/Rausch-Verhältnisse unabhängig von der konkreten Signalhöhe bei optimaler Signalverarbeitung genau die gleiche Qualität liefern (wurde 1949 bewiesen und veröffentlicht, noch tief in der analogen Zeit).

Ein Meßverfahren, für das einen in 10 Sekunden 3 Verfahren einfallen, es zu faken, ist genauso sinnvoll wie ein neues Gesetz, für das einen in 10 Sekunden 3 Möglichkeiten einfallen es zu umgehen.
 
Zuletzt bearbeitet:
Mir fehlt es noch an stichhaltigen Gründen, warum es die anderen Hersteller nicht auch machen (können). Die vorgetragenen Gründe unterschätzen die aktuellen Signalprozessoren völlig. Und so simple Dinge wie Objektivdaten zum Body übertragen kann jeder in seinen Exifs nachlesen, dass ist stand der Technik.
Es gab noch keine Meldungen von Canon oder Nikon, dass Objektiv-spezifisch eine Vignettierung herausgerechnet würde. Warum sollte man also glauben, dass so ein Marketing-trächtiges Leistunspotential durchgeführt wurde, aber nicht schon längst intensiv beworben wäre. Schaut man sich die Vignettierung des 50/1.4 an einer Canon 5D an, so wird klar, dass hier nichts korrigiert ist. Würde Canon mit gesundem Geist ein "Kit-L" mit dermassen heftifer Offenblendenvignettierung ungeschönt bleiben lassen, wenn die einfache Möglichkeit zur Korrektur bestünde?

Es gibt derzeit keine harten Daten zu einer Vignettierungskorrektur bei Canon oder Nikon.

MAL WAS ZUM DISKUSSIONSSTIL:@Micha und Frank: Ich empfinde ich die persönlichen und ehrverletztenden Angriffe gegen Personen wie Anders Uschold zur Unterstützung der eigenen Ansichten als unpassend und nur den Autor bloßstellend.

Ihr habt eine Menge Fachwissen, aber Päpste seid Ihr nicht.

Und ausser Gerüchten und Vermutungen hast z.B. Du, Micha, bzgl. Firmware auch nix zu bieten. Oder WEISST Du irgendetwas sicher, was in der Firmware gemacht wird? HAST Du Connections zur F/E der Hersteller? Du hast auch nur Versuche und Vermutungen zur Verfügung.
1. Reale optische Vignettierung und reale Helligkeitsabfälle bei Canon-DSLRs ergeben keine Hinweise auf eine Vignettierungskorrektur.
2. Ich hatte zumindest mit A. Uschold in den bereits verlinkten Threads um Aufklärung einiger Sachverhalte gebeten bzw. diskutiert. Da damals immer dann, wenn es um harte Facts ging, verwiesen wurde auf:
- ich habe keine Zeit,
- ich esse mit wichtigen japanischen Managern öfter mal zu Abend,
- ich stehe unter dem Knebel von Geheimhaltungsvereinbarungen,
ist für mich manches dessen, was A. Uschold behauptet, einfach bislang noch nicht hinreichend belastbar.
3. Frank und ich arbeiten auf verschiedensten Segmenten, aber jeweils an der Schnittstelle zwischen Optik und Quantifizierung. Ich kann nicht verlangen, dass dies alleine für Dich eine hinreichend qualifizierende Beschreibung ist, aber dunstiger als beim angesprochenen Tester (Sachverständiger mit Informatik-Hintergrund) ist es auch nicht.
4. Ich werde sicherlich alles andere tun, als hier meine beruflichen Verbindungen zu offenbaren.
5. So lange die Resultate mit Systemoptiken und mit adaptierten Fremdoptiken noch so eng beieinanderliegen, wie es bei den Canon-DSLRs ist, kann der Einfluss einer hypothetischen Objektiv-spezifischen, kamerainternen Bildprozessierung nicht allzu hoch sein.

All die digitalen Spielereien und Möglichkeiten werden je nach Hersteller früher oder später in breiter Front kommen (hoffentlich auch abschaltbar bzw. wie Frank sagte, per User-Interface steuerbar). Ich behaupte lediglich, dass es bei Canon und Nikon in RAW zumindest derzeit noch nicht so ist. In JPEG (oder im RAW-Konverter) wird schon deutlich mehr herumgefuhrwerkt, so z.B. die mittlerweile häufig eingesetzte ISO-Abhängigkeit der in-Kamera-Rauschfilterung. Ich bin mir dabei noch nicht ganz im Klaren, ob Objektivdaten bereits Einfluss auf die angewendeten Algorithmen nehmen, habe aber bislang noch keine belastbaren Hinweise dafür finden können.
 
Zuletzt bearbeitet:
Mir fehlt es noch an stichhaltigen Gründen, warum es die anderen Hersteller nicht auch machen (können). Die vorgetragenen Gründe unterschätzen die aktuellen Signalprozessoren völlig. Und so simple Dinge wie Objektivdaten zum Body übertragen kann jeder in seinen Exifs nachlesen, dass ist stand der Technik.
Ich glaube keiner will absprechen, dass es technisch möglich ist, aber gib uns doch mal einen Hinweis, dass es aktuell auch gemacht wird. Ich hab mal zwei Bilder gamacht mit dem 50/1,4 an der 5D. Einmal ganz normal und einmal mit abgeklebten Kontakten, so dass die Kamera nicht weiß welches Objektiv aufgelegt ist. Die Bilder sind nur verkleinert und du darfst raten, welches welches ist. Die Exif sind noch drin.
Dass die Kamera die Objektivdaten ausliest und auswertet sieht man am Belichtungsmesser. Mit abgeklebten Kontakten will der Belichtungsmesser um 2/3 Blenden überbelichten.
 
Mir fehlt es noch an stichhaltigen Gründen, warum es die anderen Hersteller nicht auch machen (können). Die vorgetragenen Gründe unterschätzen die aktuellen Signalprozessoren völlig.
Kameras haben keine Hochleistungsakkus und keine Wasserkühlung. Mit einem Akku, der ca. 5 Wh Energie speichern kann, habe ich schon bis zu 1300 Bilder gemacht. Dir stehen damit maximal 4 mWh pro Bild zur Verfügung.

Spätestens beim Raw-Prozeß und Nachschärfung von Raw-Daten hast Du das Hühnersuppenproblem: Du mußt erst das Huhn schlachten und dann kannst Du die Suppe kochen. Es geht nicht umgedreht.

Du kannst Raw-Daten nicht schärfen. Wer so was stock und steif behauptet, ist nicht mehr als seriöse Informationsquelle brauchbar.

Wissenschaft ist halt was gnadenloses. Wer sich in ihre Fahrgewässer begibt, muß mit Kritiken umgehen können. Die großen Skandale gab es immer dann, wenn das NICHT gemacht wurde (siehe Wissenschaftsbetrug). Wer etwas an der Methodik der Wissenschaft auszusetzen hat, sollte beachten, daß sie uns im Gegensatz zu anderen Methoden ziemlich weit gebracht hat.
 
Und wie schauts bei der Leica M8 nebst CA und so?
Scheint als würde die M8 zumindest in JPEG-Ausgabe gleich zwei Dinge Objektiv-spezifisch rechnen: die Vignettierung und einen zyanen Farbfehler, der bei schrägem Lichteinfall zunimmt. Wie es in "Raw" aussieht, weiss ich nicht. Könnte aber durchaus sein, dass auch das ohnehin etwas schwer zu durchschauende Leica-Raw gar nicht so roh ist, wie man es z.B. von Canon oder Nikon gewohnt ist.

Hat jemand klare Info, wie das M8-Raw nun wirklich aussieht?
- Bittiefe?
- linear coding?
- Vignettierungskorrektur bereits eingerechnet?
- Bildhöhen-abhängiges Farbkippen bereits herausgerechnet?
 
Zitat von Mi67 Beitrag anzeigen
Anders Uschold stellt sich aber hin und behauptet dies mal einfach so aus der Hüfte. Noch mehr: er sagt, dies seien Resultate seiner umfangreichen Tests. Allein: es *kann* so gar nicht sein.


Ich frage mich nur immer, wenn der Uschold so blöd ist, wieso lassen sich dann die meisten DSLR- und Digicamproduzierenden Firmen bei ihm beraten ;)


.....und wie ist er an die Stellung als vereidigter Gerichtsgutachter gekommen?


.....Auch die Sache mit seiner Mitarbeit beim am Lehrstuhl für Konservierungswissenschaften, Institut für Architektur, Technische Universität München kommt mir unter diesem Gesichtspunkt sehr komisch vor.


..auch dass man so jemanden in DIN Ausschüssen mitarbeiten lässt finde ich höchst bedenklich...oder sollten die Leute, die ihm Posten und Aufträge geben etwas wissen, was wir noch nciht herausgefudnen haben? ;)
 
Hat jemand klare Info, wie das M8-Raw nun wirklich aussieht?
- Bittiefe?
- linear coding?
- Vignettierungskorrektur bereits eingerechnet?
Es soll so aussehen. A/D Wandler ist 16bit. Die vier untersten bit werden weg geworfen (steht eh nur Rauschen drin). Von den verbleibenden 12bit wird die Wurzel gezogen (Gamma ähnliche Korrektur) und das Ergebnis wird in 8bit unkomprimiert abgespeichert. Da das DNG Dateiformat offen ist, kann man das ja recht zuverlässig erkennen. Wenn die Vignettierungskorrektur eingeschaltet ist, so wird sie auf jpg und dng los gelassen (hab ich nicht selbst getestet).

Quelle: Andrej Kolev
- Bildhöhen-abhängiges Farbkippen bereits herausgerechnet?
Ich frage mich, ob das überhaupt geht. Man müsste zu jedem Objektv, bei jeder Blende, an jeder Bildstelle die Winkel zum Sensor kennen und ein anderes Farbmanagement anwenden. In erster Näherung täte es es wahrscheinlich auch eine spezielle Vignettierungskorrektur für den roten Kanal. Wo hast du das gehört?
 
Es soll so aussehen. A/D Wandler ist 16bit. Die vier untersten bit werden weg geworfen (steht eh nur Rauschen drin). Von den verbleibenden 12bit wird die Wurzel gezogen (Gamma ähnliche Korrektur) und das Ergebnis wird in 8bit unkomprimiert abgespeichert. Da das DNG Dateiformat offen ist, kann man das ja recht zuverlässig erkennen. Wenn die Vignettierungskorrektur eingeschaltet ist, so wird sie auf jpg und dng los gelassen (hab ich nicht selbst getestet).
Ja, dass auch Raw mitkorrigiert wird, sagt auch Sean Reid, der (leider kostenpflichtige) Testberichte zur M8 geschrieben hat. Also brauchen die Daten des DNG-Files noch ein Bayer-demosaicing?

Wenn nur 8 bit gespeichert sind, dann sind doch zumindest bei niedrigen ISO-Werten Tonwertabrisse bei nachträglichen Belichtungs- bzw. Farbtemperatur-Korrekturen quasi vorprogrammiert? Wundert mich echt, dass Leica diesen Weg geht.

Ich frage mich, ob das überhaupt geht. Man müsste zu jedem Objektv, bei jeder Blende, an jeder Bildstelle die Winkel zum Sensor kennen und ein anderes Farbmanagement anwenden. In erster Näherung täte es es wahrscheinlich auch eine spezielle Vignettierungskorrektur für den roten Kanal. Wo hast du das gehört?
Ich habe es nur hier gesehen. Dass ein IR-Schutzfilter vor dem Objektiv besonders bei Weitwinkeloptiken ein solches Farbkippen produzieren kann, habe ich öfter gelesen. Dass dies allerdings schon herausgerechnet wird, war mir bis zu dem verlinkten Beitrag noch neu. Ist wohl alles noch etwas vorläufig zu betrachten.
 
WERBUNG
Zurück
Oben Unten