• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

DXOMark enthüllt: digitale MFs - Auflösung wird nicht berücksichtigt

Ein zuschaltbarer AA-Filter (z.B. via Antiwackeldackel) wäre da was feines.
Das Problem: nur selten wird man vor der Entwicklung einer Aufnahme schon erkennen können, dass ein Antialiasing erforderlich oder entbehrlich gewesen wäre.

Es wird daher mehr um grundsätzliche Ausrichtungen gehen. Frei nach dem Motto "Maximaler Detailkontrast koste es was es wolle" versus "Von Haus aus robustes Signalverhalten in allen erdenklichen Situationen".
 
Wie haben die mir in Japan immer gesagt: "Der wirklich Kluge und Weise macht sich kleiner als er ist"
(Von "er putzt die Anderen ordentlich runter" war aber nichts zu hören)
Euer Hintergrundwissen ist erstaunlich - habt Ihr viele Artikel gelesen oder arbeitet Ihr bei DXO?
Technisches Verständnis.

Wenn man es gewöhnt ist (seit ~25 Jahren), Aussagen und Angaben auf Plausiblität, Widersprüche, Zusammenhänge zu prüfen, dann sieht man vieles auf Anhieb. Man sieht aber leider auch, daß Volksverdummung durch Werbung/Medien/... auf dem Vormarsch ist und das auch immer weniger gewillt sind, ihr Großhirn betreffs wissenschaftlicher Methodik intensiv zu schulen und zu nutzen.

Nachplappern statt kritischen Denken (ob Wissenschaft, Ökologie, Politik) ist leider mittlerweile bis hinein in die Wissenschaft selbst sehr im Kommen.

Ich finde die Zahlensucht an der alle leiden ziemlich merkwürdig.
Ich würde immer noch von Buchstabensucht reden. Mehr als achtundneunzig Prozent aller getippten Zeichen sind Buchstaben und Leerzeichen. Dann kommen Satzzeichen, erst dann die Zahlen ...

Ansonsten: Ich mache etwas nicht einfacher, indem ich Zahlen durch blumische Ausdrücke aufweiche (z.B. durch Angabe in Fußballfelder).

Was bei den Kameras S/N Ratio oder "Megapixel" ist bei Waschmaschinen die Trommeldrehzahl (wird immer höher gemogelt als sie wirklich ist) die Wattangabe (Autoradio für 50 Euro mit 350 Watt) oder bei Managern die Zahlen, die das unsägliche SAP bereitstellt (die sagen auch nix über die Wirklichkeit aus).
Die Zahlen sind nicht das Problem, sondern das fehlende Verständnis.
Das können Zahlen, aber auch das Meiden von Zahlen nicht beheben. Egal, ob 46 dB oder (++).

Daten und Zahlen können kein Bild ausdrücken - ich finde die P45 Bilder z.B. wahnsinnig gut.
Tja, hängt am Fotografen.
Petter Hegre ist, wenn ich mich erinnere, von Hasselblad auf Phase One umgestiegen.
Scharfe Bilder.
Allerdings wären diese Bilder auch mit digitalem Kleinbild möglich. Mittelformat bringt vielleicht das letzte halbe Prozent. Der Rest ist Petter Hegre, Beleuchtung, Visagisten, ...


Das ist ganz einfach: Beurteilungen von Menschen wie "Ich finde dieses Bild hat tolle Farben und Kontraste" oder "es wirkt irgendwie flach" lassen sich nicht verkaufen, die Leute wollen Messwerte und Laborberichte lesen.
Es geht also wieder mal nur darum uns etwas zu verkaufen - sonst könnten z.B. die Magazine alle dicht machen.[/quote]
 
Das Problem: nur selten wird man vor der Entwicklung einer Aufnahme schon erkennen können, dass ein Antialiasing erforderlich oder entbehrlich gewesen wäre.
Bildanalyse + Warnung.

Das aufgenommene Bild enthält (wahrscheinlich) Bildelemente, die zu Moiree neigen.
Empfohlene Stärke des AA: 0,75
Die perfekte Maschien sieht eben eher wie ein Mischpult aus und hat noch einen Regler für den AA-Filter:

  • AUTO (Motivanalyse: 0,5...2-alle bekannten Unschärfequellen)
  • DEFAULT (1,5-alle bekannten Unschärfequellen)
  • OFF
  • 0,25 Pixel
  • 0,5 Pixel
  • 0,75 Pixel
  • 1 Pixel (bei idealer Optik kein SW-Moiree)
  • 1,25 Pixel
  • 1,5 Pixel
  • 1,75 Pixel
  • 2 Pixel (bei idealer Optik kein Farb-Moiree)
  • DEFAULT-SW (1-alle bekannten Unschärfequellen)
  • DEFAULT-Color (2-alle bekannten Unschärfequellen)

Es wird daher mehr um grundsätzliche Ausrichtungen gehen. Frei nach dem Motto "Maximaler Detailkontrast koste es was es wolle" versus "Von Haus aus robustes Signalverhalten in allen erdenklichen Situationen".
Leica ist auf der Suche einer Niche, die zu ihrem Image paßt. Da paßt ersteres, vor allen, da es schon viele gibt, die bei zweiterem liegen.
 
Bildanalyse + Warnung.
Klar, das ginge.

Wenn schon der Sensor einen Aktuator bekommt, dann kann und sollte man natürlich versuchen, alle damit verbundenen Features zu erschliessen. Einige weitere Nutzungsbeispiele hattest Du ja auch schon an anderer Stelle genannt. Ein Revival der alten multi-shot-Modi käme dabei sicherlich noch hinzu.

... nur: wird die S2 denn überhaupt einen bewegten Sensor haben?
 
Klar, das ginge.

Wenn schon der Sensor einen Aktuator bekommt, dann kann und sollte man natürlich versuchen, alle damit verbundenen Features zu erschliessen. Einige weitere Nutzungsbeispiele hattest Du ja auch schon an anderer Stelle genannt. Ein Revival der alten multi-shot-Modi käme dabei sicherlich noch hinzu.

... nur: wird die S2 denn überhaupt einen bewegten Sensor haben?

Nein.
Es gibt zwei driftige Punkte, die dagegensprechen: Forschungs-Etat und Konservativität.
 
Bei Hasselblad ist kein (Hardware-)AA Filter vor dem Sensor. Das wird im RAW Konverter erledigt. Also ist es zumindest bei genügend Megapixeln heute schon möglich, auf ihn zu verzichten.

Zum Testen des Sensors habe ich einen anderen Gedanken: Da die Bildverarbeitung zwingend zur Berechnung des Bildes notwendig ist, warum nimmt man Randompattern? Kantensetektions- oder vielleicht sogar Segmentierungsalgorithmen, Schätzung homogener Flächen etc. werden implementiert sein. Ein Muster, welches die gesamte Verarbeitungskette testet könnte hilfreich sein. Man könnte ein Bild aus Polygonen, allmählichen Tonwertübergängen, und chaotischen Formen etc. erstellen. wäre das nicht praxisrelevanter?
 
Zum Testen des Sensors habe ich einen anderen Gedanken: Da die Bildverarbeitung zwingend zur Berechnung des Bildes notwendig ist, warum nimmt man Randompattern? Kantensetektions- oder vielleicht sogar Segmentierungsalgorithmen, Schätzung homogener Flächen etc. werden implementiert sein. Ein Muster, welches die gesamte Verarbeitungskette testet könnte hilfreich sein. Man könnte ein Bild aus Polygonen, allmählichen Tonwertübergängen, und chaotischen Formen etc. erstellen. wäre das nicht praxisrelevanter?
Du wirst - fürchte ich - irgendwann recht behalten, nämlich dann, wenn Raw auch noch die allerletzte Rohheit eingebüsst haben sollte.

*Eigentlich* sollten all diese Tricks und Kniffe eigentlich Inhalte des RAW-Konverters und nicht der Kamera selbst sein. In den Kamera-RAWs nach Zeichen komplexer Vorbearbeitung zu suchen, würde dem RAW-Konzept eigentlich immer widersprechen. Für König Kunde wäre es sicherlich am besten, wenn vorverarbeitete RAWs erkannt und auch gleich wieder verbannt werden. Wenn hingegen der Entwicklung einer Raw-Vorbearbeitung immer weiter einreissen sollte, dann sind irgendwann quantitative Messungen entweder extrem komplex oder sie ergeben nur Hausnummern.
 
Nein.
Es gibt zwei driftige Punkte, die dagegensprechen: Forschungs-Etat und Konservativität.
Nun ja, ein multishot-Modus ist ja nicht gerade etwas neues. Die Konservativität wird also kaum dagegen sprechen können.

Forschungsetat? Meinst Du die Koordination aus Sensorshift und Auslösungen oder das Zusammenrechnen der vier Teilbilder? Wenn dies die Forschungsabteilung überfordern sollte, dann weiss ich auch nicht mehr ...
 
...
Nachplappern statt kritischen Denken (ob Wissenschaft, Ökologie, Politik) ist leider mittlerweile bis hinein in die Wissenschaft selbst sehr im Kommen....
Nein, gerade in der Wissenschaft war das immer schon die Normalität.

...
Ich glaub', ich nehm Dich in die Troll-Liste auf....
Und ich nehme Dich von meiner (kleinen) Liste Favoriten, deren Postings ich bisher für lesenswert hielt.

LG Horstl
 
Es ist, so glaube ich, zu mühselig, Dir das per Posting zu erläutern. Entweder bist Du ein Troll oder es fehlt Grundlagenwissen und/oder Lernwillen, um in vertretbarer Zeit zu einem Ergebnis zu kommen.

Ich glaub', ich nehm Dich in die Troll-Liste auf.
Kannst Du gerne tun. Aber das, was ich geschrieben habe:
Nimmt der Anwender einen anderen Konverter oder andere Einstellungen, kann der ganze Test für ihn Makulatur sein...
steht ja genau so auf der Seite von DxO: http://dxo.com/de/photo/dxo_optics_pro/raw_conversion Hier wird auch explizit mit anderen Konvertern verglichen. Originalton DxO:

"Die meisten Kameras neueren Datums bieten beeindruckend hohe Empfindlichkeitseinstellungen, manchmal sogar bis zu 25 600 ISO ! Aber bisher konnten diese Empfindlichkeiten aufgrund sehr schlechter Bildqualität von Fotografen nicht genutzt werden. Die RAW-Konvertierung mit DxO Pro hebt die bestehenen Schranken auf und macht das Versprechen hoher ISO – Empfindlickeiten endlich wahr."

Das kann man jetzt wissenschaftlich ausblenden. Auf der anderen Seite könnte man sich fragen, ob nicht auch ein Konglomerat von Zahlen und Messwerten - auch und gerade wenn sie fast niemand versteht - ein Marketinginstrument darstellen könnte. Der Unwissende kauft die Kamera mit der größten Pixelzahl. Der Halbwissende weiß, das das falsch ist und kauft darum die Kamera mit den höchsten Dynamikwerten. Zumindest aber entwickelt er RAW, um die Dynamik zu verbessern. Ich glaube nicht, dass sich DxO die Mühe, ihre Benchmarks ins Web zu stellen, nur gemacht hat, um einer Minderheit von Wissenschaftlern eine Freude zu machen. Der Rest der Bevölkerung, der mangels Bildung überhaupt nichts begreift, ist selber Schuld. Warum absolvieren sie auch kein Physikstudium, bevor sie sich eine Kamera kaufen? Dann wüßten sie wenigstens, was sie da tun.
 
Ich glaube nicht, dass sich DxO die Mühe, ihre Benchmarks ins Web zu stellen, nur gemacht hat, um einer Minderheit von Wissenschaftlern eine Freude zu machen. Der Rest der Bevölkerung, der mangels Bildung überhaupt nichts begreift, ist selber Schuld. Warum absolvieren sie auch kein Physikstudium, bevor sie sich eine Kamera kaufen? Dann wüßten sie wenigstens, was sie da tun.
@all: giftet Euch lieber nicht ob der Ergüsse irgendeines Drittanbieters an, das lohnt den Aufwand und Ärger nicht!

Man kann die erhältlichen Ressourcen lediglich studieren, versuchen ihre Wertigkeit einzuordnen und sie dann meinethalben für relevant oder irrelevant erachten. Dass hieraus eine solche Energie erwachsen kann, die eine gute Kinderstube vor lauter schöumendem Eifer in Vergessenheit geraten liesse, steht hier niemandem gut zu Gesicht.

Also bei der Sache bleiben und alle (!) Informationen, also auch einschliesslich derer von Dxomark selbst, durch ein möglichst unemotionales Kritikfilter jagen. Wenn dann auch noch der kommunikative Stil stimmt, dann sollten Entgleisungen eigentlich sicher auszuschliessen sein.

@Einschätzung von Michael Reichmann: etwas arg schwülstig ausgedrückt und mit hinkenden Parallelen zum HiFi-Sektor verbrämt mag er ganz richtige Zusammenhänge angetippt haben. Dass dort allerdings in der RAW-Konvertersoftware die Flatfields gerechnet werden, wäre mir neu.
 
So nach langem endlich wieder Zeit hier zu posten, wo ich nun geschlagene 4Tage gebraucht habe um diesen Text zu verfassen... bin ich mir sicher das das meiste eh schon veraltet ist, aber ein par meiner gesammelten Erguesse will ich trotzdem noch loswerden :)
Erstmal muss ich mich fuer den etwas verfehlten Threadtitel (laengst geaendert) entschuldigen. Ich wollte damit natuerlich ein wenig provozieren, was ich im Nachhinein selbst nicht mehr so toll finde... :o

Im Grunde ging es mir nur darum das DXOMark nicht die ultimative Antwort auf alle Fragen der Bildqualitaet darstellt. Er bietet hoechstens eine Teilantwort und vor allem viele Indizien mit deren Hilfe man sich selbst ein Urteil bilden kann. Eine Erkenntnis die ich selbst erst kuerzlich erlangte da ich die Seite bisher ehrlich gesagt nicht recht ernst genommen und weitgehend ignoriert habe. Das System an sich finde ich nicht schlecht. Wers nicht so wissenschaftlich mag bekommt vorgekaute Punkte auf einer Skala und eine Rangliste, und jene die es ganz genau wissen wollen koennen alle Messwerte und Graphen einsehen.

Die Aussage das die Aufloesung vom Test voellig ignoriert wird muss ich auch teilweise revidieren. Die "Normalisierung" also das umrechnen der Bilder auf eine Standardgroesse (ca.8MP) soll ja dafuer sorgen das die unterschiedlichen Aufloesungen der Kameras in die Wertung mit einfliessen so das eine hochaufloesende Kamera mit gleicher SNR eine entsprechend bessere Score erreicht als eine niedrigaufloesende. Soweit so gut.

Aber das ist nicht das was ich eigentlich meine. Ich finde fuer einen umfassenden Test der Bildqualitaet sollte unbedingt auch die maximal erreichbare Aufloesung als 4ter grosser Teil in die Wertung mit einbezogen werden. Aufloesung ist fuer die IQ einer Kamera genauso wichtig wie Dynamik, Farbtiefe und ISO. Sie in die Wertung zu integrieren ist sicher moeglich aber wohl auch etwas aufwendiger, man koennte zB. eine Standardoptik davorschnallen und/oder voellig ohne Objektiv mit Lasern die optischen Eigenschaften direkt auf dem Sensorpack ermitteln. Ein Test mit handelsueblichen Objektiven des Herstellers waere zwar praxisbezogener aber schliesslich geht es bei DXO nur um die Sensorleistung und Tests dieser Art gibt es ja schon zu Hauf.
Ich glaube auch nicht das eine ausgeglichen gewichtete Beruecksichtigung der Aufloesung die Rangliste voellig ducheinanderwirbeln wuerde, aber ein par Ausreisser waeren dann doch schnell wieder eingefangen und die MFs bekaemen ihre gebuehrende Ehre zurueck. ;)

Die Gruende warum jetzt die MFs bei DXO so mittelmaessig abschneiden koennen vielfaeltig sein. Kamerainterne Entrauschung spielt sicher eine Rolle, es ist laengst kein Geheimnis mehr das die Hersteller alle moeglichen Tricks anwenden um die Bilder zu "verbessern". Die Frage ist halt immer wie, und ob es dabei immer mit rechten Dingen zugeht steht auf einem anderen Blatt... Wenn die MFs hier weniger effektiv sind oder garnicht entrauschen hat das natuerlich Auswirkungen auf die Messwerte, schlechtere SNR, Dynamik ect. Denn wenn man die Dynamik nach oben hin nicht mehr verbessern kann muss man eben den Rauschpegel senken und hier sind die modernen DSLRs deutlich ueberlegen. Dazu kommen dann evtl. noch andere Sachen wie fehlende Mikrolinsen (brauchen CCDs die ueberhaupt?), oder geringe Effizienz, laengere Signalwege ect.
Welcher Wert jetzt von welchen Parametern wie beeinflusst wird bleibt dabei oft im dunkeln und man kann nur raten solange die Hersteller nicht alle ihre Plaene offenlegen und da wird wohl eher die Hoelle zufrieren :rolleyes:

Alles in allem glaube ich schon das die Messwerte von DXO korrekt sind.
Im Endeffekt bleibt den MFs wohl nur die hoehere Aufloesung die ja nicht angemessen beruecksichtigt wird. Aber abgesehen davon gibt es ja noch andere Gruende sich fuer ein bestimmtes System zu entscheiden...

Bei all den Zahlen sollte man natuerlich die echten Bilder nicht vergessen, denn eigentlich zahlt ja nur was hinten auskommt ;)
Im gegensatz zu M.Reichmann von LL (btw. Danke fuer den Link) sehe ich fuer subjektives Empfinden in einem solchen Test aber keinen Platz. Das sollte schon jedem selbst ueberlassen bleiben, schliesslich weiss man ja nur selbst was einem gefaellt und was nicht. Beispielbilder findet man ja auch genug im Netz.

So endlich fertig...
Und jetzt koennt Ihr mich zerreissen. :)
 
Im Grunde ging es mir nur darum das DXOMark nicht die ultimative Antwort auf alle Fragen der Bildqualitaet darstellt. Er bietet hoechstens eine Teilantwort und vor allem viele Indizien mit deren Hilfe man sich selbst ein Urteil bilden kann. ... Wers nicht so wissenschaftlich mag bekommt vorgekaute Punkte auf einer Skala und eine Rangliste, und jene die es ganz genau wissen wollen koennen alle Messwerte und Graphen einsehen.

Genauso isses! :top:

Dazu kommen dann evtl. noch andere Sachen wie fehlende Mikrolinsen (brauchen CCDs die ueberhaupt?),

Die Hassi H3DII 31MP hat Mikrolinsen, deshalb hat sie auch ISO800. Trotzdem ist ISO800 stark verrauscht. IMHO machen diese Kameras nur Sinn, wenn man für genügend Licht sorgen kann, so dass man mit geringer ISO schießt.
 
Bei all den Zahlen sollte man natuerlich die echten Bilder nicht vergessen, denn eigentlich zahlt ja nur was hinten auskommt ;)
Im gegensatz zu M.Reichmann von LL (btw. Danke fuer den Link) sehe ich fuer subjektives Empfinden in einem solchen Test aber keinen Platz. Das sollte schon jedem selbst ueberlassen bleiben, schliesslich weiss man ja nur selbst was einem gefaellt und was nicht. Beispielbilder findet man ja auch genug im Netz.

Das Grundproblem bei allen Tests, die ich kenne ist halt, das sie zwar Objektivität vorgaukeln, aber nie wirklich objektiv sind, ja eigentlich nie allgemeingültig objektiv sein können.

Warum ist das so?

Man kann zwar alle möglichen Eigenschaften recht objektiv messen, aber irgendwann muß man die Relevanz dieser Messwerte bewerten und genau hier fängt's an subjektiv zu werden.

Wie hoch man bestimmte Parameter bewertet hängt einfach sehr stark von den persönlichen Aufnahme-Vorlieben, Aufnahme-Bedingungen und Ausgabegrößen ab. Von daher fände ich es erheblich sinnvoller, für jede Kamera eher so etwas wie ein Charakter-Profil mit Stärken und Schwächen anzugeben, als krampfhaft einen vermeintlichen "Testsieger" zu küren.
 
AW: DXOMark enthuellt. Digitale MFs sucken! :p - Aufloesung wird nicht beruecksichtig

Zum Glück ist es um ein Vielfaches einfacher die Qualität zweier Bilder zu Vergleichen als die von zwei Stereoanlagen - so dass es zu einem Voodoo-Tanz wie im HiFi nicht kommen wird!
Da sei dir mal nicht so sicher. Ich muss da Frank Klemm beipflichten; ich denke, dass es da zum Voodoo-Tanz schon lange gekommen ist - spätestens mit der 5D, bei denen Leute sich über "bessere Pixel" begeisterten und das teilweise noch mit auf Monitorauflösung verkleinerten Bildern "belegen" wollten.

Mir hat da nur noch, analog zu musikalisch klingenden Lautsprechern, der Hinweis auf das besonders optische Bild der 5D gefehlt.

Umgekehrt sehe ich bei Digitalbildern Probleme, die vielen anscheinend nicht auffallen. Die unnatürliche Repräsentation als feste Punktmatrix und künstlich aufgesteilter Detailantwort finde ich viel störender als Filmkorn mit dem sanften Übergang, der zudem viel weiter geht als bei momentan üblichen (SLR-) Pixeldichten. Ich habe schon Film-Digital-Vergleiche gesehen, bei dem ich genau zum gegenteiligen Schluss kam wie der Autor des Artikels!
Die meisten Details waren beim Digitalbild besser sichtbar, aber der schwache Anteil an noch höherer Auflösung im Filmbild fiel mir viel stärker auf bzw. dessen Fehlen beim digitalen. Das gilt vor allem für Motivteile wie feine Haare bei Portraits, Vegetation, überhaupt Details ohne starken Farbkontrast.
Fette Kantenverstärkung und Rauschunterdrückung -> schon gefällt den meisten Leuten anscheinend trotzdem das Digitalbild besser.

Ein weiteres gutes Beispiel ist die neue Digic4-Rawkonversion, die für mich ein Musterbeispiel an "digitalem" Bildeindruck liefert und für viele Leute völlig OK zu sein scheint. Meßtechnisch ist sie vermutlich tadellos.

Hier nochmal meine Beispiele dafür: http://leitseite.net/photo/tests/5d2_raw/

Wie man sieht, wird Detail irgendwie in Abhängigkeit von Kontrast zu umliegenden Bereichen weggebügelt oder verstärkt; z.B. die Zweige rechts vorm Balkon - mal sind sie weich, mal nicht. Oder die Baumwipfel, die auf einmal unterbrochen werden.

Solche Effekte kann ein Test wie DXO-Mark vermutlich kaum erfassen, und schon gar nicht, wie empfindlich jemand dafür ist.
 
Das Grundproblem bei allen Tests, die ich kenne ist halt, das sie zwar Objektivität vorgaukeln, aber nie wirklich objektiv sind, ja eigentlich nie allgemeingültig objektiv sein können.
Objektivität heißt nicht, daß es "wahr" ist. Es gibt bekanntlich keine Wahrheit, maximal einen von allen Seiten anerkannten Konsens.

Ich kann aber angeben, was ich gemacht habe und meine Art der Interpreation offenlegen. In der Wissenschaft ist das höchste Gut die Nachvollziehbarkeit durch andere. Wenn diese es wöllten, könnten sie meinen Versuch nachstellen?

Ein weiterer ist eine Auswertung der Meßwerte mit möglichst wenig Schwachstellen und möglichst wenigen willkührlichen Festlegungen.

Man kann zwar alle möglichen Eigenschaften recht objektiv messen, aber irgendwann muß man die Relevanz dieser Messwerte bewerten und genau hier fängt's an subjektiv zu werden.

Der Körper der reellen Zahlen ist der letzte mit einer Ordnungsrelation, würde der Mathematiker sagen. Höherdiemensionale Räume benötigen immer einen willkürlichen Operator, der R^n => R abbilden.
 
DXOMark ist wohl in sofern naiv, als die Experimente unter einer Annahme gemacht werden, die möglicherweise nicht gerechtfertigt ist.
Eben jener, dass keine In-Camera RAW-Bearbeitung stattfindet. Solange ein solcher Bearbeitungschritt nicht nachweisbar ist, können wir es ihnen nicht vorwerfen. Wenn von so einer Bearbeitung ausgegangen werden muss, sind meines Erachtens die Ergebnisse nicht ohne Disclaimer haltbar bzw. sogar falsch.

Die Astro-Fotographen sind da schon weiter und nehmen halt lieber 'ne Canon als 'ne Nikon.

Das Ziel der Hersteller ist natürlich nicht in erster Linie einen perfekten Sensor für Photonen zu bauen, sondern den Benutzern mit Bildern zu schmeicheln die ihnen gefallen. Hier gibt es unterschiedliche Geschmäcker, die zu unterschiedlichen Kaufentscheidungen führen. Ein Test kann das nur schwer abbilden.
 
Das Grundproblem bei allen Tests, die ich kenne ist halt, das sie zwar Objektivität vorgaukeln, aber nie wirklich objektiv sind, ja eigentlich nie allgemeingültig objektiv sein können.
Das ist kein Vorgaukeln, man muss sich einfach damit abfinden, dass auch Theorien, in Mathematik gegossene Zusammenhänge interpretiert werden müssen. Aber besser du tust es, als jemand anderes für Dich. Du alleine weisst, ob eine Blende mehr SNR für Dich wichtig ist.

Man kann zwar alle möglichen Eigenschaften recht objektiv messen, aber irgendwann muß man die Relevanz dieser Messwerte bewerten und genau hier fängt's an subjektiv zu werden.
Dito! ;)


Umgekehrt sehe ich bei Digitalbildern Probleme, die vielen anscheinend nicht auffallen. Die unnatürliche Repräsentation als feste Punktmatrix und künstlich aufgesteilter Detailantwort finde ich viel störender als Filmkorn mit dem sanften Übergang, der zudem viel weiter geht als bei momentan üblichen (SLR-) Pixeldichten. Ich habe schon Film-Digital-Vergleiche gesehen, bei dem ich genau zum gegenteiligen Schluss kam wie der Autor des Artikels!
Die meisten Details waren beim Digitalbild besser sichtbar, aber der schwache Anteil an noch höherer Auflösung im Filmbild fiel mir viel stärker auf bzw. dessen Fehlen beim digitalen. Das gilt vor allem für Motivteile wie feine Haare bei Portraits, Vegetation, überhaupt Details ohne starken Farbkontrast.
Fette Kantenverstärkung und Rauschunterdrückung -> schon gefällt den meisten Leuten anscheinend trotzdem das Digitalbild besser.

Ein weiteres gutes Beispiel ist die neue Digic4-Rawkonversion, die für mich ein Musterbeispiel an "digitalem" Bildeindruck liefert und für viele Leute völlig OK zu sein scheint. Meßtechnisch ist sie vermutlich tadellos.

Hier nochmal meine Beispiele dafür: http://leitseite.net/photo/tests/5d2_raw/

Wie man sieht, wird Detail irgendwie in Abhängigkeit von Kontrast zu umliegenden Bereichen weggebügelt oder verstärkt; z.B. die Zweige rechts vorm Balkon - mal sind sie weich, mal nicht. Oder die Baumwipfel, die auf einmal unterbrochen werden.

Solche Effekte kann ein Test wie DXO-Mark vermutlich kaum erfassen, und schon gar nicht, wie empfindlich jemand dafür ist.

Super Beitrag! :top: Solche Gedanken gehen mir auch durch den Kopf. Diese Art von digitaler Filterung wird Modell-basiert sein und also rekonstruieren, was das Modell vorgibt. So gesehen war analog "ehrlicher" und linearer. Allerdings wird es so erst bei den Grenzen des technisch möglichen eintreten. Was bleibt, ist allerdings der Cut-off der Auflösung beim Pixelmuster. Digitale Schärfung verändert die Bilder natürlich nochmal richtig. Andererseits verändern sich offensichtlich unsere Sehgewohnheiten mit den digitalen Sensoren und den Leuten gefällt's.
 
(...)
Wie könnte man sich dennoch annähern?
(...)
Die Mischeffekte aus AA-Filter und von Entrauschungsalgorithmen könnten natürlich nur nach Ausbau des AA-Filters leicht und sauber separiert werden.
Andernfalls hilft nur ein Hinnehmen vermengter Parameter oder eine komplexe Rückwärtsanalyse der erhaltenen Signale.
(...)
Jepp, war gerade selbst noch am denken und schreiben, aber ja, das müsste gehen. Vielleicht ganz trickreich wäre zusätzlich nicht Subtraktion eines Darkframes, sondern im Gegenteil die Subtraktion zweier Bilder (s.o.)!?

Hallo Mi67.
Nach dem Hinweis im Thread "FT Sensoren und die Beugung"
auf Deinen o. a. Beitrag stelle ich fest, dass unsere Ideen gewisse
Ähnlichkeiten aufweisen. Da ich kein Vollbluttheoretiker bin und für
mich eher die praktischen Auswirkungen interessant sind, bin ich die
Sache mal ganz praktisch angegangen und habe einen Versuch gemacht.
Als Motiv diente ein Verpackungskarton der Kamera und ein Buch-Stützwinkel
aus schwarz eloxiertem Aluminium. Als Hintergrund diente die Nacht
hinter der Fensterscheibe. Der Karton ist bedruckt und hat für das Auge
gleichmäßig aussehende Flächen verschiedener Farbe inklusive grau und
schwarz. Das Druckraster zeigt aus nächster Nähe fotografiert oder
mittels Lupe die üblichen Farbpünktchen in regelmäßiger Anordnung.
Auf dieses Raster kam es mir an. Ein unregelmäßiges Raster mit ähnlichen
Punktabständen habe ich im Haus nicht gefunden, hätte es aber für einen
Vergleich gut brauchen können. Für die Aufnahmen habe ich einen Abstand
vom Motiv ausgetestet, bei dem die Auflösung der Kamera mit dem
Makroobjektiv davor bei "optimaler Blende" gerade ausgereicht hat um das
Druckraster nicht mehr aufzulösen (um 1,5 m). Die Kamera habe ich natürlich
auf einem guten Stativ montiert gehabt und mit Fernauslöser und 4 Sekunden SVA
ausgelöst. Dann habe ich bei verschiedenen ISO-Einstellungen jeweils
mehrere gleiche Bilder bei Kunstlicht und mit Blitzlicht geschossen.
Die Kamera habe ich dann auch seitlich in verschiedenen Winkeln gekippt
und wieder mehrere gleiche Bilder geschossen.

Erster Teil der Bildkontrolle:
Der Vergleich der Bilder zeigte das, was ich erwartet hatte. Die Aufdrucke
wiesen einige Abweichungen von dem auf, was man mit bloßem Auge bei der
Betrachtung des Motivs sieht. Je nach Kippwinkel der Kamera war bei den
Aufdrucken ein anderes Muster zu sehen, mal grob mal fein und in verschiedenen
Richtungen verlaufend und von Bild zu Bild reproduzierbar. Und das, obwohl
die Kameramarke nach Ansicht einiger User "unnötig" starke AA-Filter verwendet.
Wäre das Muster unregelmäßig gewesen, dann hätte man es ohne weiteres als
Farb- und Helligkeitsrauschen interpretieren können. Ein ähnlicher Effekt
war mir schon mal bei matt lackierten Oberflächen aufgefallen. Man muß nur
die richtige Entfernung dazu treffen, schon ist es aus mit der homogenen
Fläche und es "rauscht".

Zweiter Teil der Bildkontrolle:
Die Aufnahmen habe ich aus RAW mit LR2 bei Rauschunterdrückung ganz aus und
Schwarz auf 0 entwickelt. Jeweils zwei der nacheinander aufgenommenen Bilder
bei gleichen Aufnahmebedingungen habe ich dann übereinander gelegt. Das größte
Problem dabei war, zwei Bilder zu finden, die wirklich pixelgenau aufeinander
passen. Den Versatz um einen Pixel hat man schnell. Zwei Paare habe ich gefunden.
Die Ebenen habe ich übereinander gelegt und die Ebenen-Differenz dargestellt.
Und dann war es da, das Rauschen. Allerdings viel geringer als ich es erwartet
hatte. Alle Flächen außer "ganz dunkel" waren so gut wie völlig verschwunden.
Die geringen Belichtungsunterschiede konnte man an glatten, nicht ganz schwarzen
Flächen erkennen. Das hatte ich im Prinzip so erwartet, denn die in den Bildern
existierenden Störungen waren reproduzierbar und deshalb löschten sie sich aus.
Anders sah es in den ganz dunklen und defokussierten Flächen (Hintergrund) aus.
Dort zeigte sich ein ganz feines, eigentlich nur nach Kontrasterhöhung sichtbares
"Grieseln". Ich hatte ja zwei verwendbare Bildpaare. Eines bei 100 ISO und eines
bei 800 ISO. Bei dem 800 ISO Bild war das Rauschen ein wenig stärker. Da Rauschen
zufällig verteilt ist und sich damit von Aufnahme zu Aufnahme unterscheiden muß,
mußte es hier sichtbar werden.

Was ich damit erstmal nur für mich beweisen wollte war, dass man bei Rausch- und
Dynamikmessungen aufpassen muß, das man sich nicht selbst ein Bein stellt. Auch
wenn man selbst mit bloßem Auge die Strukturen nicht mehr sieht, die Kamera sieht
mehr. Wie sie das was sie sieht verarbeitet wissen nur die Entwickler ganz genau.
Was uns am Ende interessiert ist das Ergebnis.

Für die Messung der Eingangsdynamik der Kamera muß man jetzt noch das Objektiv
weglassen, damit der Streulichschleier keinen Messfehler verursacht. Weniger
als 0,2 % konnte ich bei den Einzelbildern mit der Densitometerpipette nirgendwo
messen, womit wir bei den ungefähr 9 EV sind, die in den Tests immer wieder
herumgeistern.

Das war ein Versuch mit meinen häuslichen Mitteln, der keinen wissenschaftlichen
Anspruch hat. Nichtsdestotrotz zeigt er, wie man mit relativ einfachen Mitteln
Kameras für Testergebnisse "optimieren" könnte, wenn man das Testequipment kennt.
Damit läßt sich vielleicht auch erklären, warum bei mitteleren Helligkeiten in
den Bildern manchmal mehr Rauschen zu erkennen ist als in den fast schwarzen Zonen.

Diesen Versuch kann jeder leicht selbst nachvollziehen. Das wäre für Pixelpeeper
gar nicht schlecht, denn dann würde man recht schnell feststellen, wie man sich
selbst veralbern kann und was man von "Tests" halten darf. Am schwierigsten ist
dabei, zwei exakt pixelgleich aufeinander passende Aufnahmen zu erstellen.
Die Korrektur der Testergebnisse mit geänderter Testmethode von Anders Uschold
in digitalkamera.de zeigt, dass bei der Interpretation von Testergebnissen ein
gesundes Maß an Mißtrauen geboten ist.

Sollten bei meinem Versuch Denkfehler vorliegen, dann bitte heraus damit.
Das Thema ist für mich höchst interessant.
Drei Beispiele zur Demonstration habe ich mal angehängt.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten