• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

FT E-3 vs E-520: Vergleich

  • Themenersteller Themenersteller Gast_155657
  • Erstellt am Erstellt am
AW: Frage zum Bildsensor der E-3?

Weiss jemand wie breit arbeitet AD-Wandler bei eine E-3 ? Sind es 12 oder 14-bit ? Vielleicht sind es da Unterschiede zwischen E-3 und die restlichen E-xy Modellen.
 
AW: Frage zum Bildsensor der E-3?

Alle E-System Kameras haben 12 Bit RAWs. Leider auch die E-1 und E-3 :grumble:!
 
AW: Frage zum Bildsensor der E-3?

Hallo
Die Frage wäre doch was daran so schlimm ist wenn die Sensoren aus einer Fertigung kommen, der Gedanke daran scheint ja für sich schon schlecht zu ertragen sein :p

Mich jedenfalls würde es nicht stören wenn Olympus des Sensor meiner E 420 auch in die E 3 steckt.

Ich denke son Sensor ist doch nur ein klitzekleines Bauteil von vielen, kaum der Rede wert überhaupt drüber zu diskutieren wenn das Bildergebnis überzeugt.

Was die E3 ausmacht ist doch das Gesamtkonzept was spricht denn gegen Teilweise gleiche Bauteile ausser das es Entwicklungskosten spart.

Mein Renault Espace hat auch Teile vom R21 drinnen und fährt trotzdem.

Gruß
Hartmut
 
AW: Frage zum Bildsensor der E-3?

Ist wegen des geringen Headroom. 14 Blenden sind besser als 12, oder?

Die Canon 40D, 50D und selbst die 450D bringen 14 Bit. Ebenso die Nikon D300.

Hallo :).
Okay - Das ist an sich schon richtig, doch ->
Was nutzen mir 14 Blenden wenn Die auf meinen Ausgabemedien nicht darstellbar sind?
Z. Bspl. drucke ich noch sehr gerne Bilder aus oder lasse sie über einen Bilderdienst auf echtem Fotopapier ausbelichten - doch diesen Dynamikumfang werden diese Medien nicht darstellen können :cool:.
Klar, als "Bearbeitungsreserve" sicherlich mal von Nutzem, aber Praktisch bzw. im Endeffekt?
Aber letztendlich werden Uns die 12 Bit reichen - Was bleibt sonst übrig ausser sich Woanders umzuschauen ...

Grüße

Andreas
 
AW: Frage zum Bildsensor der E-3?

14 Bit Farbtiefe pro Pixel und 14 Blenden haben nichts miteinander zu tun. Es geht bei "14 Bit" allein um die Anzahl der Abstufungen zwischen schwarz und weiß.

Eine Belichtungsdynamik von 12 oder 13 Blendenstufen läßt sich genauso gut über 8 Bit wie über 12 oder 14 Bit darstellen - nur die Abstände zwischen den möglichen Werten sind feiner bei höherer Bit-Zahl.

In der Praxis erlaubt die höhere Auflösungstiefe allerdings umfangreichere Nacharbeiten ohne sichtbaren Qualitätsverlust. Der Aufnahme selbst sieht der Mensch die Bits per Pixel nicht an.

Johannes
 
AW: Frage zum Bildsensor der E-3?

Schon klar, Blenden kann man nicht direkt in Bits umrechnen. Irgendjemand hatte hier auch mal geschrieben, der Dynamikumfang der Oly-JPEGs liegt bei (scheinbaren) 9-9,5 Blenden.

Da ein RAW-Konverter normalerweise ein 48-Bit TIFF entwickelt ist es schon schade wenn die E-3 davon nur einen Bruchteil des vorhandenen Wertebereichs nutzt. Nehmen wir mal an ein X steht für ca. 1000 Helligkeitswerte:

xxxx -> 4096 = 12 Bit (E-3)
xxxx xxxx xxxx xxxx -> 16384 = 14 Bit (D300)
xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx -> 65536 = 16 Bit

Eine Olympus nimmt pro Sensorpixel 4096 Helligkeitswerte auf, eine D300 feiner abgestufte 16384. Alles rein theoretisch natürlich.

Es kommt eben darauf was man mit den Fotos tatsächlich macht. Vielen reichen ja heute schon die 8-Bit eines JPEG, und das zu recht. Mein Namensvetter hat ja schon das Beispiel mit dem Fotopapier oder Fotobuch genannt. Andere Anwendungen sind DVD/BluRay-Diashows... es soll sogar Zeitgenossen geben die lassen sich ihre Fotos auf Kopfkissenbezüge drucken. Da braucht's bestimmt kein RAW für...
 
Zuletzt bearbeitet:
AW: Frage zum Bildsensor der E-3?

Schon klar, Blenden kann man nicht direkt in Bits umrechnen. Irgendjemand hatte hier auch mal geschrieben, der Dynamikumfang der Oly-JPEGs liegt bei 9-9,5 Blenden.

Da ein RAW-Konverter normalerweise ein 48-Bit TIFF entwickelt ist es schon schade wenn die E-3 davon nur einen Bruchteil des möglichen Wertebereichs nutzt. Nehmen wir mal an ein X steht für ca. 1000 Helligkeitswerte:

xxxx -> 4096 = 12 Bit (E-3)
xxxx xxxx xxxx xxxx -> 16384 = 14 Bit (D300)
xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx -> 65536 = 16 Bit

Eine Olympus nimmt pro Sensorpixel 4096 Helligkeitswerte auf, eine D300 feiner abgestufte 16384. Alles rein theoretisch natürlich.

Es kommt natürlich darauf was man mit den Fotos macht. Vielen reicht ja heute schon die 8-Bit eines JPEG, und das zu recht.
Haarsträubend! Und zum Schluß sind es immer nur 8 Bit, egal ob aus ursprünglich 12 oder aus 16. Was ich an "Bitauflösung" an der einen Stelle in Form von feinerer Tonwertabstufung nutze fehlt an einer anderen Stelle. Ganz abgesehen davon, dass die 14 oder 16 Bit vom Rauschabstand und der Eingangsdynamik her gar nicht erreicht werden können, weil das interne Streulicht der Objektive schon die am Sensor ankommende Dynamik auf ungefähr 7.. 8 Blendenstufen begrenzt. Objektive haben keine 100% Transmission. 12 Bit sind eine kostengünstige und gut beherrschbare Wandlertiefe. Wenn man eine größere Wandlerauflösung verwendet, erhöht das den Aufwand und die Probleme, verbessert aber unter dem Strich nicht das Bild. Das muß man mir zwar jetzt nicht glauben, ist aber in der Praxis so. Erst mit ebenfalls 12 Bit bei der Bildausgabe, soweit das ein Monitor überhaupt kann, könnte man den Tonwertreichtum nutzen. Auf Papier wären die Abstufungen vielleicht noch machbar, dafür ist aber die Dynamik im Eimer. Wie hoch ist denn die Wiedergabedynamik eines Aufsichtbildes? Mehr als 12 Bit blasen die Daten auf, nützen aber nichts, außer als Marketingargument.
 
Zuletzt bearbeitet:
AW: Frage zum Bildsensor der E-3?

Ich habe ja geschrieben: alles rein THEORETISCH. Nur weil der Wertebereich grösser ist müssen die Bilddaten natürlich nicht besser sein!

Dass es am Schluss nur 8 Bit, dafür kann die Kamera ja nichts. Das liegt an unseren bescheidenen Ausgabegeräten. Das Auge selbst kann immer noch wesentlich mehr Helligkeitsstufen (nicht Farben!) sehen als die heute bezahlbaren TFTs darstellen können.
 
AW: Frage zum Bildsensor der E-3?

Ich habe ja geschrieben: alles rein THEORETISCH. Nur weil der Wertebereich grösser ist müssen die Bilddaten natürlich nicht besser sein!

Dass es am Schluss nur 8 Bit, dafür kann die Kamera ja nichts. Das liegt an unseren bescheidenen Ausgabegeräten. Das Auge selbst kann immer noch wesentlich mehr Helligkeitsstufen (nicht Farben!) sehen als die heute bezahlbaren TFTs darstellen können.
Ist schon klar, habe ich auch so verstanden. Schön wäre es ja, wenn der ganze Dynamikumfang und Tonwertreichtum darstellbar wäre. Leider kommt die Gesamtdynamik eben nicht am Sensor an und dann haut's auch nicht mit der Tonwertauflösung hin. Das war es, was ich nur mal etwas hervorheben wollte für Leute, die mit Bits und Bytes nicht so sehr viel anfangen können. In der Theorie hast du recht solange es die reine Datenkonvertierung angeht. Dein Schaubild mit den x'en vermittelt leicht einen falschen Eindruck, wenn man die Zusammenhänge nicht kennt. Das letzte Bit hinten ist bei 16 Bit Wandlertiefe eben nur 1/65535, vorne aber Faktor 2. Das hintere Bit (LSB) ist also (praktisch) nicht sichtbar, während das vordere Bit (MSB) einen Sprung von einer Blendenstufe bedeutet (bei linearer Kurve).
 
Zuletzt bearbeitet:
AW: Frage zum Bildsensor der E-3?

Ist wegen des geringen Headroom. 14 Blenden sind besser als 12, oder?

Die Canon 40D, 50D und selbst die 450D bringen 14 Bit. Ebenso die Nikon D300.
Wie man sieht habe ich nochmal weiter vorn gelesen. Wir müssten mal den "Headroom" genau definieren. Dafür gibt es aber schon mehrere Threads, also lassen wir das hier mal sein. Praktisch ist es so, dass vor dem Sensor noch ein Objektiv sitzt, und dessen physikalische Eigenschaften lassen noch nicht mal 12 Bit Gesamtumfang zu. Rechne mal aus was übrig bleibt, wenn vom ankommenden Licht an jeder Glas-Glas und Glas-Luft-Fläche nur 0,1% vom ankommenden Licht als Streulicht umgewandelt im Objektiv herum vagabundieren. Den Unterschied im Kontrast zwischen einem 5-Linser und einem 18-Linser kann man im direkten Vergleich sofort sehen. Das Einzige was wirklich hilft den Dynamikumfang des Sensors zu nutzen, ist die richtige Belichtung, will damit sagen Belichtung bis unmittelbar an die Sättigungsgrenze -> Expose to the right. Ob 12, 14, 16 oder sogar 24 Bit, das ist alles wurscht. Die C und N's bringen auch nur genau das, was durch das Objektiv ankommt, der Rest ist Marketing und auf den Bildern nicht zu sehen.
Man muß sich zum Beweis einfach mal die MTF-Kurven von Objektiven ansehen. Wie hoch geht denn der Maximalkontrast bei geringster Auflösung? Wenn da 98% herauskommen ist das schon ausgezeichnet. Andreas, Du hast das nötige Hintergrundwissen, welcher Störabstand ergibt sich daraus, wenn von 100% durch Streulicht 2% als "Grauschleier" am Sensor ankommen? Noch nicht mal 6 Blendenstufen! Das muß man sich mal ganz langsam auf der Zunge zergehen lassen. Alles was an größeren (Dynamikumfangs-)Werten angegeben wird ist effektiv nicht vorhanden. Man kann durch Bearbeitungstricks einen größeren Dynamikumfang vortäuschen, das ist aber nicht das was vorne in das Objektiv reingekommen ist.
 
Zuletzt bearbeitet:
AW: Frage zum Bildsensor der E-3?

Was nutzen mir 14 Blenden wenn Die auf meinen Ausgabemedien nicht darstellbar sind?
Z. Bspl. drucke ich noch sehr gerne Bilder aus oder lasse sie über einen Bilderdienst auf echtem Fotopapier ausbelichten - doch diesen Dynamikumfang werden diese Medien nicht darstellen können :cool:.
Es kommt eben darauf was man mit den Fotos tatsächlich macht. Vielen reichen ja heute schon die 8-Bit eines JPEG, und das zu recht. Mein Namensvetter hat ja schon das Beispiel mit dem Fotopapier oder Fotobuch genannt. Andere Anwendungen sind DVD/BluRay-Diashows...
Ich hoffe inständig, dass niemand im Zukunft spezielle Ausgabegeräte entwickelt, die mehr Dynamikumfang wiedergeben können. Das führt dann nur dazu, dass man sich aus lauter Höflichkeit stundenlang Hunderte allenfalls mittelmäßige Fotos in einem abgedunkelten Raum ansehen muss und dabei zu Tode gelangweilt wird... da waren wir schon mal mit dem analogen Dia, dessen Dynamik sich nur bei der Projektion entfalten konnte, sonst nie. Will da jemand hin zurück? Ich wette, die spanische Inquisition hätte die Diashow als Mittel zur peinlichen Befragung benutzt, wenn sie damals schon zur verfügung gestanden hätte. Umgekehrt hat es weder neolithischen Höhlenmalern noch deren moderneren Nachfolgern jemals Schwierigkeiten bereitet, den Dynamikumfang der Welt adäquat wiederzugeben, weder auf Fels noch auf Holz oder Leinwand. Selbst die Fotografie hat es eigentlich immer geschafft, Fotos irgendwie auf Papier zu bringen. Und digital sind mit HDR die dazu nötigen Werkzeuge bereits vorhanden, es hapert nur mit der Umsetzung...
Praktisch ist es so, dass vor dem Sensor noch ein Objektiv sitzt, und dessen physikalische Eigenschaften lassen noch nicht mal 12 Bit Gesamtumfang zu. Rechne mal aus was übrig bleibt, wenn vom ankommenden Licht an jeder Glas-Glas und Glas-Luft-Fläche nur 0,1% vom ankommenden Licht als Streulicht umgewandelt im Objektiv herum vagabundieren. Den Unterschied im Kontrast zwischen einem 5-Linser und einem 18-Linser kann man im direkten Vergleich sofort sehen. Das Einzige was wirklich hilft den Dynamikumfang des Sensors zu nutzen, ist die richtige Belichtung, will damit sagen Belichtung bis unmittelbar an die Sättigungsgrenze -> Expose to the right. Ob 12, 14, 16 oder sogar 24 Bit, das ist alles wurscht. Die C und N's bringen auch nur genau das, was durch das Objektiv ankommt, der Rest ist Marketing und auf den Bildern nicht zu sehen.
Man muß sich zum Beweis einfach mal die MTF-Kurven von Objektiven ansehen. Wie hoch geht denn der Maximalkontrast bei geringster Auflösung? Wenn da 98% herauskommen ist das schon ausgezeichnet. Andreas, Du hast das nötige Hintergrundwissen, welcher Störabstand ergibt sich daraus, wenn von 100% durch Streulicht 2% als "Grauschleier" am Sensor ankommen? Noch nicht mal 6 Blendenstufen! Das muß man sich mal ganz langsam auf der Zunge zergehen lassen. Alles was an größeren (Dynamikumfangs-)Werten angegeben wird ist effektiv nicht vorhanden. Man kann durch Bearbeitungstricks einen größeren Dynamikumfang vortäuschen, das ist aber nicht das was vorne in das Objektiv reingekommen ist.
Ich bin nicht sicher, ob ich Dich jetzt verstanden habe, aber könnte es sein, dass Du die Sache rein von der Transmission her betrachtest, und den Zeitfaktor der Belichtung, den Schwellenwert, der nötig ist, ein Signal zu erzeugen, wie auch die Anwendung der Gradationskurve, die erforderlich ist, um aus den Bits so etwas wie ein Bild zu machen, außer Acht läßt?
 
AW: Frage zum Bildsensor der E-3?

Ich bin nicht sicher, ob ich Dich jetzt verstanden habe, aber könnte es sein, dass Du die Sache rein von der Transmission her betrachtest, und den Zeitfaktor der Belichtung, den Schwellenwert, der nötig ist, ein Signal zu erzeugen, wie auch die Anwendung der Gradationskurve, die erforderlich ist, um aus den Bits so etwas wie ein Bild zu machen, außer Acht läßt?
Im Prinzip Jain. Am Sensor kommt so oder so nur das an Kontrast an, was das Objektiv in der Lage ist an Kontrast zu übertragen. Das Objektiv ist insofern das schwächste Glied in der Kette. So komisch das auch klingt, aber genau das wird immer unterschlagen, als ob die Kamera alleine für den aufgezeichneten Kontrast verantwortlich wäre. Siehe das MTF Chart eines anerkannt hervorragenden Objektivs.

h1_mtf_title01.gif



h2_popup_title01.gif



mtf_01.gif


mtf_02.gif


Dieses erreicht noch nicht einmal 95% Transmission. Insofern ist die Schwarzwerteinstellung bei RAW-Konvertern auf 5% sogar sehr vernünftig. Nur Rauschfetischisten wie wir drehen das auf 0, weil wir unbedingt nutzloses Rauschen sehen wollen.;) Wenn man dann durch Überbelichtung den Gesamtlevel nach oben zieht, erreicht man nichts anderes als das Anheben des Objektivseitig verursachten Grauschleiers. Der aufgezeichnete Kontrastumfang wird also kleiner, weil am oberen Ende im Lichterbereich Werte überlaufen. Das Rauschen wird geringer, weil im Schattenbereich das Rauschen vom Grauschleier überdeckt wird (da hilft auch kein dash :rolleyes:).
Was haben wir davon? Nichts, denn Lichter fressen aus, richtig dunkel wird es auch nicht. Die Gradationskurve kann auch nicht wieder zurückholen, was im Grauschleier versinkt oder ausgefressen ist, sie kann es nur irgendwie gewichtet in Jpeg umsetzen. Dann hebt man den Schwarzpegel an und es sieht so aus als wäre es ein toller Kontrast. Blöd nur, dass die im Grauschleier des Objektivs versunkenen Details trotzdem nicht auftauschen wie Orpheus aus der Unterwelt, genauso wie die übergelaufenen Lichter in den Weiten des Universums verschwunden sind. Es hilft nichts, man kann es drehen und wenden wie man will, mehr Kontrast als das Objektiv durchläßt landet eben nicht auf dem Sensor, auch wenn es Leute gibt, die uns das weißmachen wollen. Man denke sich in das Diagramm unten die MTF des Objektivs hineinprojiziert und nach oben bis an die 0 dBFS-Grenze geschoben, also exakt "Exposed to the right", dann wird klar, wo der Kontrast des Objektivs bei "groben" Strukturen endet, von der Wiedergabe feiner Strukturen wollen wir besser gar nicht erst reden. Das ist die fotografische Realität. Auch wenn das reinen Kameratheoretikern nicht so richtig gefallen sollte, zu Analogzeiten war das nicht anders, auch dort hat der Film nicht mehr aufzeichnen können und der Fachmann in der Dunkelkammer hat daraus erst ein Bild gemacht - durch kontraststeuernde Entwicklung.
 
Zuletzt bearbeitet:
AW: Frage zum Bildsensor der E-3?

@species: Das erwähnte Wort "Inquisition" trifft genau das, was ich meistens bei Dia-Vorträgen empfunden habe :rolleyes:

@wolfgang: Schon rein subjektiv habe ich gemerkt, dass der Kontrast auch vom Objektiv abhängt. So schafft meiner Meinung nach das 14-45 ganz deutlich nicht den Umfang des 14-54.

Kürzlich habe ich mit dem 14-45 mal Bilder mit der E-3 gemacht. Eigentlich alles nicht übel, aber die sonnige Stimmung des Tages konnte ich nicht so gut einfangen wie mit einem Pro-Objektiv.
 
AW: Frage zum Bildsensor der E-3?

Im Prinzip Jain. Am Sensor kommt so oder so nur das an Kontrast an, was das Objektiv in der Lage ist an Kontrast zu übertragen. Das Objektiv ist insofern das schwächste Glied in der Kette. So komisch das auch klingt, aber genau das wird immer unterschlagen, als ob die Kamera alleine für den aufgezeichneten Kontrast verantwortlich wäre. Siehe das MTF Chart eine anerkannt hervorragenden Objektivs.
All Right. Man korrigiere mich, wenn ich falsch liege, aber versteht man unter "Dynamikumfang" im landläufigen Sinne nicht genau das Gegenteil von Kontrast?

Streulicht könnte sich somit eventuell sogar positiv auf den wiedergegebenen Kontrastumfang, wenn auch negativ auf den Bildkontrast auswirken. Auf einem Foto sieht man wahrscheinlich den Unterschied, was aber, wenn man zu Meßzwecken einen Graukeil fotografiert?
 
AW: Frage zum Bildsensor der E-3?

All Right. Man korrigiere mich, wenn ich falsch liege, aber versteht man unter "Dynamikumfang" im landläufigen Sinne nicht genau das Gegenteil von Kontrast?

Streulicht könnte sich somit eventuell sogar positiv auf den wiedergegebenen Kontrastumfang, wenn auch negativ auf den Bildkontrast auswirken. Auf einem Foto sieht man wahrscheinlich den Unterschied, was aber, wenn man zu Meßzwecken einen Graukeil fotografiert?
Ähm.. hier haben sich jetzt Beiträge überschnitten, ich hatte weitereditiert, siehe oben. Thomas, du hast auch recht. Dynamikumfang und Kontrast sind zwar verschiedene Dinge aber auch voneinander abhängig. Ich kann natürlich einen Eingangsdynamikumfang von nur einer Blendenstufe auf einen Ausgabekontrast von 6 Blendenstufen aufblasen, wie das dann aussieht...:rolleyes:
Umgekehrt geht es ja auch (mit Hilfe des "Streulicht-Grauschleiers" sogar teils automatisch). Wie das aussieht wenn man es übertreibt:ugly:, hast Du ja schon in anderen Beiträgen anschaulich gezeigt.
Was zeigt der Graukeil, den wir immer zu sehen bekommen? Wie wird er aufgenommen? Wie grob ist seine Struktur? Das Ding hat meiner Meinung nach so gut wie keine praxisrelevante Bedeutung, aber man kann damit Vergleiche anstellen, die eindrucksvoll aussehen können. Was vom Kontrast (oder auch von dessen Helligkeitsumfang) des Graukeils transportiert denn das Objektiv zum Sensor? Ich muß doch nur ein kontrastarmes Objektiv verwenden und schon sieht der Graukeil nach Gradationskorrektur bei der Wiedergabe besser (höhere Eingansdynamik) aus als wenn ich durch ein Objektv mit hohem Kontrast unter Umständen den Aussteuerbereich des Sensors überfahre. Das Objektiv ist ein mehr oder weniger wirksamer Dynamikkompressor. Was ist eigentlich ein Graukeil? Welchen Objektkontrast hat ein Aufsichtgraukeil? Welchen Objektkontrast hat der in dpreview verwendete Durchlicht-Graukeil? Was macht ein reales Objektiv aus den Abstufungen des Graukeils? Warum endet die Dynamic Range - Kurve hier http://www.dpreview.com/reviews/nikond3x/page20.asp nicht auf der Nullinie?;)
Und ja, Streulicht wird ganz bewußt und gesteuert zur Dynamikerweiterung eingesetzt, das hat man ja schon immer so gemacht -> Vorbelichtung. Das ist alles nichts Neues und Fotografen kennen das.
Welchen Einfluß allein schon das Weglassen einer Streulichtblende hat, zeigt das Bild 1 unten.
Um den Dynamikumfang eines Sensors, das heißt den Bereich zwischen einem definierten Level über dem Rauschen und Aussteuergrenze zu messen, wäre mein Vorschlag nach Bild 2 unten Lichtflächen definierter Intensität ohne Zwischenschalten eines Objektivs streulichtfrei auf den Sensor zu projizieren und die Abbildung dieser Belichtung bei gleich gehaltener Belichtungszeit und ISO-Einstellung zu messen. Der Intensitätsunterschied der projizierten Lichtflächen zwischen Rauschen und Aussteuergrenze ist dann das Maß für die Eingangsdynamik des Sensors, oder genauer, des Sensors und der nachgeschalteten Auswerteelektronik bis zum RAW.

Noch eine Bemerkung zu den Lichtempfängern (Fotodioden) des Sensors.
Der Dynamikumfang dieser Empfänger ist auf alle Fälle größer als die Dynamik, welche ein gutes Objektiv übertragen kann. Die ganze Rauschdiskussion ist eigentlich ein völliger Quatsch (ich weiß, jetzt trete ich einigen auf die Füße), denn wenn man es geschickt anstellt, dann kann man die angeblich so rauscharmen Exemplare bei manchen KB-DSLR's mit einer FT ohne weiteres übertreffen. Man muß sich dazu nur mal die Samples von dpreview herunterladen und genau analysieren. Mehr dazu hier lieber nicht, sonst gibt es wieder eine überflüssige Diskussion, weil ich gegen ein Dogma verstoßen habe.
Extrem rauscharme Sensoren (gekühlt und in Mikroskopen und Teleskopen eingesetzt) können ihr Potential nur unter besonderen Bedingungen ausspielen. Zum Beispiel in Spiegelteleskopen, welche kein Streulicht durch Linsenflächen - weil diese eben fehlen - erzeugen, bei Nacht und in extrem klarer Luft in großer Höhe. Hier zum Beispiel: http://en.wikipedia.org/wiki/Very_Large_Telescope

Interessant ist auch das Rauschen, was oftmals in den mittleren Helligkeiten zu sehen ist und manchmal auch nicht wegzukriegen ist ohne die Strukturen zu verschmieren. Es gibt da nämlich noch etwas, was das "Rauschen" erhöht, die Mikrolinsen. Jetzt werden einige den Kopf schütteln, ich sehe es schon. Aber: Wie gleichmäßig sind sie dimensioniert (jede einzelne) in Größe und Form? Wie genau sind sie über den Pixeln positioniert (jede einzelne)? Die Halbleiterschichten im Sensor sind sehr eng toleriert herstellbar, diese Prozesse hat man im Griff. Mit den Mikrolinsen ist das nicht so einfach. http://www.digitalkamera.de/Meldung/Neuer_Panasonic_Sensor_bringt_neue_Hoffnung/4060.aspx Auch wenn die Pixel alle extrem wenig oder gar nicht voneinander abweichen würden, würden immer noch Unterschiede von Pixel zu Pixel auftreten, weil nicht jeder einzelne Pixel wegen den Toleranzen der Mikrolinsen in Position und Gestalt gleich versorgt wird, obwohl die Beleuchtung über die Fläche mehrerer Pixel exakt gleich ist. Die Folge ist etwas, was man als Farb-und Luminanzrauschen bezeichnen kann, was aber durch unterschiedliche Ladung erzeugte ungleichmäßige Darstellung trotz gleichmäßiger Motivhelligkeit in Bildbereichen ist, die weit über dem Dunkelstromrauschen versorgt sind. Es kommen noch andere Effekte hinzu, die etwas verursachen können was man unter bestimmten Bedingungen als "Rauschen" interpretieren könnte. An dieser Stelle nur zwei Stichworte dazu: Anti-Aliasing-Filter, Moiré. Abhängig davon, wo welcher Strahl die Bayer-Matrix trifft, kann es zu einem wahrhaft schillernden Ergebnis führen.
Es gibt Sensoren ohne Mikrolinsen, die bei den Hasselblads verwendet werden. Ich weiß nicht aus welchem Grund man bei diesen Sensoren und einigen anderen auch die Mikrolinsen weggelassen hat. Die Gleichmäßigkeit der Lichtempfindlichkeit und die damit zusammenhängende Kennlinie über den Arbeitsbereich der Pixel könnte ein Grund sein. Die Kosten sind es bei dieser Sensorklasse sicher nicht.
 
Zuletzt bearbeitet:
AW: Frage zum Bildsensor der E-3?

O.k., offenbar reden wir wohl doch nicht so weit aneinander vorbei. Nur dazu noch:
...zu Analogzeiten war das nicht anders, auch dort hat der Film nicht mehr aufzeichnen können und der Fachmann in der Dunkelkammer hat daraus erst ein Bild gemacht - durch kontraststeuernde Entwicklung.
Ja, im analogen Negativ werden Helligkeitsunterschiede in Form von Dichte gespeichert, das Negativ selbst hat keinen Kontrast. Durch Belichtung des Papiers & Entwicklung wird dann wieder ein Bild draus. Im digitalen Negativ werden Helligkeitsunterschiede in Form von Bits gespeichert, und die müssen dann z.T. schon bei der Entwicklung nicht unerheblich gespreizt und geschunden werden, damit das Ganze aussieht wie ein Bild. Je weiter man das treibt, desto schlechter gelingt die Trennung zwischen Signal und Rauschen.
Was zeigt der Graukeil, den wir immer zu sehen bekommen? Wie wird er aufgenommen? Wie grob ist seine Struktur? Das Ding hat meiner Meinung nach so gut wie keine praxisrelevante Bedeutung, aber man kann damit Vergleiche anstellen, die eindrucksvoll aussehen können.
Zum Graukeil: Man geht hierbei immer davon aus, dass der Motivkontrast gleichmäßig verteilt ist. Ist er aber in der Realität nicht. Bei vielen Gegenlichtsituationen hat man jede Menge heller Partien, die Zeichnung haben sollen, und jede Menge dunkler Partien, die nicht schwarz werden dürfen, und dazwischen ist ein Loch, Mitteltöne fehlen völlig. In wieder anderen Situationen wird es dagegen unter Umständen niemandem auffallen, dass eigentlich die Schatten zulaufen und die Lichter ausbrennen. Wir diskutieren hier oft Messtechnik, bringen die aber mit Ästhetik (gutes, gelungenes Bild) durcheinander oder setzen beides identisch.

Zum Rauschen: Analoger Film besteht im Prinzip aus nichts anderem als Rauschen. Silberkristalle haben keinen Dynamikumfang. Aber wenn das Rauschen genügend fein ist, steigt auch der "Dynamikumfang" beim analogen Foto an.
Das Problem ist also nicht das Rauschen an sich, sondern es genügend fein und genügend gleichmäßig zu bekommen. Und daran hapert es offenbar, tatsächlich zeigen sich ungleichmäßig verteilte "Rauschinseln", die sich nicht so einfach wegrechnen lassen, und das Bild Herunterzuskalieren hilft hier ebenfalls nicht. Die einzelnen Pixel sind gar nicht das Problem.
 
AW: Frage zum Bildsensor der E-3?

O.k., offenbar reden wir wohl doch nicht so weit aneinander vorbei. Nur dazu noch:

Ja, im analogen Negativ werden Helligkeitsunterschiede in Form von Dichte gespeichert, das Negativ selbst hat keinen Kontrast. Durch Belichtung des Papiers & Entwicklung wird dann wieder ein Bild draus. Im digitalen Negativ werden Helligkeitsunterschiede in Form von Bits gespeichert, und die müssen dann z.T. schon bei der Entwicklung nicht unerheblich gespreizt und geschunden werden, damit das Ganze aussieht wie ein Bild. Je weiter man das treibt, desto schlechter gelingt die Trennung zwischen Signal und Rauschen.

Zum Graukeil: Man geht hierbei immer davon aus, dass der Motivkontrast gleichmäßig verteilt ist. Ist er aber in der Realität nicht. Bei vielen Gegenlichtsituationen hat man jede Menge heller Partien, die Zeichnung haben sollen, und jede Menge dunkler Partien, die nicht schwarz werden dürfen, und dazwischen ist ein Loch, Mitteltöne fehlen völlig. In wieder anderen Situationen wird es dagegen unter Umständen niemandem auffallen, dass eigentlich die Schatten zulaufen und die Lichter ausbrennen. Wir diskutieren hier oft Messtechnik, bringen die aber mit Ästhetik (gutes, gelungenes Bild) durcheinander oder setzen beides identisch.

Zum Rauschen: Analoger Film besteht im Prinzip aus nichts anderem als Rauschen. Silberkristalle haben keinen Dynamikumfang. Aber wenn das Rauschen genügend fein ist, steigt auch der "Dynamikumfang" beim analogen Foto an.
Das Problem ist also nicht das Rauschen an sich, sondern es genügend fein und genügend gleichmäßig zu bekommen. Und daran hapert es offenbar, tatsächlich zeigen sich ungleichmäßig verteilte "Rauschinseln", die sich nicht so einfach wegrechnen lassen, und das Bild Herunterzuskalieren hilft hier ebenfalls nicht. Die einzelnen Pixel sind gar nicht das Problem.
Da gehen wir doch komplett Kondom.:)
Beitrag #38 habe ich nochmal erweitert.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten