Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Warum "" - hat schon mal "ein Bit" gefehlt
.
Ist wegen des geringen Headroom. 14 Blenden sind besser als 12, oder?
Die Canon 40D, 50D und selbst die 450D bringen 14 Bit. Ebenso die Nikon D300.
Haarsträubend! Und zum Schluß sind es immer nur 8 Bit, egal ob aus ursprünglich 12 oder aus 16. Was ich an "Bitauflösung" an der einen Stelle in Form von feinerer Tonwertabstufung nutze fehlt an einer anderen Stelle. Ganz abgesehen davon, dass die 14 oder 16 Bit vom Rauschabstand und der Eingangsdynamik her gar nicht erreicht werden können, weil das interne Streulicht der Objektive schon die am Sensor ankommende Dynamik auf ungefähr 7.. 8 Blendenstufen begrenzt. Objektive haben keine 100% Transmission. 12 Bit sind eine kostengünstige und gut beherrschbare Wandlertiefe. Wenn man eine größere Wandlerauflösung verwendet, erhöht das den Aufwand und die Probleme, verbessert aber unter dem Strich nicht das Bild. Das muß man mir zwar jetzt nicht glauben, ist aber in der Praxis so. Erst mit ebenfalls 12 Bit bei der Bildausgabe, soweit das ein Monitor überhaupt kann, könnte man den Tonwertreichtum nutzen. Auf Papier wären die Abstufungen vielleicht noch machbar, dafür ist aber die Dynamik im Eimer. Wie hoch ist denn die Wiedergabedynamik eines Aufsichtbildes? Mehr als 12 Bit blasen die Daten auf, nützen aber nichts, außer als Marketingargument.Schon klar, Blenden kann man nicht direkt in Bits umrechnen. Irgendjemand hatte hier auch mal geschrieben, der Dynamikumfang der Oly-JPEGs liegt bei 9-9,5 Blenden.
Da ein RAW-Konverter normalerweise ein 48-Bit TIFF entwickelt ist es schon schade wenn die E-3 davon nur einen Bruchteil des möglichen Wertebereichs nutzt. Nehmen wir mal an ein X steht für ca. 1000 Helligkeitswerte:
xxxx -> 4096 = 12 Bit (E-3)
xxxx xxxx xxxx xxxx -> 16384 = 14 Bit (D300)
xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx xxxx -> 65536 = 16 Bit
Eine Olympus nimmt pro Sensorpixel 4096 Helligkeitswerte auf, eine D300 feiner abgestufte 16384. Alles rein theoretisch natürlich.
Es kommt natürlich darauf was man mit den Fotos macht. Vielen reicht ja heute schon die 8-Bit eines JPEG, und das zu recht.
Ist schon klar, habe ich auch so verstanden. Schön wäre es ja, wenn der ganze Dynamikumfang und Tonwertreichtum darstellbar wäre. Leider kommt die Gesamtdynamik eben nicht am Sensor an und dann haut's auch nicht mit der Tonwertauflösung hin. Das war es, was ich nur mal etwas hervorheben wollte für Leute, die mit Bits und Bytes nicht so sehr viel anfangen können. In der Theorie hast du recht solange es die reine Datenkonvertierung angeht. Dein Schaubild mit den x'en vermittelt leicht einen falschen Eindruck, wenn man die Zusammenhänge nicht kennt. Das letzte Bit hinten ist bei 16 Bit Wandlertiefe eben nur 1/65535, vorne aber Faktor 2. Das hintere Bit (LSB) ist also (praktisch) nicht sichtbar, während das vordere Bit (MSB) einen Sprung von einer Blendenstufe bedeutet (bei linearer Kurve).Ich habe ja geschrieben: alles rein THEORETISCH. Nur weil der Wertebereich grösser ist müssen die Bilddaten natürlich nicht besser sein!
Dass es am Schluss nur 8 Bit, dafür kann die Kamera ja nichts. Das liegt an unseren bescheidenen Ausgabegeräten. Das Auge selbst kann immer noch wesentlich mehr Helligkeitsstufen (nicht Farben!) sehen als die heute bezahlbaren TFTs darstellen können.
Wie man sieht habe ich nochmal weiter vorn gelesen. Wir müssten mal den "Headroom" genau definieren. Dafür gibt es aber schon mehrere Threads, also lassen wir das hier mal sein. Praktisch ist es so, dass vor dem Sensor noch ein Objektiv sitzt, und dessen physikalische Eigenschaften lassen noch nicht mal 12 Bit Gesamtumfang zu. Rechne mal aus was übrig bleibt, wenn vom ankommenden Licht an jeder Glas-Glas und Glas-Luft-Fläche nur 0,1% vom ankommenden Licht als Streulicht umgewandelt im Objektiv herum vagabundieren. Den Unterschied im Kontrast zwischen einem 5-Linser und einem 18-Linser kann man im direkten Vergleich sofort sehen. Das Einzige was wirklich hilft den Dynamikumfang des Sensors zu nutzen, ist die richtige Belichtung, will damit sagen Belichtung bis unmittelbar an die Sättigungsgrenze -> Expose to the right. Ob 12, 14, 16 oder sogar 24 Bit, das ist alles wurscht. Die C und N's bringen auch nur genau das, was durch das Objektiv ankommt, der Rest ist Marketing und auf den Bildern nicht zu sehen.Ist wegen des geringen Headroom. 14 Blenden sind besser als 12, oder?
Die Canon 40D, 50D und selbst die 450D bringen 14 Bit. Ebenso die Nikon D300.
Was nutzen mir 14 Blenden wenn Die auf meinen Ausgabemedien nicht darstellbar sind?
Z. Bspl. drucke ich noch sehr gerne Bilder aus oder lasse sie über einen Bilderdienst auf echtem Fotopapier ausbelichten - doch diesen Dynamikumfang werden diese Medien nicht darstellen können.
Ich hoffe inständig, dass niemand im Zukunft spezielle Ausgabegeräte entwickelt, die mehr Dynamikumfang wiedergeben können. Das führt dann nur dazu, dass man sich aus lauter Höflichkeit stundenlang Hunderte allenfalls mittelmäßige Fotos in einem abgedunkelten Raum ansehen muss und dabei zu Tode gelangweilt wird... da waren wir schon mal mit dem analogen Dia, dessen Dynamik sich nur bei der Projektion entfalten konnte, sonst nie. Will da jemand hin zurück? Ich wette, die spanische Inquisition hätte die Diashow als Mittel zur peinlichen Befragung benutzt, wenn sie damals schon zur verfügung gestanden hätte. Umgekehrt hat es weder neolithischen Höhlenmalern noch deren moderneren Nachfolgern jemals Schwierigkeiten bereitet, den Dynamikumfang der Welt adäquat wiederzugeben, weder auf Fels noch auf Holz oder Leinwand. Selbst die Fotografie hat es eigentlich immer geschafft, Fotos irgendwie auf Papier zu bringen. Und digital sind mit HDR die dazu nötigen Werkzeuge bereits vorhanden, es hapert nur mit der Umsetzung...Es kommt eben darauf was man mit den Fotos tatsächlich macht. Vielen reichen ja heute schon die 8-Bit eines JPEG, und das zu recht. Mein Namensvetter hat ja schon das Beispiel mit dem Fotopapier oder Fotobuch genannt. Andere Anwendungen sind DVD/BluRay-Diashows...
Ich bin nicht sicher, ob ich Dich jetzt verstanden habe, aber könnte es sein, dass Du die Sache rein von der Transmission her betrachtest, und den Zeitfaktor der Belichtung, den Schwellenwert, der nötig ist, ein Signal zu erzeugen, wie auch die Anwendung der Gradationskurve, die erforderlich ist, um aus den Bits so etwas wie ein Bild zu machen, außer Acht läßt?Praktisch ist es so, dass vor dem Sensor noch ein Objektiv sitzt, und dessen physikalische Eigenschaften lassen noch nicht mal 12 Bit Gesamtumfang zu. Rechne mal aus was übrig bleibt, wenn vom ankommenden Licht an jeder Glas-Glas und Glas-Luft-Fläche nur 0,1% vom ankommenden Licht als Streulicht umgewandelt im Objektiv herum vagabundieren. Den Unterschied im Kontrast zwischen einem 5-Linser und einem 18-Linser kann man im direkten Vergleich sofort sehen. Das Einzige was wirklich hilft den Dynamikumfang des Sensors zu nutzen, ist die richtige Belichtung, will damit sagen Belichtung bis unmittelbar an die Sättigungsgrenze -> Expose to the right. Ob 12, 14, 16 oder sogar 24 Bit, das ist alles wurscht. Die C und N's bringen auch nur genau das, was durch das Objektiv ankommt, der Rest ist Marketing und auf den Bildern nicht zu sehen.
Man muß sich zum Beweis einfach mal die MTF-Kurven von Objektiven ansehen. Wie hoch geht denn der Maximalkontrast bei geringster Auflösung? Wenn da 98% herauskommen ist das schon ausgezeichnet. Andreas, Du hast das nötige Hintergrundwissen, welcher Störabstand ergibt sich daraus, wenn von 100% durch Streulicht 2% als "Grauschleier" am Sensor ankommen? Noch nicht mal 6 Blendenstufen! Das muß man sich mal ganz langsam auf der Zunge zergehen lassen. Alles was an größeren (Dynamikumfangs-)Werten angegeben wird ist effektiv nicht vorhanden. Man kann durch Bearbeitungstricks einen größeren Dynamikumfang vortäuschen, das ist aber nicht das was vorne in das Objektiv reingekommen ist.
Im Prinzip Jain. Am Sensor kommt so oder so nur das an Kontrast an, was das Objektiv in der Lage ist an Kontrast zu übertragen. Das Objektiv ist insofern das schwächste Glied in der Kette. So komisch das auch klingt, aber genau das wird immer unterschlagen, als ob die Kamera alleine für den aufgezeichneten Kontrast verantwortlich wäre. Siehe das MTF Chart eines anerkannt hervorragenden Objektivs.Ich bin nicht sicher, ob ich Dich jetzt verstanden habe, aber könnte es sein, dass Du die Sache rein von der Transmission her betrachtest, und den Zeitfaktor der Belichtung, den Schwellenwert, der nötig ist, ein Signal zu erzeugen, wie auch die Anwendung der Gradationskurve, die erforderlich ist, um aus den Bits so etwas wie ein Bild zu machen, außer Acht läßt?
All Right. Man korrigiere mich, wenn ich falsch liege, aber versteht man unter "Dynamikumfang" im landläufigen Sinne nicht genau das Gegenteil von Kontrast?Im Prinzip Jain. Am Sensor kommt so oder so nur das an Kontrast an, was das Objektiv in der Lage ist an Kontrast zu übertragen. Das Objektiv ist insofern das schwächste Glied in der Kette. So komisch das auch klingt, aber genau das wird immer unterschlagen, als ob die Kamera alleine für den aufgezeichneten Kontrast verantwortlich wäre. Siehe das MTF Chart eine anerkannt hervorragenden Objektivs.
Ähm.. hier haben sich jetzt Beiträge überschnitten, ich hatte weitereditiert, siehe oben. Thomas, du hast auch recht. Dynamikumfang und Kontrast sind zwar verschiedene Dinge aber auch voneinander abhängig. Ich kann natürlich einen Eingangsdynamikumfang von nur einer Blendenstufe auf einen Ausgabekontrast von 6 Blendenstufen aufblasen, wie das dann aussieht...All Right. Man korrigiere mich, wenn ich falsch liege, aber versteht man unter "Dynamikumfang" im landläufigen Sinne nicht genau das Gegenteil von Kontrast?
Streulicht könnte sich somit eventuell sogar positiv auf den wiedergegebenen Kontrastumfang, wenn auch negativ auf den Bildkontrast auswirken. Auf einem Foto sieht man wahrscheinlich den Unterschied, was aber, wenn man zu Meßzwecken einen Graukeil fotografiert?
Ja, im analogen Negativ werden Helligkeitsunterschiede in Form von Dichte gespeichert, das Negativ selbst hat keinen Kontrast. Durch Belichtung des Papiers & Entwicklung wird dann wieder ein Bild draus. Im digitalen Negativ werden Helligkeitsunterschiede in Form von Bits gespeichert, und die müssen dann z.T. schon bei der Entwicklung nicht unerheblich gespreizt und geschunden werden, damit das Ganze aussieht wie ein Bild. Je weiter man das treibt, desto schlechter gelingt die Trennung zwischen Signal und Rauschen....zu Analogzeiten war das nicht anders, auch dort hat der Film nicht mehr aufzeichnen können und der Fachmann in der Dunkelkammer hat daraus erst ein Bild gemacht - durch kontraststeuernde Entwicklung.
Zum Graukeil: Man geht hierbei immer davon aus, dass der Motivkontrast gleichmäßig verteilt ist. Ist er aber in der Realität nicht. Bei vielen Gegenlichtsituationen hat man jede Menge heller Partien, die Zeichnung haben sollen, und jede Menge dunkler Partien, die nicht schwarz werden dürfen, und dazwischen ist ein Loch, Mitteltöne fehlen völlig. In wieder anderen Situationen wird es dagegen unter Umständen niemandem auffallen, dass eigentlich die Schatten zulaufen und die Lichter ausbrennen. Wir diskutieren hier oft Messtechnik, bringen die aber mit Ästhetik (gutes, gelungenes Bild) durcheinander oder setzen beides identisch.Was zeigt der Graukeil, den wir immer zu sehen bekommen? Wie wird er aufgenommen? Wie grob ist seine Struktur? Das Ding hat meiner Meinung nach so gut wie keine praxisrelevante Bedeutung, aber man kann damit Vergleiche anstellen, die eindrucksvoll aussehen können.
Da gehen wir doch komplett Kondom.O.k., offenbar reden wir wohl doch nicht so weit aneinander vorbei. Nur dazu noch:
Ja, im analogen Negativ werden Helligkeitsunterschiede in Form von Dichte gespeichert, das Negativ selbst hat keinen Kontrast. Durch Belichtung des Papiers & Entwicklung wird dann wieder ein Bild draus. Im digitalen Negativ werden Helligkeitsunterschiede in Form von Bits gespeichert, und die müssen dann z.T. schon bei der Entwicklung nicht unerheblich gespreizt und geschunden werden, damit das Ganze aussieht wie ein Bild. Je weiter man das treibt, desto schlechter gelingt die Trennung zwischen Signal und Rauschen.
Zum Graukeil: Man geht hierbei immer davon aus, dass der Motivkontrast gleichmäßig verteilt ist. Ist er aber in der Realität nicht. Bei vielen Gegenlichtsituationen hat man jede Menge heller Partien, die Zeichnung haben sollen, und jede Menge dunkler Partien, die nicht schwarz werden dürfen, und dazwischen ist ein Loch, Mitteltöne fehlen völlig. In wieder anderen Situationen wird es dagegen unter Umständen niemandem auffallen, dass eigentlich die Schatten zulaufen und die Lichter ausbrennen. Wir diskutieren hier oft Messtechnik, bringen die aber mit Ästhetik (gutes, gelungenes Bild) durcheinander oder setzen beides identisch.
Zum Rauschen: Analoger Film besteht im Prinzip aus nichts anderem als Rauschen. Silberkristalle haben keinen Dynamikumfang. Aber wenn das Rauschen genügend fein ist, steigt auch der "Dynamikumfang" beim analogen Foto an.
Das Problem ist also nicht das Rauschen an sich, sondern es genügend fein und genügend gleichmäßig zu bekommen. Und daran hapert es offenbar, tatsächlich zeigen sich ungleichmäßig verteilte "Rauschinseln", die sich nicht so einfach wegrechnen lassen, und das Bild Herunterzuskalieren hilft hier ebenfalls nicht. Die einzelnen Pixel sind gar nicht das Problem.