Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Warum sollte jemand einen A/D Wandler konstruieren, die nicht sichtbar sind, aber meßbar?
Ja und Nein. Du hast mit deiner Darstellung Recht (wenn man gleiche Codierungsverfahren verwendet). Ich bezog mich auf die breitere Diskussion, daß ich auch mittels 16bit Darstellung zuweilen Farben in einem Farbraum nicht darstellen kann, die im anderen Farbraum enthalten sind.Wieso nicht? So unrecht hat er nicht. Der Farbraum wird ja nicht kontinuierlich abgedeckt, sondern durch viele einzelne Punkte, die aber so nah beieinander liegen, dass der Mensch keine Farbsprünge zwischen 2 Punkten (also 2 benachbarten Farben) erkennt. Und die Anzahl dieser Punkte ändert sich nun mal nicht, bloß der Abstand zwischen ihnen. Es werden also nicht mehr, sondern nur andere Farben dargestellt.
Wenn Du dabei die finale Auflösung des Bildes aus dem Sensor um den Faktor 4 reduzierst, gebe ich dir Recht. Jedes "finale" Pixel besteht dann aus 4 Subpixeln (RGBG). Das wäre dann die gleiche Betrachtungsweise wie bei Monitoren, wo ja auch nicht die Auflösung der Subpixeln angegeben wird.Ich verstehe übrigens auch nicht, welche Bauchschmerzen Ihr mit "36bit" oder "42bit Farbtiefe" habt. Es mag nicht ganz korrekt sein, aber man versteht doch, was gemeint ist, oder nicht? Und wenn nun wirklich alle RGGB-Sensel jeweils 12 oder 14 signifikante Bits erfassen, unterscheidet sich die damit erreichbare Farbtiefe systematisch und erheblich von 36bit oder 42bit? Kommen dabei nicht näherungsweise 2^36 oder 2^42 messbar (nicht mit dem Auge erkennbar!) unterschiedliche Farben raus?
Bezugnehmend auf Matthias's Post. Es sind 2 Betrachtungen. Die eine ist die mögliche Abdeckung des Farbraums. Die zweite ist die "Schrittweite" zwischen den abgebildeten Farben. Solange, diese Schrittweite kleiner als die des Auges ist, wird es dabei keinen Qualitätsverlust zwischen den Farben geben, die in beiden Farbräumen vorkommen. Unabhängig von der gewählten Schrittweite, wird es trotz dieser Überlappung Farben geben, die in den einem Farbraum abgebildet werden können und im anderen nicht.Aber die Verbesserungen in Grüntönen, einschließlich des Blau-Grün-Bereiches wird bei Adobe RGB doch mit weniger Farben im Rot- und Gelbbereich erkauft. Damit wird der Farbraum zwar erweitert (insbesondere beim Drucken) aber die Anzahl der unterschiedlichen Farben nicht vergrößert. Das geht ja auch nicht, ohne das man die Bit-Zahl der Datei und somit auch die Größe verändert.
Bei Wide-Gamut-TFT-Display Kann Adobe RGB sogar sichtbare Nachteile haben. Wenn man Die Fotos im Internet zeigt oder irgendwo mit sRGB drucken lassen will sowieso.
Ich habe deshalb mal gelernt, dass man den Farbraum erst festlegen sollte, wenn man das Ausgabemedium und dessen Farbraum kennt. Vorher sollte man möglichst mit mindestens 12-Bit Farben (oder RAW) arbeiten. Damit stellt man möglichst sicher, dass keine Farben verloren gehen, die auf irgend einem Ausgabemedium sichtbar werden.
Diese Aussage in seiner Allgemeingültigkeit wage ich zu bezweifeln. Es hängt von den Umständen ab. Es kommt immer wieder vor, daß im RAW keine Tonwertabrisse zu sehen sind und nach der Umwandlung in JPEG schon. Egal ob sRGB oder AdobeRGB als Farbraum gewählt wurde.@Masi1157: nein.
Vergleich mal den Unterschied zwischen RGB=(127,128,127) und RGB=(127,127,127) von einem JPG, indem du zwei Ebenen mit diesen Farben nebeneinander stellst. Es gibt keinen Unterschied. Kleinen Abstufungen 12 Bit oder 14 Bit haben keinen sichtbaren Vorteil gegenüber den 8 Bit.
Ob mit 12 oder 14 bit digitalisiert wird hat keinen Einfluß, welchen Dynamikumfang ein Sensor und die nachgeschaltete A/D Wandlung erzielen kann. Durch die linearisierte Abbildung der Dynamik gibt es nur eine Abhängigkeit. Wenn ich mehr als 12 EV Belichtungsstufen in RAW abspeichern möchte, muß ich mehr als 12bit pro Sensel vorsehen. Da Kameras vor einiger Zeit diese Dynamikgrenze überschritten haben, ist 14 bit als Speichergröße notwendig geworden. Wenn die ersten Sensoren mehr als 14 EV Dynamik aufnehmen können ist der nächste Schritt notwendig, der vermutlich dann auf 16bit gehen wird.Ob der A/D Wandler 12 Bit oder 14 Bit mit vernünftigen Daten ausfüllen kann, dass ist die entscheidende Frage und kann theortisch nicht beanwortet werden. Sicherlich darf man hoffen auf mehr Dynamikumfang und weniger Rauschen in diesen 14 Bit Bildern.
Wenn Du dabei die finale Auflösung des Bildes aus dem Sensor um den Faktor 4 reduzierst, gebe ich dir Recht. Jedes "finale" Pixel besteht dann aus 4 Subpixeln (RGBG). Das wäre dann die gleiche Betrachtungsweise wie bei Monitoren, wo ja auch nicht die Auflösung der Subpixeln angegeben wird.
Das ist richtig, löst aber nicht alle Probleme. Wenn die Selektion der Farbfilter eines Sensors für bestimmte Farben eines Farbraums blind sind, kann die resultierende Farbe des Farbraums nicht dargestellt werden. Das ist der Grund, warum im Druck zuweilen 4,5,6,7,8 Farb druck verwendet wird. Einerseits um den Farbraum zu erweiteren, andereseits, die Graduierung feiner hinzubekommen. Es würde mich nicht wundern, wenn in Zukunft Sensoren mit mehr als den 3 Filterfarben RGB Massenware werden.
Matthias,Wieviele signifikante Stellen haben also die beiden errechneten Farben? Auch 14? Oder ein bisschen weniger? So ganz weit weg von maximal 3x14=42 wird man doch nicht landen?
ich würde mal vermuten, daß das sehr von der Ortsfrequenz des jeweiligen Farbmusters abhängig ist.
Ich habe deshalb mal gelernt, dass man den Farbraum erst festlegen sollte, wenn man das Ausgabemedium und dessen Farbraum kennt. Vorher sollte man möglichst mit mindestens 12-Bit Farben (oder RAW) arbeiten. Damit stellt man möglichst sicher, dass keine Farben verloren gehen, die auf irgend einem Ausgabemedium sichtbar werden.