Ein anderer Ansatz zur unendlichen Geschichte von Auflösung, Schärfentiefe, Rauschen und Format.
Eigentlich bilden wir mit der Kamera einen Raumwinkel auf eine zweidimensionale Fläche ab.
Das heißt wir haben eine bestimmte Menge an Energie pro Zeiteinheit, die uns der abgebildete
Raum an die Eintrittspupille des Objektivs in Form von Photonen liefert. Diese Energie wird
nun vom Objektiv an die Sensorfläche weitergegeben und dort u. a. abhängig vom Öffnungsverhältnis
(der Blendeneinstellung) verteilt. Um eine bestimmte Auflösung zu erreichen, brauchen wir eine
bestimmte Menge an Photonen, die auf der Fläche des Sensors verteilt wird. Da aber pro Zeiteinheit
nur eine bestimmte Menge an Photonen vor dem Objektiv (dem aufgenommenen Raum) zur Verfügung
steht, habe ich grundsätzlich nur zwei Möglichkeiten, bei gegebener Helligkeit (der Energie aus
dem abgebildeten Raum) das Bild auf dem Sensor zu beeinflussen: Die Zeit und die Öffnung des
Objekivs (Blende). Die Gesetze der Optik sorgen nun dafür, dass eine Ebene aus dem abgebildeten
Raum (die Gegenstandsebene) mit hoher Auflösung (also scharf) auf dem Sensor (die Bildebene)
abgebildet wird.
http://elmar-baumann.de/fotografie/lexikon/gegenstandsebene.html
Um eine hohe Auflösung zu erhalten, muss man viele Photonen auf die Bildebene lenken. Das ist
sicher einleuchtend, denn feine Details kann man nur mit vielen kleinen Mosaikstückchen (den
Photonen) darstellen. Da aber nur eine begrenzte Anzahl Photonen pro Zeiteinheit zur Verfügung
steht, müssen die Photonen, die für die Auflösung in der Bildebene gebraucht werden, irgendwo
anders fehlen. In den Bildebenen (Mosaiken) vor und hinter der Ebene mit der besten Schärfe
bleiben im Mosaik zwangsläufig Lücken. Vergrößern wir die Schärfentiefe durch Abblenden, dann
verlieren wir Energie wegen der kleineren Öffnung und damit auch Licht am Sensor, es wird dunkler.
Das können wir dann nur wieder mit Verlängern der Zeit kompensieren um auf die notwendige Anzahl
Photonen für eine höhere Auflösung zu kommen. Um mehr scharfe Bildebenen (Mosaiken) vor und hinter
der Ebene mit der besten Schärfe zu bekommen brauchen wir also mehr Photonen (Mosaiksteine).
Der Witz an der Sache ist, dass bei der Abbildung des immer gleichen Raumwinkels die Brennweite
und die Sensorgröße keine Rolle spielen, sie kürzen sich sozusagen heraus.
Welche Auflösung brauchen wir um ein Bild "scharf" zu sehen? Dafür gibt es zwei Variablen und
eine Konstante, welche die notwendige Auflösung bestimmen. Die Konstante ist das Auflösungsvermögen
des Auges. Das Auflösungsvermögen des bloßen Auges beträgt unter idealen Bedingungen etwa 0,5' bis 1'
(' = Winkelminuten), entsprechend 1 mm auf 3-6 Meter.
http://de.wikipedia.org/wiki/Auflösungsvermögen#Auge
Die Variablen sind die Bildgröße und der Betrachtungsabstand. Der Kontrast hat natürlich für den
Schärfeeindruck auch eine wesentliche Bedeutung. Hier nehmen wir an, dass immer genug Kontrast
für einen optimalen Schärfeeindruck vorhanden ist. Ich gehe jetzt mal der einfachen Rechnerei
wegen davon aus, dass wir uns ein Bild aus einem Abstand ansehen wollen, welcher der Länge der
längsten Seite des Bildes entspricht. Eine Auflösung von 3000 Pixeln an der längsten Seite für ein
Bild von 1 Meter Breite in 1 Meter Betrachtungsabstand wäre also ausreichend. Ein Sensor mit einer
Auflösung von ungefähr 6...7 Megapixeln würde diesen Anforderungen genügen, wenn nicht durch
Ausschnittkorrekturen die Gesamtauflösung des Bildes verkleinert wird. Weil wir uns ein Bild auch
mal aus geringerer Distanz ansehen wollen und durch Beschnitt Verluste entstehen, darf es also
auch etwas mehr sein. Für kleinere oder größere Betrachtungsabstände oder noch höhere Auflösung
(für hochwertigen Druck zum Beispiel) kann man ja nun leicht umrechnen.
Um es uns einfach zu machen, gehen wir mal von 12 Megapixel aus (4000 x 3000). Das sollte dann
für sehr gute Augen unter optimalen Bedingungen und für Ausschnittkorrekturen ausreichen.
Wir sind immer noch bei immer dem gleichen Raumwinkel, den wir mit verschiedenen Formaten
aufnehmen wollen. Wir erinnern uns, die Auflösung hatten wir auf 4000 x 3000 = 12 MP festgelegt.
Jetzt vergrößern wir mal bei gleicher Auflösung das Aufnahmeformat von beispielsweise 13 x 17,3 mm auf
36 x 48 mm (bei nach wie vor 12 MP). Um den gleichen Raumwinkel wie bei dem kleineren Format
abbilden zu können brauchen wir jetzt die 2,8-fache Brennweite. Welche Menge an Licht (oder Energie)
durch das Objektiv auf den Sensor pro Flächeneinheit gelangt, ist bei gleicher Blendenzahl gleich
der Lichtmenge bei dem kleineren Sensor. So weit so gut. Welchen Vorteil hat das große Format
bei der Ausgabe auf die gleiche Größe wie bei dem kleinen Format? Es sind ja nach wie vor nur 12 MP
Auflösung vorhanden. Ich gehe jetzt mal der einfachen Rechnung wegen von einer Ausbelichtung mit
200 dpi aus. Mit 4000 Pixeln an der langen Kante können wir also ein Bild auf 508 mm Breite ausgeben.
Das trifft für das große wie auch für das kleine Sensorformat zu, denn beide haben die gleiche Auflösung.
Für unser Auge bedeutet das, dass bei einer Auflösung von 0,165 mm auf 0,5 m Entfernung (siehe oben, 0,5')
die Auflösung des Bildes eigentlich nur 154 dpi betragen müsste und wir es auch mal aus kürzerer Distanz
betrachten können ohne gleich die Pixel einzeln sehen zu können. Das ist, wie ich meine, durchaus praxisgerecht.
Jetzt sind wir raffiniert und vergrößern bei dem großen Sensor die Auflösung. Weil es einfach zu rechnen
ist nehmen wir die 4-fache Auflösung, also 48 MP, entsprechend 8000 x 6000 Pixel. Das sind Auflösungen,
die auch in der Praxis in diesen Größenordnungen realisiert wurden. Die auf die Gesamtfläche des Sensors
auftreffende Energie ändert sich dadurch nicht, weil sich ja an den anderen Parametern (Raumwinkel und
Öffnung des Objektivs) nichts geändert hat. Auf jedes der Pixel treffen also nur 1/4 der eingefangenen
Photonen auf. Das macht nichts, denn es sind ja 4x so viele Empfangsdioden auf dem Sensor und damit findet
ja wieder jedes Photon seinen Platz. Die Stelle, wo es auftrifft kann nun aber genauer bestimmt werden,
denn auf dem ehemaligen Platz eines Pixels sind ja nun deren vier untergebracht = höhere Auflösung.
Außerdem gehen wir bei den Sensoren immer von der gleichen Technologie aus. Dass es von der Technologie
abhängige Eigenschaften gibt ist klar (Sensor-Eingangsdynamik, Füllfaktor etc.).
Was bedeutet das für den Sensor und die nachfolgende Signalverarbeitung?
Damit pro aufgelöstem Bildpunkt nun wieder die gleiche Helligkeit erreicht werden kann, muss man die
Blende öffnen und das bedeutet zwangsläufig geringere Schärfentiefe. Die andere Alternative ist die
Erhöhung der Verstärkung nach den Pixeldioden, und damit einher geht eine Erhöhung des Rauschens.
Dafür haben wir dann wieder die gleiche Schärfentiefe bei gleicher Belichtungszeit und Blende und nach
"außen" angegebener gleicher ISO-Einstellung. Zu den Zeiten des Analogfilms war das anders. Bei höherer
Auflösung des Films (feinkörnigerer Film) wurde die Empfindlichkeit automatisch geringer. Es war ja nicht
möglich, jedes einzelne Filmkorn zu "verstärken". Versucht hat man es trotzdem durch puschen mit der
chemischen Keule. Die alten Hasen unter uns wissen welchen Kompromiss man damit eingehen musste.
Dafür kannte der Film kein Dunkelstromrauschen bei Langzeitbelichtungen, was heute zu einigen Klimmzügen
bei der Bildaufnahme in der Astrofotografie und für andere Langzeitaufnahmen geführt hat.
Das Bild vom 48 MP Sensor geben wir nun wieder auf unsere oben festgelegte Größe von 508 mm Breite aus.
Das ausgegebene Bild hätte also theoretisch - wenn die Ausbelichtung mitspielt - eine Auflösung von 400 dpi.
Das die kleineren Pixel und die nachfolgenden Verstärker und AD-Wandler usw. insgesamt mehr rauschen merken
wir nicht, denn die Unterschiede zwischen den einzelnen Pixeln gehen in der begrenzten Auflösung unseres Auges
unter. Nur die Gesamthelligkeit und Farbe einer Gruppe von in diesem Fall mindestens 4 Pixeln können wir erkennen.
Wäre das nicht so, dann würde es keine Farbmonitore oder Farbfernseher geben so wie wir sie kennen.
Deren Funktionsprinzip gründet sich ja auf die Nichterkennbarkeit der Einzelfarben und Einzelhelligkeiten
die kleiner sind als die Augen sie auflösen können.
Andersrum betrachtet dürfte das Bild des 48 MP Sensors bei einem Betrachtungsabstand von 0,5 m auch 1,35 m breit
sein (bei 150 dpi Grenzauflösung des Auges), ohne dass wir mit unseren Augen eine Beeinträchtigung der Bildschärfe
feststellen können, und wenn wir dann noch etwas näher heran gehen sehen wir möglicherweise schon die Unterschiede
zwischen den einzelnen Pixeln und erkennen das Rauschen. Das wäre dann unsere 100%-Ansicht, wie wir sie als
Pixelpeeper ;-) kennen.
Für die gleiche Bilddarstellung auf unserer Ausbelichtung von 508 mm Breite ist der 36 x 48 mm² Sensor
mit 48 MP also etwas oversized. Mit nur 12 MP bringt er auch keinen Vorteil, weil die Auflösung auch mit dem kleinen
Sensor erreichbar ist und zusätzlich der Bauraum um den Sensor kleiner gehalten werden kann. Außerdem muss
man für die gleiche Bilddarstellung auf unserer Ausbelichtung des in der Fläche 7,68-fach größeren Sensors wegen
in diesem Beispiel um ca. 3 Stufen abblenden und den Energieverlust durch erhöhen a) der Belichtungszeit
oder b) der Verstärkung ausgleichen. Das hat im Fall a) gegebenenfalls Bewegungsunschärfe und im Fall b) auch
erhöhtes Rauschen zur Folge.
Zäumen wir das Pferd von der anderen Seite auf, dann brauchen wir für den größeren Sensor zwingend auch
eine höhere Verstärkung der empfangenen Energie des einzelnen Pixels wenn eine gößere Schärfentiefe notwendig
ist und dazu die Blende geschlossen werden muß. Denn, ich erinnere an den Energieerhaltungssatz, der abgebildete
Raumwinkel gibt ja nicht mehr her weil der Sensor größer ist, wird aber auf eine größere Fläche abgebildet und
damit wird die Abbildungsdichte rsp. Auflösung insgesamt geringer. Erst die Bild-Ausgabe auf das gleiche Format
wie bei dem kleineren Sensor stellt die gleichen Verhältnisse wieder her.
Ein anderer Vergleich zum Verständnis: Ein Zimmer von 4m x 4m Fläche und 2,5m Höhe wird von einem Fenster
mit 1 qm Lichtdurchlaß beleuchtet. Wir merken uns die Helligkeit der dem Fenster gegenüber liegenden
Wand. Das gleiche Fenster soll jetzt bei gleicher Tageslichthelligkeit einen Saal von 40m x 40m Fläche und
25m Höhe ausleuchten. Wie hell beleuchtet wird jetzt die dem Fenster gegenüber liegende Wand?
Wie groß müsste der Lichtdurchlaß des Fensters sein, damit die ihm gegenüber liegende Wand wieder gleich hell
wie in dem kleinen Zimmer beleuchtet wird?
Wer noch tiefer einsteigen will siehe dazu auch hier zum Lichtleitwert etc.:
http://home.arcor.de/ottophysik/OP_13.pdf
http://www.mikroskopie.de/pfad/koehlerbeleuchtung/main.html?sechs.html
http://www.tu-ilmenau.de/fakmb/file...wertung_2_Physikalisch-optische_Abbildung.pdf
Und jetzt drehen wir die ganze Sache mal um und nehmen einen ganz kleinen Sensor von 8,65 mm x 6,5 mm
Kantenlänge mit ebenfalls 12 MP. Wir ahnen schon was kommt. Um den gleichen Raumwinkel abbilden zu können
brauchen wir nun die halbe Brennweite im Vergleich zum 17,3 mm x 13 mm Sensor. Ich mach's kurz:
Die Energie aus dem Raumwinkel bei gleicher Blendenzahl auf die kleinere Sensorfläche projiziert reicht
nun aus um eine größere Schärfentiefe scharf (höher aufgelöst) abzubilden. Man müsste also die Blende
weiter öffnen und die Verstärkung nach dem Sensor verringern (oder die Sensorempfindlichkeit verringern),
wenn man die Schärfentiefe verkleinern will. Jeder einzelne Pixel erhält jetzt die 4-fache Menge an Energie,
dafür ist er halt nur 1/4 so groß. Auf unserer Ausgabegröße von 508 mm Breite würde sich an der Bilddarstellung
nichts ändern, wenn wir die Blende weit genug öffnen könnten.
Jetzt nehmen wir noch eine physikalische Eigenschaft des Lichts (auch jeder anderen Strahlung) hinzu,
die Beugung an der Öffnung. Sie wirkt sich um so stärker aus, je kleiner die Öffnung ist.
In unserem Falle im Bereich der Fotografie ist sie im wesentlichen vom Öffnungsverhältnis des Objektivs
abhängig, und zwar im Betrag der Auslenkung auf Sensorebene bei allen Formaten in etwa gleich.
Die theoretisch mögliche Auflösung bzw. die Beugung ist auch abhängig von der Wellenlänge. Näherungsweise
ist das bei 550 nm in Winkelminuten 120/D (D in mm). Bei Blende 2,8 ist das etwa 1 µm auf Sensorebene.
Das bedeutet, dass der Anteil der Beugung bezogen auf die Kantenlänge des Sensors immer größer wird
je kleiner der Sensor wird. Unser kleiner Sensor mit 8,65 mm x 6,5 mm hat bei 12 MP eine lineare Auflösung
an der Kante von 2,16 µm. Diese Auflösung wird bereits bei Blende 5,6 erreicht und mit weiterem Abblenden
immer schlechter. Die Pixel unseres ganz großen Sensors (36 x 48 mm²) würden die Beugung erst bei Blende 32 bemerken.
Was ist nun die Moral von der Geschicht?
Wo die Grenzen bei der Bildgestaltung sind, hängt von den technischen Möglichkeiten ab. Ganz unabhängig von der
Baugröße der übrigen Komponenten des Systems betrachtet und unter der Voraussetzung dass der gleiche Raumwinkel
aufgenommen und auf die gleiche Ausgabegröße ausgegeben werden soll, ergeben sich die folgenden Unterschiede:
Der ganz große Sensor braucht mehr Licht, um die gleiche Auflösung zu erreichen wie der kleinere Sensor oder
er muss mit der kleineren Schärfentiefe zufrieden sein.
Der ganz kleine Sensor braucht weniger Licht um die gleiche Auflösung zu erreichen als der größere Sensor oder
er muss eine größere Schärfentiefe hinnehmen.
Wo die Grenzen der Bilddarstellung bei Verwendung des großen und und kleinen Sensors gezogen werden müssen hängt
davon ab, welche Öffnungsverhältnisse bei den Objektiven vor dem Sensor technisch machbar (und "tragbar" in
finanzieller wie gewichtsmäßiger Hinsicht) sind.
Der ganz große Sensor ermöglicht eine sehr hohe Auflösung, wenn das Objektiv eine große Öffnung hat. Dafür muss
er dann mit einer kleinen Schärfentiefe auskommen. Soll auch mit einer größeren Schärfentiefe (also einer größeren
Auflösung größerer Bildteile bzw. in der Bild"tiefe") abgebildet werden, dann braucht der große Sensor mehr Energie.
Die erhält er entweder durch stärkeren Energiefluß (helleres Licht) oder durch längeren Energiefluß (längere Belichtungszeit).
Damit wird auch verständlich, warum Kameras mit so großen Sensoren eher im Studio und mit viel Licht eingesetzt werden.
Das eine Hasselblad H3DII-31 zum Beispiel trotz ihrer großen Pixel und Mikrolinsen in der Empfindlichkeit nur bis
ISO 1600 geht, könnte ebenfalls darin begründet sein. Die neue H4D-60 endet schon bei 800 ISO.
Die in diesem Bild "Sensordata_5DII.jpg" im Anhang grafisch dargestellten Messwerte aus
http://www.clarkvision.com/imagedetail/digital.sensor.performance.summary/#data (Canon 5D Mark II)
zeigen ab 1600 ISO ein Einbrechen der Dynamik und die Tabelle davor zur Canon 50D den Unterschied von ca. 1 Blendenstufe
zur 5D Mark II. Natürlich spielen auch Unterschiede in der Technologie eine Rolle, die Entwicklung geht weiter.
An den physikalischen Gesetzmäßigkeiten ändert das aber nichts.
Die Auflösung des ganz kleinen Sensors wird sehr früh schon von der Beugung zunichte gemacht. Man kann durch weiteres
Abblenden die Schärfentiefe vergrößeren, aber die Auflösung im Bereich der größten Schärfe wird schlechter weil
das Beugungsscheibchen jetzt mehrere Pixel überdeckt.
(siehe Airy-Disk
http://www.epsilon-lyrae.de/Seeing/Begriffe/Begriffe.html)
Der ganz große Sensor würde uns bei Blende 2,8 theoretisch eine Auflösung von 1,728 Gigapixel ermöglichen. Wir könnten
also aus 50 cm Entfernung ein Bild von 7,92 Meter Breite ansehen ohne einen Schärfeverlust in der abgebildeten
Schärfeebene zu bemerken.
Der ganz kleine Sensor dagegen würde uns bei Blende 2,8 theoretisch eine Auflösung von 48 Megapixel ermöglichen.
Wir könnten damit aus 50 cm Entfernung ein Bild von 1,32 Meter Breite ansehen ohne einen Schärfeverlust zu bemerken.
Mit der Blende 2,8 wäre dann aber auch Ende der Fahnenstange. So hohe Auflösungen haben bei solch kleinen Sensoren
deshalb nur einen sehr begrenzten Nutzen. Der Spielraum mit der Blende ist minimal. Bei Blende 11 (die von den kleinen
Kompakten selten oder gar nicht angeboten wird) wären wir schon bei einer nutzbaren Auflösung von nur noch 3 MP
entsprechend 2000 x 1500 Pixel Kantenlänge. Bei nur 100 dpi Ausgabeauflösung wäre mit einem Betrachtungsabstand
von 25 cm bei einer Bildbreite von 50,8 cm endgültig Schluss. Man könnte näher ran gehen, würde aber nicht mit mehr
Details belohnt. Für einen Full-HD-TV-Fernseher bei üblichem Betrachtungsabstand reicht es aber völlig aus.
Bei dem ganz großen Sensor mit 48 MP und Blende 32 wäre die Beugung gerade in der Größenordnung der Pixel und wir
könnten aus 50 cm Entfernung noch ein Bild von 1,35 Meter Breite ohne Auflösungsverlust ansehen.
Wir erinnern uns, der mittelgroße 12 MP Sensor erlaubt uns aus 0,5 m Betrachtungsabstand immerhin eine Bildbreite
von 0,67 Meter für "100%-Ansicht" bei optimalem Kontrast mit einem sehr guten Auge und Grenzauflösung. Jetzt wird
auch klar, warum ganz kleine Sensoren bei unseren üblichen Ausgabegrößen noch so erstaunlich gut zu gebrauchen sind.
Für 20 x 30 Bilder muß man von der Auflösung her gesehen keine größeren Formate haben als sie die Kompaktkameras bieten.
Ein pixelpeeperisches Studium der verschiedensten Sensorformate und Auflösungen quer durch alle Marken aus aktuellem
Entwicklungsstand bei 100%-Ansicht hat gezeigt, dass unter der Voraussetzung gleiche Schärfentiefe und ungefähr gleiche
Detaildarstellung alle Sensoren auch ungefähr gleich rauschen. Wenn man die Herkunft der Bilder nicht kennt, ist es
schwer bis unmöglich heraus zu finden von welchem Sensor die 100%-Bilder stammen. Die Rauschunterdrückungs-, Kontrast-,
Farbsättigungs- und Schärfungseinstellungen haben einen zu großen Einfluß auf das Ergebnis, so dass eine Unterscheidung
auf RAW-Ebene stattfinden muss. Inwieweit auch da schon im Verborgenen auf das Ergebnis Einfluss genommen wird wissen wir
nicht. Wer es nicht glaubt mache bitte einen Blindtest mit Personen welche die Bilder nicht kennen. Was unter dem Strich
bleibt ist die notwendige Skalierung für die Bildausgabe. Mehr Pixel kann man mehr zusammendampfen und damit werden die
einzelnen Pixel und deren Rauschen vom Auge nicht mehr aufgelöst. Je kleiner die Sensoren werden, um so mehr wird die
erzielbare Auflösung von der Beugung bestimmt. Je größer die Sensoren werden, um so mehr wird die Auflösung von der
Größe der Objektivöffnung, dem Pixelpitch und dem vorhandenen Licht im aufgenommenen Raumwinkel bestimmt. In allen
Fällen ist die Auflösung außerdem abhängig davon, wie gut die Entwickler die nicht beugungsabhängigen Abbildungsfehler
der Optik korrigieren können. Beiden kleinen Kompaktkameras kommt noch hinzu, dass durch die hohe Packungsdichte der
Elektronik und die eingeschränkten Möglichkeiten zur internen Abschirmung vor gegenseitigen Störungen das Rauschverhalten
nicht gerade verbessert wird. Die heutigen Technologien ermöglichen höhere Empfindlichkeiten als mit dem Analogfilm
möglich war. Der nachfolgende chemische Prozess konnte nicht so viel aus den Körnern quetschen wie heute die ganze
Kette der elektronischen Verarbeitung nach den Sensor-Empfangsdioden, die trotz weniger Licht noch gute Ergebnisse
ermöglicht. Aber auch da sind Grenzen gesetzt. Man könnte das Format noch größer machen, aber bei noch "tragbarer"
Optik hätte das ebenso längere Belichtungszeiten zur Folge.
Das Thema Rauschen ist wesentlich komplexer als es hier dargestellt ist. Hier in Kapitel 5.4 kann man noch
mehr darüber erfahren:
http://dip-seminar-online.com/bvawebger/seminarraum/bvakapitel/statisti/statisti.pdf
Zitat:
"Photonenrauschen hat seine Ursache in der Quantennatur des Lichts. Die Anzahl der Photonen, die während der Belichtungszeit T auf die lichtempfindliche Fläche eines Pixels trifft, ist selbst bei gleicher Helligkeit niemals gleich. Bei niederen Lichtintensitäten ist der Effekt besonders einschneidend, und man kann nachweisen, daß die Verteilung durch eine Poisson - Verteilung beschrieben werden kann. Die drei Standardannahmen für das Rauschen gelten für das Photonenrauschen also nicht:
– Photonenrauschen ist nicht signalunabhängig (die Standardabweichung ist eine Funktion des Mittelwertes)
– Die Häufigkeitverteilung des Photonenrauschens ist keine Gaußfunktion
– Das Photonenrauschen ist nicht additiv.
Glücklicherweise kann man aber das Photonenrauschen vernachlässigen, wenn der Sensor ein relativ hohes Sättigungsniveau hat. Die Abhilfe bei Photonenrauschen sind also höhere Lichtintensitäten. Wo diese nicht zur
Verfügung stehen, wie in der Astronomie, hilft man sich mit höheren Integrationszeiten. Dann nimmt das Thermische Rauschen überhand. Dies ist
jedoch ein lineares Phänomen und kann mathematisch leichter gehandhabt
bzw. durch Vorkehrungen reduziert werden."
Weitere Links:
http://de.wikipedia.org/wiki/Bildrauschen
http://sprec000.lima-city.de/Digicam7.html
Grundsätzlich ist das Entrauschen ja nichts anderes, als der Versuch davor aufgetretene Mängel in der Verarbeitungskette
zu korrigieren. Dabei kann die Elektronik nicht unterscheiden, woher nun bei einem einzelnen Pixel die Abweichung kommt. Das
kann die Folge des Photonenrauschens oder auch eine spontane Veränderung aus dem Bauteil selbst sein. Bei einer Rauschfilterung
(um mal die Analogie zur Audiotechnik herzustellen) werden eben die hohen Frequenzen (feine und feinste Details) mehr oder
weniger in Mitleidenschaft gezogen. Die beste Entrauschung erhält man durch rauscharme Bauteile, eine Leitungsführung die
Einkopplungen bzw. Übersprechen verhindert (Banding z. B.), niedrige Arbeitsfrequenzen bzw. geringe Flankensteilheit von
digitalen Signalen (ein Bild auslesen, bearbeiten und abspeichern in 60 Sekunden :-( ), Abschirmungen gegen Störungen intern
und von außen usw., also indem man alles das was im Bild als Rauschen interpretiert wird von vorne herein verhindert.
Beim Sensor selbst ist nicht mehr sooo viel zu holen. Das Gesamtpaket der Maßnahmen bringt den Erfolg.
Solange die Gesetze der Optik dem nicht entgegen stehen, wäre der Weg zum kleineren Sensor mit hoher Auflösung
meiner Meinung nach der in die richtige Richtung. In dieser Richtung entwickeln sich ja auch die Technologien.
Wenn man die Elektronik auf dem engen Raum gut im Griff hat, dann kann man unterhalb des Beugungslimits sehr gute
Ergebnisse erzielen. Wo für den jeweiligen Anwender die Grenzen zu ziehen sind, ist davon abhängig, für welches
Spezialgebiet er das System einsetzt. Manchmal helfen nur mehrere Systeme weiter.
Will oder kann man sich nur ein System leisten, dann kann man sich aus allen existierenden Möglichkeiten nun den
Kompromiss heraussuchen der für die eigenen Bedürfnisse, nämlich maximale Ausgabegröße, beabsichtigtem Einsatzbereich
und beabsichtigter Präsentation am besten passt.
Eigenschaften wie schneller Autofokus, viele AF-Messfelder, schnelle Bildfolge, Abdichtung, Robustheit, Flexibilität
der Ausrüstung usw. haben mit der technischen Bildqualität an sich nichts zu tun und sind Auswahlkriterien für
bestimmte Anwendungsfälle. Manche Kriterien lassen sich nicht gleichzeitig mit einem System erfüllen.
Beispiel: Maximales Spielen mit geringer Schärfentiefe und Ausgabe im Plakatformat für kurzen Betrachtungsabstand
ist nicht vereinbar mit langer Brennweite, großer Lichtstärke und 10 fps für Aufnahmen vom Tor auf der anderen Seite
des Fußballfeldes. Der Eine braucht das MF-Digiback und der Andere das Cropsystem mit dem Tele und der schnellen Bildfolge.
Für die Erinnerungsfotos von der Inselwanderung im Album auf 10x15 reicht auch die Kompakte.
Zum Abschluss noch ein bildhafter Vergleich von drei Systemen.
Kompakte mit Superzoom:
http://www.dpreview.com/reviews/q209grouplongzoom/page7.asp
http://www.dpreview.com/reviews/specs/Olympus/oly_sp590uz.asp
Nur ein Zoom für FT:
http://www.olympus.de/digitalkamera...1_2_8_5057_zubehoer_technische_daten_5064.htm
Nur ein Zoom für KB mit vergleichbarem Bildwinkel und mit gleicher Lichtstärke:
http://www.sigma-foto.de/cms/front_content.php?client=1&lang=1&idcat=36&idart=271
Und nun eines mit vergleichbarem Bildwinkelbereich und gleicher Lichtstärke für Mittelformat:
...
Unten noch das im Text angegebene Diagramm "Sensordata_5DII.jpg" und ein paar Bildbeispiele.
Im folgenden Beitrag findet Ihr noch ein paar Diagramme zur Veranschaulichung ohne weitere Worte.