• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb August 2025.
    Thema: "Kurven"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum August-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Vergleich zwischen KB, APS, FT bezüglich Lichtstärke, Ausleuchtung und Rauschen

Wem meine Beiträge zu subjektiv sind empfehle ich mal die Lektüre dieses Threads:
http://www.photoscala.de/node/3661
Aber bitte bis zum Ende durchlesen.
Alternativ kann man sich in den Foren der Marktführer ansehen, wie dort die eigenen Marke vertreten wird. Wem's langweilig ist...
 
selbstverständlich kann man über alles diskutieren
Vorteile und Nachteile abwägen
aber hier hatte ich so ein Gefühl, das selbstverständlich subjektiv ist

dir ist es ja auch aufgefallen das er sehr FT lastig ist sonst hättest du es nicht erwähnt
Ich weiß zwar nicht welche Marke er hat
aber ich wette sein Format ist FT

mfG
Heinz
 
Ich weiß ja nicht ob das aufgefallen ist. Aber ich hatte die 5D nicht gerade als benachteiligt hingestellt.
@geologen: ".... aber ich wette sein Format ist FT"
Und ja, ist es. Das steht auch so im Profil.
Warum die Wahl auf FT gefallen ist habe ich hier
https://www.dslr-forum.de/showthread.php?t=242585&page=13#129
schon mal dargelegt.
Es kommt auch noch ein ganz individueller Grund dazu. Wer schon mal mit dem ganzen Gelumpe vor dem Bauch eine Felswand hinauf geklettert ist weiß was ich meine. Das kann richtig gefährlich werden. Es ist ein Vorteil, wenn die Ausrüstung so klein ist, dass man sie auch noch in den Rucksack stecken kann ohne dafür andere Ausrüstung wegwerfen zu müssen. Mit den Eigenschaften einer Kompaktknipse bin ich auf Tour eben nicht zufrieden. Für eine 2-wöchige Hochtour hat man so allerlei dabei. Eine zu diesem Zweck so kleine, leichte und auch Bildqualitätsmäßig gleichwertige Ausstattung wie ich sie habe, konnte ich nirgenwo sonst finden. Das bischen mehr Rauschen spielt bei mir eben keine Rolle. Wenn mir das wichtig wäre, dann hätte ich die 5D oder D3.
Das sind eben die ganz persönlichen Anforderungen, welche letztlich für jeden eine andere Entscheidung zur Folge haben.
 
Zuletzt bearbeitet:
Hallo Franz! .)
Selbstverständlich ist es mir aufgefallen und ich habe dies ja auch in meiner ersten Antwort angesprochen.
trotzdem konnte ich seinen Text durchaus auch auf Grund der sachlichen Inhalte würdigen.
Ich denke,es ist eben schwer,einen völlig wertungsfreien Beitrag zu verfassen,um so mehr,daß man immer auch seine persönlichen Erfahrungen mit berücksichtigt und diese kann man niemanden ausreden.
Mein Ding ist FT auch nicht,aber auch meine Meinung ist nur auf Grund subjektiver Erfahrungen entstanden.
Um so mehr sollte man Wolfgangs Abhandlung achten,die (wenigstens mir) wichtige Zusammenhänge und Hintergründe aufzeigte.
Mit freundlichen Grüßen,-Stephan! :)
 
Angeregt durch einen Querbeet-Vergleich zwischen vielen Marken und Aufnahmeformaten in z. B. dpreview
aber auch anderen und die Betrachtung von Userbildern hier im Forum, habei mir im Laufe der Zeit
immer wieder mal Gedanken gemacht und diese aufgeschrieben. Zum Schluß habe ich das alles in eine
zusammenhängende Form gebracht.

Im nächsten Beitrag meines am 30.10.2007 begonnenen Threads gebe ich das Ergebnis preis.
Vielleicht schafft es der/die Eine oder Andere bis zum Ende zu lesen.
 
Ein anderer Ansatz zur unendlichen Geschichte von Auflösung, Schärfentiefe, Rauschen und Format.

Eigentlich bilden wir mit der Kamera einen Raumwinkel auf eine zweidimensionale Fläche ab.
Das heißt wir haben eine bestimmte Menge an Energie pro Zeiteinheit, die uns der abgebildete
Raum an die Eintrittspupille des Objektivs in Form von Photonen liefert. Diese Energie wird
nun vom Objektiv an die Sensorfläche weitergegeben und dort u. a. abhängig vom Öffnungsverhältnis
(der Blendeneinstellung) verteilt. Um eine bestimmte Auflösung zu erreichen, brauchen wir eine
bestimmte Menge an Photonen, die auf der Fläche des Sensors verteilt wird. Da aber pro Zeiteinheit
nur eine bestimmte Menge an Photonen vor dem Objektiv (dem aufgenommenen Raum) zur Verfügung
steht, habe ich grundsätzlich nur zwei Möglichkeiten, bei gegebener Helligkeit (der Energie aus
dem abgebildeten Raum) das Bild auf dem Sensor zu beeinflussen: Die Zeit und die Öffnung des
Objekivs (Blende). Die Gesetze der Optik sorgen nun dafür, dass eine Ebene aus dem abgebildeten
Raum (die Gegenstandsebene) mit hoher Auflösung (also scharf) auf dem Sensor (die Bildebene)
abgebildet wird. http://elmar-baumann.de/fotografie/lexikon/gegenstandsebene.html
Um eine hohe Auflösung zu erhalten, muss man viele Photonen auf die Bildebene lenken. Das ist
sicher einleuchtend, denn feine Details kann man nur mit vielen kleinen Mosaikstückchen (den
Photonen) darstellen. Da aber nur eine begrenzte Anzahl Photonen pro Zeiteinheit zur Verfügung
steht, müssen die Photonen, die für die Auflösung in der Bildebene gebraucht werden, irgendwo
anders fehlen. In den Bildebenen (Mosaiken) vor und hinter der Ebene mit der besten Schärfe
bleiben im Mosaik zwangsläufig Lücken. Vergrößern wir die Schärfentiefe durch Abblenden, dann
verlieren wir Energie wegen der kleineren Öffnung und damit auch Licht am Sensor, es wird dunkler.
Das können wir dann nur wieder mit Verlängern der Zeit kompensieren um auf die notwendige Anzahl
Photonen für eine höhere Auflösung zu kommen. Um mehr scharfe Bildebenen (Mosaiken) vor und hinter
der Ebene mit der besten Schärfe zu bekommen brauchen wir also mehr Photonen (Mosaiksteine).
Der Witz an der Sache ist, dass bei der Abbildung des immer gleichen Raumwinkels die Brennweite
und die Sensorgröße keine Rolle spielen, sie kürzen sich sozusagen heraus.

Welche Auflösung brauchen wir um ein Bild "scharf" zu sehen? Dafür gibt es zwei Variablen und
eine Konstante, welche die notwendige Auflösung bestimmen. Die Konstante ist das Auflösungsvermögen
des Auges. Das Auflösungsvermögen des bloßen Auges beträgt unter idealen Bedingungen etwa 0,5' bis 1'
(' = Winkelminuten), entsprechend 1 mm auf 3-6 Meter.
http://de.wikipedia.org/wiki/Auflösungsvermögen#Auge
Die Variablen sind die Bildgröße und der Betrachtungsabstand. Der Kontrast hat natürlich für den
Schärfeeindruck auch eine wesentliche Bedeutung. Hier nehmen wir an, dass immer genug Kontrast
für einen optimalen Schärfeeindruck vorhanden ist. Ich gehe jetzt mal der einfachen Rechnerei
wegen davon aus, dass wir uns ein Bild aus einem Abstand ansehen wollen, welcher der Länge der
längsten Seite des Bildes entspricht. Eine Auflösung von 3000 Pixeln an der längsten Seite für ein
Bild von 1 Meter Breite in 1 Meter Betrachtungsabstand wäre also ausreichend. Ein Sensor mit einer
Auflösung von ungefähr 6...7 Megapixeln würde diesen Anforderungen genügen, wenn nicht durch
Ausschnittkorrekturen die Gesamtauflösung des Bildes verkleinert wird. Weil wir uns ein Bild auch
mal aus geringerer Distanz ansehen wollen und durch Beschnitt Verluste entstehen, darf es also
auch etwas mehr sein. Für kleinere oder größere Betrachtungsabstände oder noch höhere Auflösung
(für hochwertigen Druck zum Beispiel) kann man ja nun leicht umrechnen.
Um es uns einfach zu machen, gehen wir mal von 12 Megapixel aus (4000 x 3000). Das sollte dann
für sehr gute Augen unter optimalen Bedingungen und für Ausschnittkorrekturen ausreichen.

Wir sind immer noch bei immer dem gleichen Raumwinkel, den wir mit verschiedenen Formaten
aufnehmen wollen. Wir erinnern uns, die Auflösung hatten wir auf 4000 x 3000 = 12 MP festgelegt.
Jetzt vergrößern wir mal bei gleicher Auflösung das Aufnahmeformat von beispielsweise 13 x 17,3 mm auf
36 x 48 mm (bei nach wie vor 12 MP). Um den gleichen Raumwinkel wie bei dem kleineren Format
abbilden zu können brauchen wir jetzt die 2,8-fache Brennweite. Welche Menge an Licht (oder Energie)
durch das Objektiv auf den Sensor pro Flächeneinheit gelangt, ist bei gleicher Blendenzahl gleich
der Lichtmenge bei dem kleineren Sensor. So weit so gut. Welchen Vorteil hat das große Format
bei der Ausgabe auf die gleiche Größe wie bei dem kleinen Format? Es sind ja nach wie vor nur 12 MP
Auflösung vorhanden. Ich gehe jetzt mal der einfachen Rechnung wegen von einer Ausbelichtung mit
200 dpi aus. Mit 4000 Pixeln an der langen Kante können wir also ein Bild auf 508 mm Breite ausgeben.
Das trifft für das große wie auch für das kleine Sensorformat zu, denn beide haben die gleiche Auflösung.
Für unser Auge bedeutet das, dass bei einer Auflösung von 0,165 mm auf 0,5 m Entfernung (siehe oben, 0,5')
die Auflösung des Bildes eigentlich nur 154 dpi betragen müsste und wir es auch mal aus kürzerer Distanz
betrachten können ohne gleich die Pixel einzeln sehen zu können. Das ist, wie ich meine, durchaus praxisgerecht.

Jetzt sind wir raffiniert und vergrößern bei dem großen Sensor die Auflösung. Weil es einfach zu rechnen
ist nehmen wir die 4-fache Auflösung, also 48 MP, entsprechend 8000 x 6000 Pixel. Das sind Auflösungen,
die auch in der Praxis in diesen Größenordnungen realisiert wurden. Die auf die Gesamtfläche des Sensors
auftreffende Energie ändert sich dadurch nicht, weil sich ja an den anderen Parametern (Raumwinkel und
Öffnung des Objektivs) nichts geändert hat. Auf jedes der Pixel treffen also nur 1/4 der eingefangenen
Photonen auf. Das macht nichts, denn es sind ja 4x so viele Empfangsdioden auf dem Sensor und damit findet
ja wieder jedes Photon seinen Platz. Die Stelle, wo es auftrifft kann nun aber genauer bestimmt werden,
denn auf dem ehemaligen Platz eines Pixels sind ja nun deren vier untergebracht = höhere Auflösung.
Außerdem gehen wir bei den Sensoren immer von der gleichen Technologie aus. Dass es von der Technologie
abhängige Eigenschaften gibt ist klar (Sensor-Eingangsdynamik, Füllfaktor etc.).

Was bedeutet das für den Sensor und die nachfolgende Signalverarbeitung?
Damit pro aufgelöstem Bildpunkt nun wieder die gleiche Helligkeit erreicht werden kann, muss man die
Blende öffnen und das bedeutet zwangsläufig geringere Schärfentiefe. Die andere Alternative ist die
Erhöhung der Verstärkung nach den Pixeldioden, und damit einher geht eine Erhöhung des Rauschens.
Dafür haben wir dann wieder die gleiche Schärfentiefe bei gleicher Belichtungszeit und Blende und nach
"außen" angegebener gleicher ISO-Einstellung. Zu den Zeiten des Analogfilms war das anders. Bei höherer
Auflösung des Films (feinkörnigerer Film) wurde die Empfindlichkeit automatisch geringer. Es war ja nicht
möglich, jedes einzelne Filmkorn zu "verstärken". Versucht hat man es trotzdem durch puschen mit der
chemischen Keule. Die alten Hasen unter uns wissen welchen Kompromiss man damit eingehen musste.
Dafür kannte der Film kein Dunkelstromrauschen bei Langzeitbelichtungen, was heute zu einigen Klimmzügen
bei der Bildaufnahme in der Astrofotografie und für andere Langzeitaufnahmen geführt hat.

Das Bild vom 48 MP Sensor geben wir nun wieder auf unsere oben festgelegte Größe von 508 mm Breite aus.
Das ausgegebene Bild hätte also theoretisch - wenn die Ausbelichtung mitspielt - eine Auflösung von 400 dpi.
Das die kleineren Pixel und die nachfolgenden Verstärker und AD-Wandler usw. insgesamt mehr rauschen merken
wir nicht, denn die Unterschiede zwischen den einzelnen Pixeln gehen in der begrenzten Auflösung unseres Auges
unter. Nur die Gesamthelligkeit und Farbe einer Gruppe von in diesem Fall mindestens 4 Pixeln können wir erkennen.
Wäre das nicht so, dann würde es keine Farbmonitore oder Farbfernseher geben so wie wir sie kennen.
Deren Funktionsprinzip gründet sich ja auf die Nichterkennbarkeit der Einzelfarben und Einzelhelligkeiten
die kleiner sind als die Augen sie auflösen können.
Andersrum betrachtet dürfte das Bild des 48 MP Sensors bei einem Betrachtungsabstand von 0,5 m auch 1,35 m breit
sein (bei 150 dpi Grenzauflösung des Auges), ohne dass wir mit unseren Augen eine Beeinträchtigung der Bildschärfe
feststellen können, und wenn wir dann noch etwas näher heran gehen sehen wir möglicherweise schon die Unterschiede
zwischen den einzelnen Pixeln und erkennen das Rauschen. Das wäre dann unsere 100%-Ansicht, wie wir sie als
Pixelpeeper ;-) kennen.

Für die gleiche Bilddarstellung auf unserer Ausbelichtung von 508 mm Breite ist der 36 x 48 mm² Sensor
mit 48 MP also etwas oversized. Mit nur 12 MP bringt er auch keinen Vorteil, weil die Auflösung auch mit dem kleinen
Sensor erreichbar ist und zusätzlich der Bauraum um den Sensor kleiner gehalten werden kann. Außerdem muss
man für die gleiche Bilddarstellung auf unserer Ausbelichtung des in der Fläche 7,68-fach größeren Sensors wegen
in diesem Beispiel um ca. 3 Stufen abblenden und den Energieverlust durch erhöhen a) der Belichtungszeit
oder b) der Verstärkung ausgleichen. Das hat im Fall a) gegebenenfalls Bewegungsunschärfe und im Fall b) auch
erhöhtes Rauschen zur Folge.
Zäumen wir das Pferd von der anderen Seite auf, dann brauchen wir für den größeren Sensor zwingend auch
eine höhere Verstärkung der empfangenen Energie des einzelnen Pixels wenn eine gößere Schärfentiefe notwendig
ist und dazu die Blende geschlossen werden muß. Denn, ich erinnere an den Energieerhaltungssatz, der abgebildete
Raumwinkel gibt ja nicht mehr her weil der Sensor größer ist, wird aber auf eine größere Fläche abgebildet und
damit wird die Abbildungsdichte rsp. Auflösung insgesamt geringer. Erst die Bild-Ausgabe auf das gleiche Format
wie bei dem kleineren Sensor stellt die gleichen Verhältnisse wieder her.
Ein anderer Vergleich zum Verständnis: Ein Zimmer von 4m x 4m Fläche und 2,5m Höhe wird von einem Fenster
mit 1 qm Lichtdurchlaß beleuchtet. Wir merken uns die Helligkeit der dem Fenster gegenüber liegenden
Wand. Das gleiche Fenster soll jetzt bei gleicher Tageslichthelligkeit einen Saal von 40m x 40m Fläche und
25m Höhe ausleuchten. Wie hell beleuchtet wird jetzt die dem Fenster gegenüber liegende Wand?
Wie groß müsste der Lichtdurchlaß des Fensters sein, damit die ihm gegenüber liegende Wand wieder gleich hell
wie in dem kleinen Zimmer beleuchtet wird?
Wer noch tiefer einsteigen will siehe dazu auch hier zum Lichtleitwert etc.:
http://home.arcor.de/ottophysik/OP_13.pdf
http://www.mikroskopie.de/pfad/koehlerbeleuchtung/main.html?sechs.html
http://www.tu-ilmenau.de/fakmb/file...wertung_2_Physikalisch-optische_Abbildung.pdf

Und jetzt drehen wir die ganze Sache mal um und nehmen einen ganz kleinen Sensor von 8,65 mm x 6,5 mm
Kantenlänge mit ebenfalls 12 MP. Wir ahnen schon was kommt. Um den gleichen Raumwinkel abbilden zu können
brauchen wir nun die halbe Brennweite im Vergleich zum 17,3 mm x 13 mm Sensor. Ich mach's kurz:
Die Energie aus dem Raumwinkel bei gleicher Blendenzahl auf die kleinere Sensorfläche projiziert reicht
nun aus um eine größere Schärfentiefe scharf (höher aufgelöst) abzubilden. Man müsste also die Blende
weiter öffnen und die Verstärkung nach dem Sensor verringern (oder die Sensorempfindlichkeit verringern),
wenn man die Schärfentiefe verkleinern will. Jeder einzelne Pixel erhält jetzt die 4-fache Menge an Energie,
dafür ist er halt nur 1/4 so groß. Auf unserer Ausgabegröße von 508 mm Breite würde sich an der Bilddarstellung
nichts ändern, wenn wir die Blende weit genug öffnen könnten.

Jetzt nehmen wir noch eine physikalische Eigenschaft des Lichts (auch jeder anderen Strahlung) hinzu,
die Beugung an der Öffnung. Sie wirkt sich um so stärker aus, je kleiner die Öffnung ist.
In unserem Falle im Bereich der Fotografie ist sie im wesentlichen vom Öffnungsverhältnis des Objektivs
abhängig, und zwar im Betrag der Auslenkung auf Sensorebene bei allen Formaten in etwa gleich.
Die theoretisch mögliche Auflösung bzw. die Beugung ist auch abhängig von der Wellenlänge. Näherungsweise
ist das bei 550 nm in Winkelminuten 120/D (D in mm). Bei Blende 2,8 ist das etwa 1 µm auf Sensorebene.
Das bedeutet, dass der Anteil der Beugung bezogen auf die Kantenlänge des Sensors immer größer wird
je kleiner der Sensor wird. Unser kleiner Sensor mit 8,65 mm x 6,5 mm hat bei 12 MP eine lineare Auflösung
an der Kante von 2,16 µm. Diese Auflösung wird bereits bei Blende 5,6 erreicht und mit weiterem Abblenden
immer schlechter. Die Pixel unseres ganz großen Sensors (36 x 48 mm²) würden die Beugung erst bei Blende 32 bemerken.

Was ist nun die Moral von der Geschicht?

Wo die Grenzen bei der Bildgestaltung sind, hängt von den technischen Möglichkeiten ab. Ganz unabhängig von der
Baugröße der übrigen Komponenten des Systems betrachtet und unter der Voraussetzung dass der gleiche Raumwinkel
aufgenommen und auf die gleiche Ausgabegröße ausgegeben werden soll, ergeben sich die folgenden Unterschiede:

Der ganz große Sensor braucht mehr Licht, um die gleiche Auflösung zu erreichen wie der kleinere Sensor oder
er muss mit der kleineren Schärfentiefe zufrieden sein.
Der ganz kleine Sensor braucht weniger Licht um die gleiche Auflösung zu erreichen als der größere Sensor oder
er muss eine größere Schärfentiefe hinnehmen.
Wo die Grenzen der Bilddarstellung bei Verwendung des großen und und kleinen Sensors gezogen werden müssen hängt
davon ab, welche Öffnungsverhältnisse bei den Objektiven vor dem Sensor technisch machbar (und "tragbar" in
finanzieller wie gewichtsmäßiger Hinsicht) sind.

Der ganz große Sensor ermöglicht eine sehr hohe Auflösung, wenn das Objektiv eine große Öffnung hat. Dafür muss
er dann mit einer kleinen Schärfentiefe auskommen. Soll auch mit einer größeren Schärfentiefe (also einer größeren
Auflösung größerer Bildteile bzw. in der Bild"tiefe") abgebildet werden, dann braucht der große Sensor mehr Energie.
Die erhält er entweder durch stärkeren Energiefluß (helleres Licht) oder durch längeren Energiefluß (längere Belichtungszeit).
Damit wird auch verständlich, warum Kameras mit so großen Sensoren eher im Studio und mit viel Licht eingesetzt werden.
Das eine Hasselblad H3DII-31 zum Beispiel trotz ihrer großen Pixel und Mikrolinsen in der Empfindlichkeit nur bis
ISO 1600 geht, könnte ebenfalls darin begründet sein. Die neue H4D-60 endet schon bei 800 ISO.
Die in diesem Bild "Sensordata_5DII.jpg" im Anhang grafisch dargestellten Messwerte aus
http://www.clarkvision.com/imagedetail/digital.sensor.performance.summary/#data (Canon 5D Mark II)
zeigen ab 1600 ISO ein Einbrechen der Dynamik und die Tabelle davor zur Canon 50D den Unterschied von ca. 1 Blendenstufe
zur 5D Mark II. Natürlich spielen auch Unterschiede in der Technologie eine Rolle, die Entwicklung geht weiter.
An den physikalischen Gesetzmäßigkeiten ändert das aber nichts.

Die Auflösung des ganz kleinen Sensors wird sehr früh schon von der Beugung zunichte gemacht. Man kann durch weiteres
Abblenden die Schärfentiefe vergrößeren, aber die Auflösung im Bereich der größten Schärfe wird schlechter weil
das Beugungsscheibchen jetzt mehrere Pixel überdeckt.
(siehe Airy-Disk http://www.epsilon-lyrae.de/Seeing/Begriffe/Begriffe.html)

Der ganz große Sensor würde uns bei Blende 2,8 theoretisch eine Auflösung von 1,728 Gigapixel ermöglichen. Wir könnten
also aus 50 cm Entfernung ein Bild von 7,92 Meter Breite ansehen ohne einen Schärfeverlust in der abgebildeten
Schärfeebene zu bemerken.
Der ganz kleine Sensor dagegen würde uns bei Blende 2,8 theoretisch eine Auflösung von 48 Megapixel ermöglichen.
Wir könnten damit aus 50 cm Entfernung ein Bild von 1,32 Meter Breite ansehen ohne einen Schärfeverlust zu bemerken.
Mit der Blende 2,8 wäre dann aber auch Ende der Fahnenstange. So hohe Auflösungen haben bei solch kleinen Sensoren
deshalb nur einen sehr begrenzten Nutzen. Der Spielraum mit der Blende ist minimal. Bei Blende 11 (die von den kleinen
Kompakten selten oder gar nicht angeboten wird) wären wir schon bei einer nutzbaren Auflösung von nur noch 3 MP
entsprechend 2000 x 1500 Pixel Kantenlänge. Bei nur 100 dpi Ausgabeauflösung wäre mit einem Betrachtungsabstand
von 25 cm bei einer Bildbreite von 50,8 cm endgültig Schluss. Man könnte näher ran gehen, würde aber nicht mit mehr
Details belohnt. Für einen Full-HD-TV-Fernseher bei üblichem Betrachtungsabstand reicht es aber völlig aus.
Bei dem ganz großen Sensor mit 48 MP und Blende 32 wäre die Beugung gerade in der Größenordnung der Pixel und wir
könnten aus 50 cm Entfernung noch ein Bild von 1,35 Meter Breite ohne Auflösungsverlust ansehen.
Wir erinnern uns, der mittelgroße 12 MP Sensor erlaubt uns aus 0,5 m Betrachtungsabstand immerhin eine Bildbreite
von 0,67 Meter für "100%-Ansicht" bei optimalem Kontrast mit einem sehr guten Auge und Grenzauflösung. Jetzt wird
auch klar, warum ganz kleine Sensoren bei unseren üblichen Ausgabegrößen noch so erstaunlich gut zu gebrauchen sind.
Für 20 x 30 Bilder muß man von der Auflösung her gesehen keine größeren Formate haben als sie die Kompaktkameras bieten.

Ein pixelpeeperisches Studium der verschiedensten Sensorformate und Auflösungen quer durch alle Marken aus aktuellem
Entwicklungsstand bei 100%-Ansicht hat gezeigt, dass unter der Voraussetzung gleiche Schärfentiefe und ungefähr gleiche
Detaildarstellung alle Sensoren auch ungefähr gleich rauschen. Wenn man die Herkunft der Bilder nicht kennt, ist es
schwer bis unmöglich heraus zu finden von welchem Sensor die 100%-Bilder stammen. Die Rauschunterdrückungs-, Kontrast-,
Farbsättigungs- und Schärfungseinstellungen haben einen zu großen Einfluß auf das Ergebnis, so dass eine Unterscheidung
auf RAW-Ebene stattfinden muss. Inwieweit auch da schon im Verborgenen auf das Ergebnis Einfluss genommen wird wissen wir
nicht. Wer es nicht glaubt mache bitte einen Blindtest mit Personen welche die Bilder nicht kennen. Was unter dem Strich
bleibt ist die notwendige Skalierung für die Bildausgabe. Mehr Pixel kann man mehr zusammendampfen und damit werden die
einzelnen Pixel und deren Rauschen vom Auge nicht mehr aufgelöst. Je kleiner die Sensoren werden, um so mehr wird die
erzielbare Auflösung von der Beugung bestimmt. Je größer die Sensoren werden, um so mehr wird die Auflösung von der
Größe der Objektivöffnung, dem Pixelpitch und dem vorhandenen Licht im aufgenommenen Raumwinkel bestimmt. In allen
Fällen ist die Auflösung außerdem abhängig davon, wie gut die Entwickler die nicht beugungsabhängigen Abbildungsfehler
der Optik korrigieren können. Beiden kleinen Kompaktkameras kommt noch hinzu, dass durch die hohe Packungsdichte der
Elektronik und die eingeschränkten Möglichkeiten zur internen Abschirmung vor gegenseitigen Störungen das Rauschverhalten
nicht gerade verbessert wird. Die heutigen Technologien ermöglichen höhere Empfindlichkeiten als mit dem Analogfilm
möglich war. Der nachfolgende chemische Prozess konnte nicht so viel aus den Körnern quetschen wie heute die ganze
Kette der elektronischen Verarbeitung nach den Sensor-Empfangsdioden, die trotz weniger Licht noch gute Ergebnisse
ermöglicht. Aber auch da sind Grenzen gesetzt. Man könnte das Format noch größer machen, aber bei noch "tragbarer"
Optik hätte das ebenso längere Belichtungszeiten zur Folge.

Das Thema Rauschen ist wesentlich komplexer als es hier dargestellt ist. Hier in Kapitel 5.4 kann man noch
mehr darüber erfahren: http://dip-seminar-online.com/bvawebger/seminarraum/bvakapitel/statisti/statisti.pdf
Zitat: "Photonenrauschen hat seine Ursache in der Quantennatur des Lichts. Die Anzahl der Photonen, die während der Belichtungszeit T auf die lichtempfindliche Fläche eines Pixels trifft, ist selbst bei gleicher Helligkeit niemals gleich. Bei niederen Lichtintensitäten ist der Effekt besonders einschneidend, und man kann nachweisen, daß die Verteilung durch eine Poisson - Verteilung beschrieben werden kann. Die drei Standardannahmen für das Rauschen gelten für das Photonenrauschen also nicht:
– Photonenrauschen ist nicht signalunabhängig (die Standardabweichung ist eine Funktion des Mittelwertes)
– Die Häufigkeitverteilung des Photonenrauschens ist keine Gaußfunktion
– Das Photonenrauschen ist nicht additiv.
Glücklicherweise kann man aber das Photonenrauschen vernachlässigen, wenn der Sensor ein relativ hohes Sättigungsniveau hat. Die Abhilfe bei Photonenrauschen sind also höhere Lichtintensitäten. Wo diese nicht zur
Verfügung stehen, wie in der Astronomie, hilft man sich mit höheren Integrationszeiten. Dann nimmt das Thermische Rauschen überhand. Dies ist
jedoch ein lineares Phänomen und kann mathematisch leichter gehandhabt
bzw. durch Vorkehrungen reduziert werden."


Weitere Links:
http://de.wikipedia.org/wiki/Bildrauschen
http://sprec000.lima-city.de/Digicam7.html

Grundsätzlich ist das Entrauschen ja nichts anderes, als der Versuch davor aufgetretene Mängel in der Verarbeitungskette
zu korrigieren. Dabei kann die Elektronik nicht unterscheiden, woher nun bei einem einzelnen Pixel die Abweichung kommt. Das
kann die Folge des Photonenrauschens oder auch eine spontane Veränderung aus dem Bauteil selbst sein. Bei einer Rauschfilterung
(um mal die Analogie zur Audiotechnik herzustellen) werden eben die hohen Frequenzen (feine und feinste Details) mehr oder
weniger in Mitleidenschaft gezogen. Die beste Entrauschung erhält man durch rauscharme Bauteile, eine Leitungsführung die
Einkopplungen bzw. Übersprechen verhindert (Banding z. B.), niedrige Arbeitsfrequenzen bzw. geringe Flankensteilheit von
digitalen Signalen (ein Bild auslesen, bearbeiten und abspeichern in 60 Sekunden :-( ), Abschirmungen gegen Störungen intern
und von außen usw., also indem man alles das was im Bild als Rauschen interpretiert wird von vorne herein verhindert.
Beim Sensor selbst ist nicht mehr sooo viel zu holen. Das Gesamtpaket der Maßnahmen bringt den Erfolg.

Solange die Gesetze der Optik dem nicht entgegen stehen, wäre der Weg zum kleineren Sensor mit hoher Auflösung
meiner Meinung nach der in die richtige Richtung. In dieser Richtung entwickeln sich ja auch die Technologien.
Wenn man die Elektronik auf dem engen Raum gut im Griff hat, dann kann man unterhalb des Beugungslimits sehr gute
Ergebnisse erzielen. Wo für den jeweiligen Anwender die Grenzen zu ziehen sind, ist davon abhängig, für welches
Spezialgebiet er das System einsetzt. Manchmal helfen nur mehrere Systeme weiter.
Will oder kann man sich nur ein System leisten, dann kann man sich aus allen existierenden Möglichkeiten nun den
Kompromiss heraussuchen der für die eigenen Bedürfnisse, nämlich maximale Ausgabegröße, beabsichtigtem Einsatzbereich
und beabsichtigter Präsentation am besten passt.
Eigenschaften wie schneller Autofokus, viele AF-Messfelder, schnelle Bildfolge, Abdichtung, Robustheit, Flexibilität
der Ausrüstung usw. haben mit der technischen Bildqualität an sich nichts zu tun und sind Auswahlkriterien für
bestimmte Anwendungsfälle. Manche Kriterien lassen sich nicht gleichzeitig mit einem System erfüllen.
Beispiel: Maximales Spielen mit geringer Schärfentiefe und Ausgabe im Plakatformat für kurzen Betrachtungsabstand
ist nicht vereinbar mit langer Brennweite, großer Lichtstärke und 10 fps für Aufnahmen vom Tor auf der anderen Seite
des Fußballfeldes. Der Eine braucht das MF-Digiback und der Andere das Cropsystem mit dem Tele und der schnellen Bildfolge.
Für die Erinnerungsfotos von der Inselwanderung im Album auf 10x15 reicht auch die Kompakte.

Zum Abschluss noch ein bildhafter Vergleich von drei Systemen.

Kompakte mit Superzoom:
http://www.dpreview.com/reviews/q209grouplongzoom/page7.asp
http://www.dpreview.com/reviews/specs/Olympus/oly_sp590uz.asp
Nur ein Zoom für FT:
http://www.olympus.de/digitalkamera...1_2_8_5057_zubehoer_technische_daten_5064.htm
Nur ein Zoom für KB mit vergleichbarem Bildwinkel und mit gleicher Lichtstärke:
http://www.sigma-foto.de/cms/front_content.php?client=1&lang=1&idcat=36&idart=271
Und nun eines mit vergleichbarem Bildwinkelbereich und gleicher Lichtstärke für Mittelformat:
...

Unten noch das im Text angegebene Diagramm "Sensordata_5DII.jpg" und ein paar Bildbeispiele.

Im folgenden Beitrag findet Ihr noch ein paar Diagramme zur Veranschaulichung ohne weitere Worte.
 
Zuletzt bearbeitet:
Damit betrachte ich dieses Kapitel für mich als abgeschlossen und werde die Moderation bitten den Thread zu schliessen.

Edit: Auf Wunsch der Moderation wird der Thread nicht geschlossen.
Diese Entscheidung finde ich nach kurzem neuen Nachdenken OK.
 
Zuletzt bearbeitet:
Vorweg: Es ist spät, ich bin kein Experte auf dem Gebiet und Denkfehler meinerseits sind jederzeit möglich, also macht mich bitte darauf aufmerksam. :)
Trotzdem einige Gedanken, zu dem was du geschrieben hast:

Um eine hohe Auflösung zu erhalten, muss man viele Photonen auf die Bildebene lenken. Das ist
sicher einleuchtend, denn feine Details kann man nur mit vielen kleinen Mosaikstückchen (den
Photonen) darstellen.
Da aber nur eine begrenzte Anzahl Photonen pro Zeiteinheit zur Verfügung
steht, müssen die Photonen, die für die Auflösung in der Bildebene gebraucht werden, irgendwo
anders fehlen. In den Bildebenen (Mosaiken) vor und hinter der Ebene mit der besten Schärfe
bleiben im Mosaik zwangsläufig Lücken. Vergrößern wir die Schärfentiefe durch Abblenden, dann
verlieren wir Energie wegen der kleineren Öffnung und damit auch Licht am Sensor, es wird dunkler.
Das können wir dann nur wieder mit Verlängern der Zeit kompensieren um auf die notwendige Anzahl
Photonen für eine höhere Auflösung zu kommen. Um mehr scharfe Bildebenen (Mosaiken) vor und hinter
der Ebene mit der besten Schärfe zu bekommen brauchen wir also mehr Photonen (Mosaiksteine).
Der Witz an der Sache ist, dass bei der Abbildung des immer gleichen Raumwinkels die Brennweite
und die Sensorgröße keine Rolle spielen, sie kürzen sich sozusagen heraus.

Der Argumentation kann ich nicht ganz folgen: Meiner Meinung nach ist für die Auflösung alleine die Anzahl der Pixel des Sensors und die Fähigkeit des Objektives entscheidend, die einfallenden Photonen so exakt aufzulösen, dass jeder einzelne Pixel des Sensors bedient wird und keine "dicken" Strahlen entstehen, die mehrere Pixel beleuchten. Die Anzahl der einfallenden Photonen ist für die Auflösung unerheblich, sie beeinflusst nur die Energie, die in die Photodioden des Sensors übertragen wird und somit letztendlich das elektrische Nutzsignal. Um in deinem Bild zu bleiben: Du bekommst nicht mehr Mosaiksteinchen, nur weil du mehr Photonen einfallen lässt. Nach deiner Argumentation müsste ja dann die Auflösung mit längerer Belichtungszeit steigen. Das ist aber nicht der Fall, denn Langzeitbelichtungen zeigen nicht mehr Details und sind auch nicht schärfer als kurze Belichtungen. Gleiches gilt für die Blende: Nach deiner Logik müsste die Auflösung beim Abblenden massiv zurückgehen, da viel weniger Photonen einfallen. Wir alle aber wissen, dass sich die Auflösung beim Abblenden sogar noch steigert und nicht geringer wird, da gewisse Schwächen des Objektivs bei Offenblende ausgeglichen werden.

Oder um es auf ein anderes Bild zu übertragen: Bei einem Tintenstrahldrucker hängt die mögliche Auflösung davon ab, wie dicht man die Tintenpunkte nebeneinander auf das Papier setzen kann. Erhöhe ich die Anzahl der Tintenpunkte (Photonen), bleibt die Auflösung gleich, da sich das Raster nicht ändert. Die Tintenpunkte auf dem Papier werden nur kräftiger durch das Mehr an Farbe. Das entspricht sozusagen der Energie, die auf die Photodioden übertragen wird.
 
Der Argumentation kann ich nicht ganz folgen: Meiner Meinung nach ist für die Auflösung alleine die Anzahl der Pixel des Sensors und die Fähigkeit des Objektives entscheidend, die einfallenden Photonen so exakt aufzulösen, dass jeder einzelne Pixel des Sensors bedient wird und keine "dicken" Strahlen entstehen, die mehrere Pixel beleuchten...
Ich denke, er meint die Auflösung in der Raumebene, also die Schärfentiefe, und die verringert sich ja bei größeren Aufnahmeformaten (bei gleicher Zeit und Blende).
Nach deiner Argumentation müsste ja dann die Auflösung mit längerer Belichtungszeit steigen. Das ist aber nicht der Fall, denn Langzeitbelichtungen zeigen nicht mehr Details und sind auch nicht schärfer als kurze Belichtungen.
Doch, in dem Moment, in dem bei räumlichen Motiven die längere Zeit durch eine kleinere Blende erkauft wird. Z.B. mag ein Objektiv nicht in der Lage sein, bei Offenblende sowohl den Vorder- als auch Hintergrund hinreichend scharf abzubilden, nach Abblenden dagegen schon.
Gleiches gilt für die Blende: Nach deiner Logik müsste die Auflösung beim Abblenden massiv zurückgehen, da viel weniger Photonen einfallen. Wir alle aber wissen, dass sich die Auflösung beim Abblenden sogar noch steigert und nicht geringer wird, da gewisse Schwächen des Objektivs bei Offenblende ausgeglichen werden.
Man muss natürlich das Abblenden durch eine längere Verschlusszeit (oder höhere Empfindlichkeit) kompensieren, sonst wird das Bild ja nur dunkler (ebenfalls nicht der Auflösung zuträglich).

Allerdings ist es tatsächlich so, dass mit jedem Abblenden die theoretisch mögliche Auflösung in der Fokusebene aufgrunde der Beugung sinkt. In der Regel sind allerdings real existierende Objektive so fehlerbehaftet, dass der Auflösungsverlust von den Abbildungsfehlern überdeckt wird.

Die hohe Auflösung hätte man aber selbst bei einem fehlerfreien Objektiv nur in der Fokusebene, davor oder dahinter würde sie abnehmen, je nach Brennweite sogar rapide.
Schärfentiefe bedeutet ja, dass ein Motivteil (z.B. Vorder- oder Hintergrund) hinreichend scharf wiedergegeben wird. Dieses "hinreichend" bezieht sich aber auf den normalen Betrachtungsabstand. Geht man näher an das Bild heran oder zoomt hinein (z.B. die beliebte 100% Ansicht), dann gelten die Werte des Schärfentiefenrechners nicht mehr, weil die Anforderungen steigen. Für den normalen Betrachtungsabstand reichen im Prinzip 3-6Mpix aus, mehr kann das Auge nicht auflösen. Um die höheren Auflösungen also überhaupt nutzen zu können, muss man als entweder näher an das Bild heran (hineinzoomen) oder einen Ausschnitt nehmen (croppen), was letztlich aufs selbe hinausläuft. Dabei sinkt aber wieder die Schärfentiefe, also die räumliche Auflösung, und vorher nicht wahrnehmbare Unschärfen vor und hinter der Fokusebene werden merklich. Zum Ausgleich müsste man Abblenden, was so lange gut geht, bis die Beugung zum begrenzenden Faktor wird...
 
(...)
.... Die Anzahl der einfallenden Photonen ist für die Auflösung unerheblich, sie beeinflusst nur die Energie, die in die Photodioden des Sensors übertragen wird und somit letztendlich das elektrische Nutzsignal. Um in deinem Bild zu bleiben: Du bekommst nicht mehr Mosaiksteinchen, nur weil du mehr Photonen einfallen lässt. Nach deiner Argumentation müsste ja dann die Auflösung mit längerer Belichtungszeit steigen. Das ist aber nicht der Fall, denn Langzeitbelichtungen zeigen nicht mehr Details und sind auch nicht schärfer als kurze Belichtungen.
(...)
Die Astrofotografie als Extremfall zeigt das. Irgendwann bei den extrem langen Belichtungen kommt auch mal ein Photon an einer bestimmten Stelle an, welches man bei kürzerer Belichtungszeit nicht eingefangen hätte. Man bekommt mehr Mosaiksteinchen, nur fehlen die Pixel um sie einzeln aufzulösen. Statt dessen werden sie im jeweiligen Pixel aufsummiert und ergeben für einen Bildpunkt mehr Intensität. Innerhalb des Bildpunktes ist keine höhere Auflösung mehr vorhanden. Der Bildpunkt ist ja immer noch eine Fläche und kein Punkt im mathematischen Sinne mit der Fläche Null.
Gleiches gilt für die Blende: Nach deiner Logik müsste die Auflösung beim Abblenden massiv zurückgehen, da viel weniger Photonen einfallen. Wir alle aber wissen, dass sich die Auflösung beim Abblenden sogar noch steigert und nicht geringer wird, da gewisse Schwächen des Objektivs bei Offenblende ausgeglichen werden.
Die Auflösung geht auch zurück, und zwar schon ab Offenblende wegen der Beugung. Die notwendige Folge des Abblendens ist bekanntermaßen die Verlängerung der Belichtungszeit. Damit gleichen wir über die Zeit den Verlust durch die kleine Öffnung aus, um wieder die gleiche Dichte auf dem Film bzw. die gleiche Ladung im Pixel zu erhalten. Das es bei abblenden erstmal besser wird ist auf die unvollkommene Korrektur der Optik bei größerer Öffnung zurück zu führen.
Es gibt Objektive, die schon bei Offenblende die beste Leistung zeigen und durch Abblenden nur noch schlechter werden. Eines davon ist zum Beispiel das Leitz APO Telyt R 3,4/180. Das Olympus 2,0/150 steht dem nicht viel nach, es geht nur durch die große Öffnung und dem dadurch steigenden Streulichtanteil Kontrast verloren. 1/2 Blendenstufe abblenden zeigt bereits die maximale Leistung.
Oder um es auf ein anderes Bild zu übertragen: Bei einem Tintenstrahldrucker hängt die mögliche Auflösung davon ab, wie dicht man die Tintenpunkte nebeneinander auf das Papier setzen kann. Erhöhe ich die Anzahl der Tintenpunkte (Photonen), bleibt die Auflösung gleich, da sich das Raster nicht ändert. Die Tintenpunkte auf dem Papier werden nur kräftiger durch das Mehr an Farbe. Das entspricht sozusagen der Energie, die auf die Photodioden übertragen wird.
Nimm kleinere Tintenpunkte und verteile sie auf ein feineres Raster. Als Folge davon hast Du mehr Auflösung ohne mehr Tintenverbrauch. Zwei schwarze Klekse aufeinander sind immer noch schwarz. Vier 1/4 so große schwarze Klekse auf der gleichen Fläche wie der ehemalige eine Kleks nebeneinander sind als kleiner Kleks immer noch schwarz, aber einzeln sichtbar, also aufgelöst. Und das ohne mehr Tinte zu verwenden, wenn der Drucker mit seinen Düsen dazu technisch in der Lage ist.
Der Tintendrucker ist im Übrigen gar kein so schlechtes Beispiel. Sehen wir mal den Druckkopf als Objektiv an und den Tintentank als den abzubildenden Raumwinkel. Dabei soll die Tintenspritzgeschwindigkeit in diesem Beispiel gerade für ein A5-Bildchen ausreichen, welches in (beispielsweise) 10 Sek. gedruckt wird. Nun komme ich auf die Idee, mit der gleichen Spritzgeschwindigkeit (den Photonen im Raumwinkel in 10 Sekunden) ein A3-Bild (4-fache Fläche) zu drucken. Was bleibt als Lösung über? Entweder ich drucke nur noch das Wichtigste vom Bild innerhalb der 10 Sekunden und vernachlässige anderes (Schärfentiefe und Auflösung) oder ich erhöhe die gespritzte Tintenmenge auf das Vierfache indem ich die Druckzeit auf 40 Sekunden verlängere. Alternativ kann ich auch den Tintendurchsatz durch die Düsen auf das vierfache erhöhen (zwei Stufen aufblenden) um wieder in 10 Sekunden fertig zu werden. Vorraussetzung für einen erfolgreichen Druck ist, dass der Tintentank immer früh genug nachgefüllt wird. Problematisch wird es dann, wenn der Tank zu klein und vor dem Ende des kompletten Ausdrucks leer ist (wenig Licht). Dann müssen wir eben etwas langsamer drucken und dem Service die Zeit zum Auftanken lassen oder entscheiden uns für einen weniger aufgelösten Druck (weniger Bildpunkte mit entsprechend weniger Tintenbedarf). Damit das dann bei der Betrachtung nicht auffällt, zeige ich das A5-Bildchen aus 25 cm Entfernung und das weniger aufgelöste A3-Bild aus 50 cm Entfernung.


spezies 8472 hat es oben anders, aber auch zutreffend erklärt.
 
Zuletzt bearbeitet:
Trotz eurer Erklärungen leuchtet mir immer noch nicht ein, warum die Anzahl der einfallenden Photonen die Auflösung beeinflussen soll. Vielleicht verstehen wir unter Auflösung etwas verschiedenes oder ich verstehe nicht, was Wolfgang gemeint hat, aber die von mir weiter oben zitierten Aussagen von Wolfgang sind meiner Ansicht nach falsch.

Auflösung eines Sensors in der Ebene:
Ein Sensor hat meinetwegen 4000x3000 Pixel, d.h. er kann 4000 Helligkeitsinformationen in horizontaler Richtung und 3000 Helligkeitsinformationen in vertikaler Richtung auflösen, wenn das Objektiv so ideal ist, dass es jeden einzelnen Pixel "bedienen" kann. Diese Auflösung ändert sich nicht, völlig egal, wie lange man den Sensor belichtet und wie viele Photonen damit auf den Sensor treffen. Richtig ist natürlich, dass man erstmal eine gewisse Zahl von Photonen einfangen muss, um in den einzelnen Photodioden des Sensors ein mess- und verwertbares Signal zu erhalten. Habe ich diese Schwelle erreicht, dann habe ich die oben beschriebenen 4000x3000 Helligkeitsinformationen. Belichte ich jetzt weiter, ändert sich an der Auflösung nichts, es wird lediglich mehr Energie in die Photodioden übertragen und es wird eine größere Helligkeit registriert. Belichte ich noch länger, erreichen die Photodioden irgendwann ihre Sättigungsgrenze, d.h. sie registrieren maximale Helligkeit, aber auch hier ändert sich die Auflösung nicht. Es sind immer noch 4000x3000 Helligkeitsinformationen.

Beispiele aus der Praxis belegen das:
Belichte ich ein Bild mit 1/100s, dann ist eine bestimmte Menge von Photonen auf den Sensor eingefallen und ich habe ein (hoffentlich :D) scharfes Bild. Verringere ich jetzt die Belichtungszeit auf 1/200s, fällt nur die Hälfte der Photonen auf den Sensor ein, das Bild ist aber immer noch genauso scharf und detailreich wie vorher, an der Auflösung hat sich nichts geändert. Es ist lediglich dunkler, da nur die Hälfte der Energie auf den Sensor übertragen wurde.

Folgerung: Die Auflösung in der Ebene ist unabhängig von der Anzahl der einfallenden Photonen.

räumliche Auflösung des Sensors (Schärfentiefe)
Auch für die Schärfentiefe ist die Anzahl der einfallenden Photonen uninteressant. Den Sensor interessiert nur die Anzahl der Photonen, die sich in seiner Ebene befinden, alles, was vor ihm ist, ist ihm egal. Schärfentiefe entsteht dadurch, dass die vom Objektiv erzeugten einzelnen Zerstreuungskreise hinreichend klein genug werden, so dass ein scharfer Bildeindruck entsteht. Wenn ich nun die Blende schließe, werden dieses Zerstreuungskreise kleiner und die Schärfentiefe steigt, was sich mit geometrischer Optik leicht erklären lässt. Mit der Anzahl der einfallenden Photonen und der "Bildinformationen", die diese tragen, hat das aber nichts zu tun.

Beispiele aus der Praxis belegen das:
Belichte ich ein Bild mit 1/200s und f=2.8, dann habe ich eine bestimmte Schärfentiefe. Mache ich das selbe Bild mit 1/100s und f=4, dann fallen genauso viele Photonen wie vorher auf den Sensor, denn durch die geschlossenenere Blende fällt zwar weniger Licht, aber als Ausgleich belichte ich ja länger. Die Schärfentiefe steigt aber an!

Folgerung: Die Schärfentiefe ist unabhängig von der Anzahl der einfallenden Photonen.

Ich denke, er meint die Auflösung in der Raumebene, also die Schärfentiefe, und die verringert sich ja bei größeren Aufnahmeformaten (bei gleicher Zeit und Blende).

Ja, aber nur weil der Zerstreuungskreisdurchmesser mit wachsender Sensordiagonale zunimmt und nicht, weil jetzt irgendwie weniger, mehr oder gleich viele Photonen einfallen.

Die Astrofotografie als Extremfall zeigt das. Irgendwann bei den extrem langen Belichtungen kommt auch mal ein Photon an einer bestimmten Stelle an, welches man bei kürzerer Belichtungszeit nicht eingefangen hätte.

Richtig, aber das ist ein Sonderfall bzw. die untere Arbeitsschwelle des Sensors. Hier kommen aufgrund der Dunkelheit des Himmels so wenig Photonen an, dass man erstmal eine gewisse Menge einfangen muss, um überhaupt eine mess- und verwertbare Größe von den Photodioden zu erhalten. Natürlich kann man nur etwas auflösen, wenn man einen messbaren Unterschied zu den Nachbarpixeln feststellen kann, an der grundsätzlichen Auflösung des Sensors ändert das aber nichts.

Man bekommt mehr Mosaiksteinchen, nur fehlen die Pixel um sie einzeln aufzulösen. Statt dessen werden sie im jeweiligen Pixel aufsummiert und ergeben für einen Bildpunkt mehr Intensität. Innerhalb des Bildpunktes ist keine höhere Auflösung mehr vorhanden. Der Bildpunkt ist ja immer noch eine Fläche und kein Punkt im mathematischen Sinne mit der Fläche Null.

Wieso bekommt man mit mehr Photonen mehr Mosaiksteinchen? Man bekommt nicht ein mehr an Bildinformationen, man bekommt nur ein Mehr an Energie, welches in die Photodioden übertragen wird. Wo fehlen Pixel, um sie aufzulösen? Was meinst du mit, sie werden im Pixel aufsummiert? Wie kann innerhalb eines Bildpunktes eine Auflösung vorhanden sein? Eine Auflösung kann man nur angeben, wenn man zwei Größen voneinander unterscheiden, eben auflösen kann. Bei einem einzelnen Bildpunkt gibt es keine Auflösung, da man dafür mind. zwei Bildpunkte benötigt. Es gibt an einem einzelnen Bildpunkt nur eine Aussage über die Helligkeit dieses Bildpunktes.

Nimm kleinere Tintenpunkte und verteile sie auf ein feineres Raster. Als Folge davon hast Du mehr Auflösung ohne mehr Tintenverbrauch. Zwei schwarze Klekse aufeinander sind immer noch schwarz. Vier 1/4 so große schwarze Klekse auf der gleichen Fläche wie der ehemalige eine Kleks nebeneinander sind als kleiner Kleks immer noch schwarz, aber einzeln sichtbar, also aufgelöst. Und das ohne mehr Tinte zu verwenden, wenn der Drucker mit seinen Düsen dazu technisch in der Lage ist.

Richtig. Mit der selben Menge an Tinte ist plötzlich eine höhere Auflösung möglich. Die Menge der Tinte (Anzahl der Photonen) ist für die Auflösung nämlich unerheblich. Das ist genau das, was ich zu sagen versuche. :D

Problematisch wird es dann, wenn der Tank zu klein und vor dem Ende des kompletten Ausdrucks leer ist (wenig Licht). Dann müssen wir eben etwas langsamer drucken und dem Service die Zeit zum Auftanken lassen oder entscheiden uns für einen weniger aufgelösten Druck (weniger Bildpunkte mit entsprechend weniger Tintenbedarf).

Die Auflösung ändert sich nicht, denn das Raster und die Größe der Tintenpunkte ist konstant, egal ob der Tank leer oder voll ist. Richtig ist, dass dieselbe Tintenmenge auf eine größere Fläche gedruckt, ein "blasseres" Bild erzeugt, da eben weniger Tinte zur Verfügung steht. Reicht die Tinte aber aus, so dass ich noch jeden Bildpunkt drucken kann und er sich vom Nachbarpunkt unterscheidet, dann hat das Bild auch noch die selbe Auflösung. Erst wenn die Tinte so knapp ist, dass ich Bildpunkte auslassen muss, sinkt die Auflösung, aber das ist der schon weiter oben erwähnte Sonderfall wie bei der Astrofotografie, dass eben eine bestimmte Menge an Tinte (Energie) vorhanden sein muss, um überhaupt einen Punkt auf das Papier zu bringen, den das menschliche Augen vom Papier unterscheiden kann.

Nach diesen eher physikalischen Betrachtungen kann man bezüglich des Rauschens festhalten, dass ein größerer Sensor mit größeren Einzelpixeln immer ein geringeres Rauschen zeigen wird, da er aufgrund seiner größeren Fläche mehr Photonen in einer bestimmten Zeiteinheit einfangen kann, dadurch stärker angeregt wird und sich ein deutlicher vom Grundrauschen abhebendes Signal ergibt und somit weniger Verstärkung nötig ist.
 
Ich halte hier mal fest, damit das nicht vergessen wird:
Das alles gilt immer und nur unter der Voraussetzung, dass die Bildausgabegröße unabhängig von Sensorgröße und Auflösung konstant bleibt.

Zu Auflösung eines Sensors in der Ebene:

Nichts anderes habe ich geschrieben. Allerdings mit einer Einschränkung.
Das gilt nur solange genug Licht da ist, um alle Pixel zu bedienen. Reicht die Anzahl Photonen dazu nicht, dann bleiben Lücken "schwarz", weil während der Belichtungszeit einige Pixel gar kein Photon empfangen. Das heißt aber nicht dass da nichts wäre, es fehlt nur die Information darüber weil sie innerhalb der Belichtungszeit nicht ankam.

Die Astrofotografie ist dabei kein Sonderfall, sondern das Ende des gesamten Intensitätsbereiches, wo es wegen dem für eine Aufnahme notwendigen Aufwand nicht mehr so einfach ist zu Bildern zu kommen. Die Physik ändert ihre Gesetze nicht mit abnehmender Lichtintensität. Der Effekt ist immer da, für uns nur in weiten Strecken nicht von bildentscheidender Bedeutung.
Auch für die Auflösung ist die Astrofotografie ein schönes Beispiel. Die Pixel unserer aktuellen Digitalkameras (was wir so kaufen können) sind noch viel zu groß um Sterne richtig auflösen zu können. Wenn von einem Stern Photonen ein Pixel treffen, dann hat der Stern in der Bildausgabe die Größe eines Pixels. Wenn nun ein zweiter Stern in genügend kleinem Winkel (aber anderer Entfernung und mit genügender Leuchtkraft) daneben steht, dann landen seine Photonen auf dem gleichen Pixel. Das Pixel wird heller, zeigt aber nur einen Stern.
Die andere Seite der Strecke würde so viel Licht auf eine begrenzte Fläche (den Bild"punkt") bringen, dass der Sensor sich in Dampf auflöst. Irgendwo dazwischen ist unser "Arbeitsbereich".

Die Photonen haben auch nicht so unterschiedliche Größen wie die Tintentröpfchen. Insofern hinkt der Vergleich gewaltig und der Drucker ist kein gutes Beispiel mehr. Ob auf eine Pixelfläche von 10 Quadratmikrometer ein einziges Photon fällt oder 1000, das macht an der Auflösung keinen Unterschied, sondern nur in der Höhe der Ladung (später dargestellte Helligkeit des Bildpunktes), und dem Signal/Rausch-Verhältnis. Ein einzelnes Photon kann nur eine bestimmte Ladung erzeugen. Diese Ladung wird nicht größer, weil das Pixel größer ist. Die Ladung des Pixels wird größer, weil mehr Photonen auf EIN Pixel fallen. Habe ich mehr Pixel, dann verteilt sich die Ladung auf mehr Pixel, weil die Photonen je nach Intensität am jeweiligen Bildpunkt auf die Pixel verteilt fallen. Alle Ladungen zusammen ergeben wieder die gleiche Gesamtmenge. Ein Unterschied entsteht durch den schlechteren Füllfaktor bei vielen Pixeln, irgendwie müssen sie gegeneinander abgegrenzt werden und ja nach Technologie liegen auch noch mehr oder weniger Leitungen dazwischen. Das ist auch einer der Gründe für das etwas höhere Rauschen bei Sensoren hoher Auflösung gegenüber Sensoren geringerer Auflösung. Unterm Strich bleibt als relevant für des Rauschen nur die Gesamtfläche des Sensors übrig. Je größer, umso besser. Rauschen und Pixelfläche stehen auch nicht in einem linearen Zusammenhang.
Dazu verlinke ich mal, habe keine Lust das mit meinen Worten zu wiederholen:

Zitat von hier: https://www.dslr-forum.de/showpost.php?p=3655266&postcount=12
"Bekommt man das Ausleserauschen unter 0,1 Photonen (5 Sigma < 0,5), spielt die Auflösung des Sensors für das Rauschen keinerlei(!) Rolle mehr. Es gibt Sensoren, die das erfüllen, aktuelle DSLR-Sensoren (2006) lagen zwischen 6 und 16 Photonen.
Für niedrige ISO-Werte ist dies heutzutage schon der Fall (dunkelste Bildpassage >= 70...500 Photonen/Site). "


Eigener Versuch: https://www.dslr-forum.de/showpost.php?p=3665235&postcount=325

Zitat von hier: https://www.dslr-forum.de/showpost.php?p=3081083&postcount=33
"Solange wir bei den Sensorgrößen von DSLRs bleiben, spielt die Pixelzahl ein untergeordnete Rolle. Es ist unsinnig, hier das Problem von Kompaktkameras (7 MPixel auf 1/2,7"-Sensoren) zu sehen. Es geht hier um Nuancen, die in Grenzfällen erkennbar sind.

Was man bei DSLRs als Qualität sieht, ist bei normalen ISO-Werten rein quantenrauschenbasiert. Ein FT-System hat gegenüber einem KB-System bei gleicher Quanteneffizienz eben 6 dB weniger SNR (entspricht 2 Blenden). Unabhängig von der Auflösung. Erst bei hohen Auflösungen und hohen ISO-Zahlen gibt es langsam leichte Unterschiede.

Bei dieser Hatz, die hier gegen etwas mehr Pixel bei DSLRs gemacht wird, da dürfen Kompaktkameras gar nicht mehr funktionieren. "


Zu räumliche Auflösung des Sensors (Schärfentiefe):

Wie kommt es zur Schärfentiefe?
Der Zerstreuungskreis wird größer je weiter ich von der Fokusebene weg bin. Fühle mal was passiert, wenn Du eine Linse in die Sonne und Deine Hand 10 Sekunden in den Brennpunkt (Fokusebene) hälst (Fall 1). Dann nähere die Linse an die Hand an oder entferne sie etwas davon (Fall 2). Was siehst und fühlst Du nach 10 Sekunden (wenn Du nach dem vorherigen fühlen noch Lust dazu hast)? Hat sich deshalb etwas am Photonenfluß geändert? Sicher nicht. Aber die Abbildung ist eine ganz andere. Wo ist im ersten Fall die größere Informationsdichte (Schärfe) und wie ist sie (die Information, die Photonen) im zweiten Fall verteilt? Ich kann vorhandene Energie nur einmal verwenden. Sie wird nicht mehr, aber auch nicht weniger. Im ersten Fall habe ich einen kleinen Teil des Raumwinkels scharf und hell dargestellt und den Rest vernachlässigt, im zweiten Fall habe ich die vorhandene Energie des Raumwinkels gleichmäßiger verteilt und damit Schärfe und punktuelle Helligkeit eingebüst. Das ändert aber nichts an der Gesamtenergie auf der bestrahlten Hand. Was müsste ich denn nun tun, um im Fall zwei auf der ganzen ausgeleuchteten Fläche die gleiche Energie pro Punkt einzufangen wie im Fall 1 im Brennpunkt? Ich vermute, man müsste entweder die Sonne noch ein wenig anheizen oder die Einwirkzeit verlängern. Ist es nicht so, dass der Lichtpunkt einer weiter entfernten Straßenlampe im Fokus scharf abgebildet aber stark überbelichtet wird und die gleiche Straßenlampe bei Defokussierung ein Scheibchen abbildet, dessen Helligkeit bzw. Ladungserzeugung im Pixel noch unter der Maximalladung der Pixel liegt? Wie ist das jetzt mit der Schärfentiefe? Viel Schärfe (Auflösung) auf eine kleine Fläche oder wenig Schärfe auf eine große Fläche, die abgebildete Gesamtlichtmenge ist die gleiche, es sieht nur anders aus. Die geometrische Optik verteilt nur, will ich größere Schärfentiefe (also Auflösung auch in der Tiefe! aber zweidimensional abgebildet) bei gleichem S/N bzw. maximale Ladung der Pixel, dann brauche ich eben doch mehr Photonen -> längere Belichtungszeit.

Zum guten Schluß geben wir die Bilder von einem 48 MP KB-Sensor und von einem 12 MP KB-Sensor auf die gleiche Fläche aus, die so bemessen ist dass wir die Pixel des Bildes aus dem 12 MP KB-Sensor mit den Augen nicht mehr auflösen können, und versuchen das Rauschen zu beurteilen .... und fangen wieder in Beitrag #27 an zu lesen.

Die Auflösung des Sensors an sich ändert sich natürlich nicht, aber der Informationsgehalt des Bildes. In der Unschärfe des Bildes steckt keine Ortsinformation mehr. Es sieht nach irgendwas aus, besteht aus einem Gemisch von Farben und Helligkeiten ohne Ortsinformation. Würden wir die Tiefe des Bildes bei gleicher Blendenzahl auch scharf abbilden wollen, dann bräuchten wir einen dreidimensionalen Sensor. Die Information über die dritte Dimension werfe ich beim zweidimensionalen Sensor weg. Er hat nur eine zweidimensionale Ebene mit der Tiefe Null. Alles was seinen Fokuspunkt davor oder dahinter hat verliert die Position in der dritten Dimension.
Es gibt dreidimensionale Bildspeicher in der Holografie. Da steckt auch die dritte Dimension drin .... mit entsprechend großen Datenmengen für vergleichbare Punktauflösung.

In dem uns interessierenden Bereich der Fotografie spielt die Anzahl der Photonen für die abgebildete Auflösung des Bildes nahezu keine Rolle, solange überhaupt noch eine Detektion pro Pixel erfolgt. Ab einer bestimmten Menge an Licht reicht es aber nicht mehr für eine Mindestauflösung. Theoretisch könnte ich mit einem Pixel in der Größe des Sensors noch ein Lichtquant detektieren. Das wäre die ultimative High-ISO-Fähigkeit des Sensors, nur leider wäre das dann kein Abbild eines Raumwinkels auf eine zweidimensionale Fläche, sondern lediglich die Information darüber, das da irgendwo aus dem Raum ein Lichtquant angekommen ist.

Mein Fazit ist: Ein größerer Sensor nützt mir nur dann wirklich etwas, wenn er die Auflösung pro Flächeneinheit beibehält oder wenigstens nicht im gleichen Maß reduziert wie die Sensorfläche zunimmt. Dann kann ich ein Bild entweder größer ausgeben für die gleiche Auflösung bei gleichem Betrachtungsabstand oder habe eine größere Auflösung bei gleicher Ausgabegröße. Ab dem Moment, wenn ich bei dem Betrachtungsabstand mit der Auflösung des Bildes unterhalb des Auflösung des Auges bin, nützt mich der größere Sensor nichts mehr. Es ist nicht anders, als es zu AnalogFilmzeiten war. Die Körner des Films wurden ja nicht größer, weil man aus dem Filmwickel ein größeres Format herausgeschnitten hat. Der Vorteil ergab sich ausschließlich aus der Gesamtfläche des Formats.
Bild 1 in #27 zeigt, wie die Dynamik ab 1600 ISO einbricht. Da kann ich machen was ich will, es fehlt einfach an Licht. Mit größeren Pixeln steigt die Dynamik (mehr Photonen pro Pixel), das ist richtig, dafür fehlt es aber an Ortsinformation = Auflösung.
Was man per in Hardware gegossener Logik oder Firmware als mehr oder weniger ansehnliches Ergebnis daraus macht, ist eine ganz andere Geschichte und muß mit dem Ursprung (dem Original-Raumwinkel) nicht unbedingt noch völlig übereinstimmen. Mag sein, dass es auf den ersten Blick "gut aussieht", beim genaueren Hinsehen und im direkten Vergleich mit dem Original kann sich der Eindruck dann aber ändern.

Hier schließt sich der Kreis und wir sind wieder da, wo ich mit dem ersten Beitrag des Threads angefangen habe.

Das soll es bis hier gewesen sein. Mehr Mühe mache ich mir vorerst nicht mehr und wende mich einem eher praxisbezogenen Thema zu.
 
Zuletzt bearbeitet:
Bei dem, was du jetzt geschrieben hast, stimme ich dir im Großen und Ganzen zu. Klingt allerdings für mich schon etwas anders, als das was du vorher geschrieben hast. :p

Aber gut, dass wir es jetzt noch einmal etwas konkretisiert und exakter dargestellt haben.
 
Ein pixelpeeperisches Studium der verschiedensten Sensorformate und Auflösungen quer durch alle Marken aus aktuellem
Entwicklungsstand bei 100%-Ansicht hat gezeigt, dass unter der Voraussetzung gleiche Schärfentiefe und ungefähr gleiche
Detaildarstellung alle Sensoren auch ungefähr gleich rauschen. Wenn man die Herkunft der Bilder nicht kennt, ist es
schwer bis unmöglich heraus zu finden von welchem Sensor die 100%-Bilder stammen.

Richtig. Und zwar so lange, so lange ich an allen verglichenen Kameras:
- die selbe Schärfentiefe
- die passende ISO-Empfindlichkeit
einstellen kann und die Verschlusszeit gleich sein soll und sowieso bei allen Sensoren die Pixelzahl die selbe ist.

Bei KB: Blende 16, ISO 3200 = bei FT: Blende 8, ISO 800 = bei 2/3"-Sensor: Blende 4, ISO 200 = 1/3" Sensor: Blende 2, ISO 50 = 1/1,5"-Sensor (dzt. nicht realisierbar): Blende 1, ISO 12

Ergibt unter der Voraussetzung gleich hoch stehender Technologie das selbe Ergebnis.

Für Aufnahmen, bei denen sehr große Schärfentiefe benötigt wird - beispielsweise Macro - ist also das Format vollkommen egal.

In Deinen sonstigen Ausführungen vermengst Du einige Dinge, die miteinander prinzipiell nichts zu tun haben. Die Auflösung des Sensors und dei Größe der Einzelsensoren ist eine Sache des Sensors bei der Bilderfassung. Das Rauschen ist ein Problem der Elektronik. Die Schärfentiefe ist ein Problem des Objektivs.

Die optimale Pixelgröße ist dann gegeben wenn unter einer bestimmten Motivbeleuchtung alle möglichichen Helligkeitsstufen zwischen Schwarz und Weiß erfasst werden können. Wenn also beispielsweise 256 Helligkeitsstufen (typischerweise sind es erheblich mehr) erfasst werden können sind für die Darstellung von Weiß 255 Photonen nötig (unter der wahrscheinlich falschen Annahme, dass ein Photon mehr eine weitere Helligkeitsstufe bedeutet; es sind also eher erheblich mehr). Wenn der Einzelsensor kleiner ist, dann ist keine optimale Farbdarstellung mehr möglich. Eine Verstärkung des Signals - höhere Empfindlichkeit als nominale des Sensors - spreizt nur die einzelnen Helligkeitsstufen, bringt aber eine gröbere Farbdarstellung.

Zur nötigen Auflösung zur optimalen Erfassung: Wenn das Lesegerät - also das Auge - bei einem gewissen Betrachtungsabstand 150dpi auflösen kann, dann ist eine schon sehr gute Erfassung bei 150dpi möglich, aber optimal wird es erst bei doppelter Auflösung. Wenn 150dpi reichen sollen, dann setzt das voraus, dass die einzelnen Auflösungspunkte in der Vorlage exakt dort liegen, wo der Einzelsensor jeweils liegt, der das Lesen soll. Wenn das versetzt ist, dann kann die volle Auflösung von 150dpi nicht gelesen werden. Wenn man die Auflösung der Vorlage linear verdoppelt, dann kann man die vollen 150dpi des Lesegeräts tatsächlich nutzen.

Das selbe Problem gibt es beispielsweise beim Offsetdruck, wenn Halbtöne mit Punktraster aufgelöst werden sollen. Dann ist die Auflösung des Punktrasters beispielsweise 150ppi. Wenn es nun möglich wäre, das aufzurasternde Bild exakt so auszurichten, dass ein Pixel des Bildes exakt auf der Position eines Rasterpunkts zu liegen kommt, dann würden 150dpi Auflösung für das Bild reichen. Da das aber in der Praxis nicht möglich ist, muss das Bild für optimale Ergebnisse eine Auflösung von 300dpi haben.
 
Zuletzt bearbeitet:
@fewe:

Zitat:
"Für Aufnahmen, bei denen sehr große Schärfentiefe benötigt wird - beispielsweise Macro - ist also das Format vollkommen egal."

Im Prinzip ja aber von praktischer Seite ... es ist eigenes Thema und gehört nicht hier rein.

Zitat:
"In Deinen sonstigen Ausführungen vermengst Du einige Dinge, die miteinander prinzipiell nichts zu tun haben.(...) "

Nach welchen Prinzip? Da sind wir eben unterschiedlicher Ansicht. Ich denke schon,
dass für das Endergebnis, das Bild, alles auf dem Weg vom Motiv bis zum Bild dazu gehört.
Die Summe aller Glieder macht die Kette. Was nützt mich ein schönes vergoldetes Kettenglied
aus Stahl, wenn da dran eine rostiger Blumendrahtring hängt? Oder ein Beispiel von des
Deutschen liebstem Spielzeug: Ein Auto mit vorne drinn 300 PS und riesigem Spoiler dürfte
mit Bremsen aus einem Autoscooter-Spaßwägelchen sehr schnell an die Grenze seiner Nutzbarkeit
"fahren". Bild 4 in #28 habe ich nicht ohne Grund angehängt. Außerdem rauscht auch das Licht
selbst, mitunter sogar mehr als der Rest, und man kann es sehen und messen.

Zu Auflösung und Druck sind wir beieinander. In #27 im zweiten Absatz habe ich ja darauf
hingewiesen, dass ich die Rechnerei der Handlichkeit und Beispielhaftigkeit wegen mit diesen
Größen ausgeführt habe und sich das jeder für andere Anforderungen selbst ausrechnen kann.
 
@fewe:

Zitat:
"Für Aufnahmen, bei denen sehr große Schärfentiefe benötigt wird - beispielsweise Macro - ist also das Format vollkommen egal."

Im Prinzip ja aber von praktischer Seite ... es ist eigenes Thema und gehört nicht hier rein.

Zitat:
"In Deinen sonstigen Ausführungen vermengst Du einige Dinge, die miteinander prinzipiell nichts zu tun haben.(...) "

Nach welchen Prinzip? Da sind wir eben unterschiedlicher Ansicht. Ich denke schon,
dass für das Endergebnis, das Bild, alles auf dem Weg vom Motiv bis zum Bild dazu gehört.
Die Summe aller Glieder macht die Kette. Was nützt mich ein schönes vergoldetes Kettenglied
aus Stahl, wenn da dran eine rostiger Blumendrahtring hängt? Oder ein Beispiel von des
Deutschen liebstem Spielzeug: Ein Auto mit vorne drinn 300 PS und riesigem Spoiler dürfte
mit Bremsen aus einem Autoscooter-Spaßwägelchen sehr schnell an die Grenze seiner Nutzbarkeit
"fahren". Bild 4 in #28 habe ich nicht ohne Grund angehängt. Außerdem rauscht auch das Licht
selbst, mitunter sogar mehr als der Rest, und man kann es sehen und messen.

Von der praktischen Seite freilich dann, wenn die Kamera das auch kann und das alles einstellbar ist.

Ja, aber die Komponenten funktionieren dennoch voneinander unabhängig in dem Sinne, dass es keine Wechselwirkungen gibt. Auf das rauschende Licht hat der Sensor keinen Einfluss, dass kann nur die Elektronik korrigieren, hat aber wiederum nichts mit dem thermischen Rauschen und dem Verstärkungsrauschen der Elektronik zu tun.

Beim Auto hat die Bremse wieder mehr mit dem Gewicht und dem Fahrwerk etwas zu tun. Auf eine Geschwindigkeit von 200kmh kommt man möglicherweise auch ohne Motor wenn ein Gefälle lang genug ist. Wenn der Motor 500PS hat und das Auto aber nicht schneller als 120kmh fährt (gibt es in den USA beispielsweise), ist die Motorleistung für die Bremse irrelevant. So lange man also nicht während des Bremsens Vollgas gibt, gibt es zwischen Bremse und Motorleistung keine Wechselwirkung.

So war da gemeint. Schöne Feiertage!
 
(...) Auf das rauschende Licht hat der Sensor keinen Einfluss, dass kann nur die Elektronik korrigieren, (...)
(...) Schöne Feiertage!
Da muss ich einen Irrtum aufklären. Die Elektronik kann das Rauschen des Lichts nicht korrigieren. Sie kann es kaschieren, platt machen, glätten oder wie auch immer man das nennen mag. Das ist aber dann auch ein Vernichten von Informationen aus dem Raumwinkel (die vielleicht manchem vom esthetischen Standpunkt aus gesehen nicht gefallen, aber trotzdem Inhalt des momentanen Abbilds sind) mit gleichzeitigem Vernichten von Feinstdetails. Das kann die Elektronik nämlich nicht unterscheiden.
 
Da muss ich einen Irrtum aufklären. Die Elektronik kann das Rauschen des Lichts nicht korrigieren.

Ja so hatte ich das gemeint, also nicht im strengen Wortsinn von Richtigstellen. Es ist ein interessanter Ansatz, dass das Rauschen des Lichts selbst freilich auch die "wahre" Abbildung der Tatsachen ist. Stimmt eigentlich.
 
WERBUNG
Zurück
Oben Unten