• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Dynamikumfang - oder der Versuch eine ewige Verwirrung aufzuklären

Und? Auch wenn der Dither-Algorithmus keine perfekte Simulation solch eines Sensors ist, ein Progrämmchen, das den besser simuliert, sollte schnell geschrieben sein und dürfte ein ziemlich ähnliches Bild ergeben. Und ich behaupte mal frech: Ein Sensor mit 100*100 Pixeln mit je 1 Photon könnte mehr Dynamik einfangen als ein enstprechend größerer, der mit 10.000 Photonen gesättigt ist. Mittelwert bilden ist erlaubt und bringt Dynamik. Es erhöht zwar den kleinsten vorkommenden Wert, verringert aber den Wert, den man als nciht verrauscht durchgehen lassen kann.

Dass ein Sensor der einzelne Photonen misst nicht möglich ist, habe ich in #129 erklärt.

OK, machen wir mal ein Beispiel. Das erste Bild ist unser Motiv, das zweite die geditherte Darstellung davon. Nummer 3 und 4 sind über einen Schwellenwert binarisierte Bilder, 3 ist das Ergebnis von 1, und 4 das Ergebnis von 1 und etwas zusätzlichem Rauschen. Sieht 3 oder 4 für irgendjemanden aus wie 2?

Nun kann man das Rauschen noch weiter künstlich steigern. Dann erhält man irgendwann etwas, das mit viel gutem Willen nummer 2 ähnelt. Aber, das ist dann für mich kein binärer Sensor mehr, sondern einer der unterschiedliche Schwellenwerte (das ist die Auswirkung des künstlichen Rauschens) für unterschiedliche Pixel benutzt, und somit in Wirklichkeit unterschiedliche Graustufen detektiert. Außerdem muss man das Rauschen so weit erhöhen, das man sich fragen muss, wieviel eigentlich noch vom Signal übrig bleibt.

Wie man sieht haben wir wahrscheinlich wieder ein Benamungsproblem. Für mich bedeutet ein 1bit Sensor, dass dessen A/D Wandler für alle Pixel den gleichen Schwellenwert für das Signal benutzt, und nicht dass die Ausgabe des Sensors 1bit pro Pixel erzeugt (das wird bei meiner Definition impliziert). Wenn ein Sensor unterschiedliche Schwellenwerte für unterschiedliche Pixel benutzt (künstliches Rauschen), ist das für mich ein Graustufensensor, der ein 1bit Bild liefert.
 
Himmel hilf, mal'n Tag nicht dabei und schwupps! 51 neue Beiträge. :eek:

Bin mal gespannt, ob ich einen Aufsetzpunkt finde ...
 
Dass ein Sensor der einzelne Photonen misst nicht möglich ist, habe ich in #129 erklärt.

Blödsinn. Einfach informieren bevor man was schreibt. Es kommt halt darauf an daß entsprechend wenige Photonen nur da sind.

http://cat.inist.fr/?aModele=afficheN&cpsidt=15664674

Man könnte einwenden, der ist nicht für Kameras geeignet, aber, es ist ein Sensor der ein Photon erkennen kann.

Meßgeräte die das können gibt es schon ewig.

Ich schaue ja nur ab und an hier rein, gibt es jemanden, der ein kurzes Fazit bis zu diesem Punkt der Erkenntnisgewinnung ziehen kann, bzw sagen kann was im Laufe der Diskussion an Klarheit dazugewonnen wurde - bzw wo genau die Unklarheiten noch liegen?


Christian
 
Ich schaue ja nur ab und an hier rein, gibt es jemanden, der ein kurzes Fazit bis zu diesem Punkt der Erkenntnisgewinnung ziehen kann, bzw sagen kann was im Laufe der Diskussion an Klarheit dazugewonnen wurde - bzw wo genau die Unklarheiten noch liegen?

Ich bin mal so offen und erkläre, dass sich mein persönlicher Erkenntnisgewinn hinsichtlich der vom TO gestellten Fragestellung in erstaunlich engen Grenzen hält, ich andererseits diese Frage auch eigentlich schon seit einiger Zeit für mich hinreichend beantwortet halte. :angel:

Ich stelle fest, dass unter uns Beteiligten die Sensibilität für die korrekte Verwendung der Terminologie gestiegen ist, wenn auch noch nicht in dem Maß, das es uns ermöglichen würde, weitgehend frei von Missverständnissen miteinander diskutieren zu können.

Ich stelle allerdings auch fest, dass eine aus meiner Sicht hilfreiche Abstraktion und modellhafte Vereinfachung nicht immer Freunde findet und freue mich über jeden Beitrag, der mir plakativ vor Augen führt, dass ein gewisser Praxisbezug einer Theorie nicht im Wege stehen darf ;)

Summa summarum eine sehr nützliche Fortbildungsveranstaltung :top:
 
ich versuchs mal mit meinen einfachen worten :)

alle Messsysteme haben eine bestimmte Sensibilität, und eine bestimmte Auflösung ihrer Messergebnisse. Ein Sensor in der Kamera misst nun wie viel licht auf jedes seiner elemente fällt und gibt das weiter.
Nun beschäftigen uns in der digitalfotografie diesbezüglich 2 probleme.

1. das Messsystem ist nicht fein genug um licht von eigenrauschen der elektronik zu unterscheiden (bei dunkelheit oder hoher iso) -> rauschen
2. das Messsystem ist nicht in der Lage werte zu messen, die über sein Auflösungsvermögen hinaus gehen -> überbelichtung, nur noch weiß

mit welchem dateiformat man die dynamik nun angibt, wie vielen bits, db oder gar blenden ist dabei recht konfus. Das gute 24bit jpeg reicht schon aus, um ausreichend dynamik aufzunehmen, denn das auge kann garnicht mehr unterschiede in Farben wahrnehmen.
Die 24bit müssen nur gut komprimiert sein, wie es z.b. in form von 2 aufnahmen für hdr photos gemacht wird und solange sich nichts grundlegend an der messtechnik in den kameras ändert, bleibt das die einzige methode.

ich verstehe allerdings (technisch) nicht, warum man die sensoren nicht 2 oder mehr mals pro belichtung ausliest und somit ein überlaufen verhindert.
 
Dass ein Sensor der einzelne Photonen misst nicht möglich ist, habe ich in #129 erklärt.
Also wie schon von einem Vorposter gesagt man kann es immer so dunkel machen das du aus Photonen warten musst - das ist kein Problem. Es gibt in der Phsik/Astronomie Anwendungen da muss man Minuten auf 1 (ich schreibs noch mal aus: ein) Photon warten.

Davon mal ab ist es generell egal ob es einen Sensor gibt der das von mir aufgezeigte verhalten an den Tag legt oder nicht. Es ist machbar - ob nun mathematisch oder praktisch - wir müssen damit leben.

OK, machen wir mal ein Beispiel. Das erste Bild ist unser Motiv, das zweite die geditherte Darstellung davon. Nummer 3 und 4 sind über einen Schwellenwert binarisierte Bilder, 3 ist das Ergebnis von 1, und 4 das Ergebnis von 1 und etwas zusätzlichem Rauschen. Sieht 3 oder 4 für irgendjemanden aus wie 2?
Zur Sicherheit nochmal: Wer genau hingeschaut hat , dem wird aufgefallen sein das das Bild von mir nicht wirkllich (im Ungangsprachlichen Sinn) gedithert wurde. Vielmehr ersetzte ein 8 x 8 (Sub)Pixelfeld einen Graustufenpixel. Die Belegung der (Sub)Pixel war natürlich zufällig.
Damit wurde (im Gegensatz zum Dithern) auch die Auflösung geändert.

Das Rauschen - mal lapidar - war bei diesem Verfahren genausogroß wie er Meßbereich - also um einiges größer als in deinem angeführten Beispiel. Das ist auch der augenscheinliche Unterschied.

So wie ich mich erinnern kann ist dies dann auch der optimale Fall um durch Meßwertfusion optimalen Informationsgewinn zu betreiben. Irgendwie kommt mir da auch noch der Maximum Likelyhood Schätzer in den Sinn.
(Ob das alles 100% stimmt .. hmm Statistik und Numerik I - das ist wirlich lange her)


Nun kann man das Rauschen noch weiter künstlich steigern. Dann erhält man irgendwann etwas, das mit viel gutem Willen nummer 2 ähnelt. Aber, das ist dann für mich kein binärer Sensor mehr, sondern einer der unterschiedliche Schwellenwerte (das ist die Auswirkung des künstlichen Rauschens) für unterschiedliche Pixel benutzt, und somit in Wirklichkeit unterschiedliche Graustufen detektiert. Außerdem muss man das Rauschen so weit erhöhen, das man sich fragen muss, wieviel eigentlich noch vom Signal übrig bleibt.
Hmm da fällt mir noch eine Möglichkeit ein:
Wir machen die Pixel des Sensor so klein das die Warscheinlichkeit das ein Photon auf den Pixel trifft noch viel kleiner wird.
D.h. im Endeffekt bekommen wir ein Schwarzes Bild mit ein paar Einsen irgendwo zwischen drin. Nun machen wir das slebe Spielchen wie bei meinem Bild und verringern die Auflösung so weit das wir wieder Werte zwischen 0 und 255 bekommen.
Und nun ?

Wie man sieht haben wir wahrscheinlich wieder ein Benamungsproblem. Für mich bedeutet ein 1bit Sensor, dass dessen A/D Wandler für alle Pixel den gleichen Schwellenwert für das Signal benutzt, und nicht dass die Ausgabe des Sensors 1bit pro Pixel erzeugt (das wird bei meiner Definition impliziert). Wenn ein Sensor unterschiedliche Schwellenwerte für unterschiedliche Pixel benutzt (künstliches Rauschen), ist das für mich ein Graustufensensor, der ein 1bit Bild liefert.
Wir brauchen doch garkeine verschiedenen Schwellwerte, denn die verscheidenen Schwellwerte entstehen durch das Rauschen und wir können jedes Signal so stark verrauschen das es passt.

Aber eigentich gings ja um Mittelwerte ... das die was bringen wird doch nun klar sein, oder?

criz.
 
Ich schaue ja nur ab und an hier rein, gibt es jemanden, der ein kurzes Fazit bis zu diesem Punkt der Erkenntnisgewinnung ziehen kann, bzw sagen kann was im Laufe der Diskussion an Klarheit dazugewonnen wurde - bzw wo genau die Unklarheiten noch liegen?

Ich schau mal ob ich morgen Zeit hab eine kleine Zusammenfassung zu schreiben.

criz.
 
Mir schwinden die Sinne .... :ugly:

das möchte ich jetzt mal auf eine ganz andere Weise versuchen.

Wie ist der Begriff Dynamikumfang definiert
Das ist wohl die Frage die sich hier etwas zieht, oder?
Die Frage ist doch: Was ist Dynamikumfang?

Müsste die Antwort nicht einfach sein? "Das Verhältnis zwischen hellster und dunkelster Stelle".
Es ist bei der Frage unerheblich ob der Dynamikumfang einer realen Szene, eines Sensors oder eines Ausdruckes gemeint ist. Das macht für die Definition IMHO auch keinen Unterschied, oder?


und in welchem Verhältnis steht er zu dem Begriff der photographischen Blende?

Als Blendenstufe (engl. f-stop) wird jeweils eine Verdoppelung bzw. Halbierung der Lichtmenge (und damit der Helligkeit) beschrieben.

Misst man nun die Helligkeit der hellsten und der dunkelsten Stelle (wieder: egal wo man misst - Foto, Sensor, Realität) dann hat man zwei Helligkeitswerte und kann somit auch in "Blendenstufen" ausdrücken wie groß die Dynamik zwischen diesen beiden Punkten ist.

Im Audiobereich sind es dB - in der Fotografie eben f-stops.


Und jetzt setze ich noch einen drauf:
- Misst man in der Realität die Dynamik (hell/dunkel) und macht davon ein Foto, dann kann man ja sehen, ob diese Bereiche noch sauber aufgenommen werden konnten (also ohne Über-/Unterbelichtung) oder nicht. So kann man ausprobieren, welchen Dynamikumfang ein Film/Sensor noch aufnehmen kann.
- Druckt man dann eine solche Aufnahme aus kann man wiederum sehen, ob diese extremen Bereiche noch sauber gedruckt werden können oder nicht. Man kann dann ausprobieren wieviel Dynamik überhaupt zu Papier gebracht werden kann (kann ja auch wieder nachgemessen werden)

...oder war das jetzt zu einfach :)

Das mag jetzt zu praktisch sein - aber die pure Theorie hilft ja offenbar nicht weiter. Sobald man versucht ein Bezugssystem aufzubauen und Zahlen ins Spiel zu bringen, schon wird dagegen argumentiert oder man landet in der Bittiefe-Diskussion. Das Ergebnis dieses theoretischen Ansatzes dürfte in ein paar Seiten zu dem Ergebnis kommen, dass es gar keine Dynamik gibt ("wenn niemand im Wald ist wenn ein Baum umfällt - ist der Baum dann umgefallen?") ;)
 
Blödsinn. Einfach informieren bevor man was schreibt. Es kommt halt darauf an daß entsprechend wenige Photonen nur da sind.

http://cat.inist.fr/?aModele=afficheN&cpsidt=15664674

Vielleicht solltest Du das nächste mal den gesamten Verlauf der Diskussion lesen, bevor du solche Kommentare zu halb verstandenen Sätzen loslässt. Crizmess hat von einem Sensor gesprochen, dessen Auflösung so groß ist, das pro Pixel maximal ein Photon registriert wird.

@crizmess
Nehmen wir an Du hast einen solchen Sensor gebaut. Was passiert, wenn Du die belichtungszeit verdoppelst?
 
...Nehmen wir an Du hast einen solchen Sensor gebaut. Was passiert, wenn Du die belichtungszeit verdoppelst?
Ich würde sagen, mit einer gewissen Warscheinlichkeit wird ein schon belegtes Mini-Pixel getroffen, mit einer gewissen Warscheinlichkeit ein noch freies. Als Durchschnitt über viele dieser Mini-Pixel betrachtet dürfte sich das wie ein nicht-lineares großes Pixel verhalten. Oder wie Analog-Film halt.
 
Mal kurz uns Schmerzlos:
Richtig belichten musst du bei jedem Sensor.

Das was sonst passiert kannst du bei deiner DSLR ausprobieren.

criz.

Das Problem ist aber das selbst wenn nur 2 Photonen während der Belichtung durchkommen, beide auf das selbe Pixel fallen können. Darum ist, meiner Meinung nach, der von Dir vorgeschlagene Sensor, der den Ort misst wo ein Photon auftrifft (hab ich das richtig verstanden?) nicht möglich. Zumindest nicht für alle Photonen.

Mathematisch, oder mit dem von mir beschriebenen Verfahren, ist dies natürlich möglich.
 
So "unmöglich" ist das nicht. Wie korrekt festgestellt wurde, ist das nämlich ziemlich genau die Funktionsweise eines Analogfilms :)
 
Das Problem ist aber das selbst wenn nur 2 Photonen während der Belichtung durchkommen, beide auf das selbe Pixel fallen können. Darum ist, meiner Meinung nach, der von Dir vorgeschlagene Sensor, der den Ort misst wo ein Photon auftrifft (hab ich das richtig verstanden?) nicht möglich. Zumindest nicht für alle Photonen.

Mathematisch, oder mit dem von mir beschriebenen Verfahren, ist dies natürlich möglich.

Ich glaube du bringst hier 2 Konzepte durcheinander.
Ich habe 2 hypothetische Sensoren vorgeschlagen (mal unabhänig von der Möglichkeit soetwas zu realisieren):

Sensor A war gedacht den Ort jedes Photons das aufschlägt zu bestimmen und daraus soetwas wie eine Photonenkarte zu gewinnen. (Versehen mit einem Zeitstempel wäre dies im Prinzip der ultimative Sensor - der sicher auch gegen einige physikalischen Grundlagen verstößt)

Sensor B war ein "konventioneller" welcher extrem kleine Pixel hat. So kleine Pixel das mit hoher Warscheinlichkeit nur ein Photon auf ein Pixel fällt.

Im Grenzfall sind beide Sensoren gleich.

criz.
 
So "unmöglich" ist das nicht. Wie korrekt festgestellt wurde, ist das nämlich ziemlich genau die Funktionsweise eines Analogfilms :)

Ich habe geschrieben, dass es unmöglich ist sicherzustellen, das maximal 1 Photon pro Pixel auftrifft, solange mindestens 2 Photonen im Spiel sind.

... mit hoher Warscheinlichkeit nur ein Photon ...

Damit kann ich leben, ohne dass wir uns über die Größe der Wahrscheinlichkeit streiten müssen ;).
 
...
Damit kann ich leben, ohne dass wir uns über die Größe der Wahrscheinlichkeit streiten müssen ;).

Das ist jetzt nicht dein Ernst, oder?
Hättest du das gleich am Anfang gesagt das es dir um die Formulierung und die Wahrscheinlichkeit ginge .. dann hätten wir uns die letzten 3 Seiten sparen können. *sic*

criz.
 
Ich dachte, das hätte ich. Vermutlich sind Missverständnisse die Hauptursache für die Länge dieses Threads.
 
WERBUNG
Zurück
Oben Unten