• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Messmethode "Integral": wie erfolgt die Berechung (was f. Mathematiker)?

nukia

Themenersteller
Wie erfolgt eigentlich die Berechnung bei der Messmethode Integral?

Welche Ableitung liegt da zugrunde?
 
Welche Ableitung liegt einem Integralhelm zugrunde? :ugly::p

Du siehst das zu mathematisch - da werden keine Integrale berechet um die Belichtung zu messen ;)

IMHO sagt das "Integral" in der Mittenbetonten Integralmessung aus, dass mittenbetont gemessen wird, dies aber integriert in das ebenfalls berücksichtigte Gesamtbild.

Wie die Belichtungsgewichtung hierbei genau aussieht, ist im Fotolehrgang gut dargestellt:
http://www.striewisch-fotodesign.de/lehrgang/wohin.htm?3_5_1_1
 
Schon klar was diese Messmethode macht, aber was passiert da in der Kamera wirklich?

Da muss es ja auch eine Art Algorithmus geben wie die Messergebnisse ausgewertet werden?
 
Schon klar was diese Messmethode macht, aber was passiert da in der Kamera wirklich?

die haben mehrere Messfelder und die mittleren werden stärker gewichtet

Da muss es ja auch eine Art Algorithmus geben wie die Messergebnisse ausgewertet werden?

den gibt es und der steckt als Betriebsgeheimnis in der Firmware
 
Meiner Meinung nach heißt die Integral-Messmethode so, weil offensichtlich ein Integral über die gesamte Fläche des Bildes gebildet wird. D.h. die Bildfläche ist ein "Koordinatensystem" (wohl im weitesten Sinne ;)), in dem verschiedene "Belichtungswerte" aufgetragen sind. Sie werden von einer Funktion – ich nenne sie mal b – beschrieben. b hat als Funktionsargument z.B. die Position des Belichtgunswert-Punkts [x,y] und ergibt daraus eben den Belichtungswert. Damit die Integrale Methode auch eine mittenbetonte Messung liefert, muss natürlich neben dem "individuellen" Belichtungswert b(x,y) auch noch ein Faktor zwecks der Gewichtung berücksichtigt werden, als z.B. die Funktion w(x,y) ergibt einen Wert weit über 1 für die Bildmitte und einen kleinen Wert für den Bildrandbereich. Nun stelle ich mir vor, dass diese Integral-Messmethode das Integral über die ganze Fläche bildet, also etwa

Integral in den Grenzen [Bildbreite; Bildhöhe] über { b(x,y) multipliziert mit w(x,y) } = E​

E ist dann das Messergebnis, allerdings natürlich wieder eine Funktion! Nur diesmal beinhaltet sie bereits die Gewichtung, sodass man "nur noch" alle [x,y]-Paare einsetzen muss und "schon" hat man das Ergebnis :).
Die jeweilige "Ausfüllung" der hier recht allgemein gehaltenen Aussagen ist dann wohl das wohlbehütete Firmengeheimnis.
Theoretisch könnte man natürlich auch einfach die Summe über die Belichtungswerte mal Faktor bilden (eine Art "gewichteter Durchschnitt"), allerdings geht man ja wohl von fast unendlich vielen und unendlich kleinen Einzelmesspunkte aus, die man eben nur mittels einem Integral erfassen kann.

— Viele Grüße und viel Spaß beim Durchdenken, qju :cool:
 
Nun stelle ich mir vor, dass diese Integral-Messmethode das Integral über die ganze Fläche bildet, also etwa

Integral in den Grenzen [Bildbreite; Bildhöhe] über { b(x,y) multipliziert mit w(x,y) } = E​

E ist dann das Messergebnis, allerdings natürlich wieder eine Funktion!
Seit wann ist ein bestimmtes Integral eine Funktion?

Theoretisch könnte man natürlich auch einfach die Summe über die Belichtungswerte mal Faktor bilden (eine Art "gewichteter Durchschnitt"), allerdings geht man ja wohl von fast unendlich vielen und unendlich kleinen Einzelmesspunkte aus, die man eben nur mittels einem Integral erfassen kann.

— Viele Grüße und viel Spaß beim Durchdenken, qju :cool:

Unendlich strebt bei den nicht-1ern gegen 35, was sich durchaus noch summieren lassen sollte.

Der erste Teil des zweiten Zitats trifft es schon ganz gut. Alle Belichtungsmessfelder werden integral (=deutsch gemeinsam, zusammen) in der Messung berücksichtigt.
 
Seit wann ist ein bestimmtes Integral eine Funktion?

Normalerweise ist ein bestimmtes Integral natürlich keine Funktion; in diesem Fall aber kann man das scheinbar bestimmte Integral noch nicht lösen, weil ja erstmal eine Funktion E "konstruiert" wird, in die man dann die konkreten Daten ist gleich die Menge der Punkt-Paar [x,y] einsetzt. Dann erst lässt sich das bestimmte Integral in den Grenzen wirklich berechnen. Vorher ist es, wie ich bereits in meinem ersten Beitrag erwähnte, noch eine "Funktion" (d.h. die Gleichung ist von ihren Attributen abhängig).

Deine Worterklärung sind sicherlich für einige andere Forums-Mitglieder auch sehr hilfreich.
 
"integral" ist auch etwas ungünstig formuliert. ein integral setzt gemeinhin ein delta x voraus, welches in der praxis (mathematik) unendlich klein ist und somit zu einem dx wird. dieses "delta" wird also zu einem "d"

da unsere kamera aber sicher keine unendlich kleinen und damit verältnismäßig hohe anzahl von belichtungszonen haben, kann man in diesem falle einfach nur die 5x7 (bei den teureren geräten auch mehr) felder aufsummieren. im "prinzip" also eine integralbildung.

bei der normalen integralbildung wird also die helligkeit aller bildsensoren gemessen, diese aufsummiert und nachher durch die anzahl der bildsensoren geteilt. hier also ist das gesamte bild für die belichtung ausschlaggebend.

bei der mittenbetonten "integralmessung" werden den mittleren blichtungssensoren noch ein paar mehr wertigkeiten zugeordnet. man kann also sagen, die mittleren sensoren gehen stärker in die belichtungsmessung ein.

bei der spotmessung wird jeder belichtungssensor ausgelesen und der höchste wert wird zur belichtungsteuerung herangezogen.

ich hoffe das leuchtet soweit ein und war verständlich ;)

sehr schön ist halt bei der unterschiedlichen gewichtung, dass man nun auch den fokuspunkt schön mit in die belichtung einfliessen lassen kann. und wie man das macht, das erklär ich euch ein anderes mal. :lol:
 
"bei der spotmessung wird jeder belichtungssensor ausgelesen und der höchste wert wird zur belichtungsteuerung herangezogen."
Dachte 30 Jahre lang, das das 1-3° Sichtfeld des Spots mir eine neutralgraue Belichung genau für diesen Bereich liefert.

Gruß Rue
 
hast natürlich recht rue. ich war in gedanken schon weiter... bei der messung nach der höchsten helligkeit im ganzen bild... tschuldigung
 
Man sagt in der technischen (also auch computertechnischen) Welt durchaus "Integration", wenn man mathematisch eigentlich eine Addition ausführt. So gesehen gibt es überhaupt keine echte Integration in Computern - mit Ausnahme von Computer-algebra Systemen (z.B. Mathematica).
 
Ja - aber so lässt sich die Integration ja nicht numerisch umsetzen. Daher wird in der Numerik mit endlichen Flächen gearbeitet.
 
Zuletzt bearbeitet:
Man sollte "das Integral" auch nicht mit "Integrieren" (korrekter: unbestimmte Integration, Ermitteln der Stammfunktion) verwechseln.

Das Integral ist erstmal nur die "Fläche unter einer Funktion", im Mehrdimensionalen auch ein Volumen. Das kann man "zufällig" berechnen, wenn man die Stammfunktion kennt - der Integral hat aber per Definition erstmal eben nix mit der Stammfunktion zu tun.

Wird die Fläche numerisch ermittelt - was im Falle von Kameras, die wenige numerische Messpunkte habe anzunehmen ist - ist es letztlich simples addieren und multiplizieren, nicht mehr und nicht weniger.

Was dann dabei wie gewichtet wird, wisse wohl nur die Hersteller - und werden es auch freiwillig nicht mitteilen.
 
Dieser Thread braucht ein Warnschild "Achtung, gefährliches Halbwissen!"..

Wenn hier was aufsummiert wird, dann aber nur oberhalb eines Bruchstriches, oder? Eigentlich wird doch wohl eher ein (zur Mitte hin stärker gewichteter) Durchschnitt gebildet oder?

Die Kamera ermittelt für jedes Messfeld einen Lichtwert. Denke ich mal so.
Würde man alle Lichtwerte einfach addieren, wäre das Bild am Ende völlig unterbelichtet meine ich.
Die addierten Messwerte müssen doch durch die Anzahl der Messfelder geteilt werden.
Wenn mich nicht alles täuscht, sind die Messfelder auch nicht alle gleich groß. Daher müssen die einzelnen Messfelder schon mal in Relation ihrer Fläche zur Gesamtfläche gewichtet werden, und dann müssen noch die mittleren Felder zusätzlich gewichtet werden.

Das ist mein gefährliches Halbwissen, Vermuten, Fragen.

So in etwa denke ich wird es heute gemacht. Am anfang der TTL-Lichtmessung gab es wohl nur eine Fotozelle o.ä. die wohl in der Mitte am empfindlichsten war und zum Rand hin die Empfindlichkeit abnahm.
Das wird heute halt simuliert.

Denke ich.
 
Im Prinzip richtig. Eine DSLR hat eine Anzahl S Messfelder (im Fall vieler Nikon DSLRs z.B. 1005 Felder) deren Lichtintensität gewichtet addiert wird. Je nach Gewichtungsfaktorverteilung kann man verschiedene Belichtungsmodi erzeugen. z.B. so:

1) Spotmessung: in einem kleinen Kreis in der Mitte des Bildfeldes bekommen alle Sensoren das Gewicht 1/N (N=Anzahl der Sensoren in diesem Kreis) - außerhalb ist das Gewicht Null.

2) Integralmessung: Alle Sensoren bekommen das Gewicht 1/S

3) Mittenbetonte Messung: Die Sensoren innerhalb eines größeren Bereichs in der Mitte als bei der Spotmessung bekommen das Gewicht (1-X)*S/M, (M= Anzahl der Sensoren im Bereich). Die Sensoren außerhalb des Bereichs bekommen das Gewicht X*S/(S-M), 0 < X < 0.5
 
Weder Halb- noch Voll. Wie ich geschrieben habe, ist das ein Beispiel, wie man die Gewichtsfaktoren belegen könnte. So oder ähnlich wird es wahrscheinlich bei den Kameraherstellern gemacht. Natürlich kann man sich auch beliebige andere Modi ausdenken. Nikon z.B. verwendet beim 3d-Color-Matrix Modus eine Integralgewichtung, die sowohl auf den RGB-Daten beruht, also nicht z.B. nur aus dem Grünauszug und außerdem die Kontrastverteilung im Bild mit einer "Datenbank" sprich Tabelle abgleicht. So werden klassische Belichtungsfehler (Braut im Kohlenkeller, Kind im dunkler Jacke im Schnee ...) weitgehend vermieden. Das ist so ähnlich sogar im Handbuch beschrieben - wenngleich auch etwas zwischen den Zeilen.
 
WERBUNG
Zurück
Oben Unten