• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb August 2025.
    Thema: "Kurven"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum August-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lichtstarke Optiken vor dem Aus?

Beaker80 schrieb:
Bei Portraits wird man nach wie vor eine geringe Tiefenschärfe bevorzugen. Ob das aber teilweise mehrere hundert Euro Aufpreis wert ist, muss wohl jeder selbst beurteilen.


...mir war die Freistellungsmöglichkeit es sogar "wert", von einer G5 auf das digitale EOS System umzustellen...

Insofern...
 
ewm schrieb:
Das hat auch keiner hier bestritten. Es ging darum, daß die Photonenzahl nicht im RAW-Programm angezeigt wird, sondern daß das (normierte) Helligkeitswerte sind.

Gruß
ewm
Aber das ist für mich letzlich das selbe ;) Das für den Fotografen die tatsächliche Photonenzahl uninteressant ist, ist ja klar, sonst wäre er auch Physiker ;)
 
ewm schrieb:
Das hat auch keiner hier bestritten. Es ging darum, daß die Photonenzahl nicht im RAW-Programm angezeigt wird, sondern daß das (normierte) Helligkeitswerte sind.

Das ist zweifellos richtig.

Der eingestellte ISO-Wert legt dabei den Umrechnungsfaktor zwischen der Anzahl der absorbierten Photonen und der im Raw-File gespeicherten 12 bit- oder 14 bit-Zahl an. Bei ISO 100 ist das vielleicht eine 0,04, bei ISO 800 eine 0,31 und bei ISO 6400 eine 2,51.

Man kann diesen Faktor stetig vergrößern, ohne das es einen Wechsel aus Werten gibt, die bessere und welche, die schlechtere Bilder liefern. Das Rauschen ist stark genug, daß auch ein Faktor von 3,00 keine Höcker bei 0, 3, 6, 9 us.w. verursacht.

Wenn sich das Rauschen durch das Auslesen und die Elektronik verringert, wird die Verteilung der Meßwert von "haufenförmig" in "waschbrettförmig" mutieren. Ab diesem Punkt differenziert gibt es bessere und schlechtere Umrechnungsfaktoren. Eine 0,57 liefert dann z.B. mehr verrauschte Bilder als eine 0,50. Dort muß man (der Kameraentwickler) zunehmend Gedanken über die Zuordnung Photonen <=> RAW-Werte machen.

Den Fotographen wird das primär nicht interessieren.
 
Zuletzt bearbeitet:
Frank Klemm schrieb:
Das ist zweifellos richtig.

Der eingestellte ISO-Wert legt dabei den Umrechnungsfaktor zwischen der Anzahl der absorbierten Photonen und der im Raw-File gespeicherten 12 bit- oder 14 bit-Zahl an. Bei ISO 100 ist das vielleicht eine 0,04, bei ISO 800 eine 0,31 und bei ISO 6400 eine 2,51.

Interessant wäre gewesen, wie Du auf den Wert 2,7 Photonen bei einer bestimmten Pixelgröße, ISO Wert und Helligkeit kommst.

Gibt es dafür eine Quelle? Du hast die DIN zitiert ?
 
MrJudge schrieb:
Vor ein paar/etlichen Jahren konnte man sich auch nicht vorstellen das es Vollformatchips geben wird, das es über 16 Megapixel gibt, das man mit einem 8MP Chip 8 Bilder/sec schafft, das es so rauschfreie 12MP mit VF-Chip gibt usw. usf.
Was heute technisch unmöglich scheint, kann übermorgen schon ein alter Hut sein...

Nun, solche Sprünge sind aber nur dann zu realisieren, wenn ein völlig neuer Ansatz das Licht der Welt erblickt oder wenn eine neue Technologie noch in den Kinderschuhen steckt.

Film hat es in 100 Jahren nicht geschafft, rauscharme ISO 1600 Bilder zu ermöglichen was den Sensoren innerhalb eines Jahrzehnts gelungen ist. Film ist zwar immer ein kleines bißchen besser gewesen, aber seine physikalsichen Grenzen konnte er eben nie aushebeln.

Auch die Sensoren unterliegen physikalischen Grenzen und werden zwar auch in Zukunft immer noch ein bißchen besser werden, ein Quantensprung wird aber vermutlich nicht mehr möglich sein, außer es kommt wieder ein völlig neuer Ansatz in der Fotografie (den wir uns noch nicht vorstellen können)

Eher glaube ich an eine elektonische Echtzeitsignalverarbeitung, die Objektivschwächen automatisch rausrechnet, womit dann F1,0 Optiken einfach zu bauen sind und man die CAs, Vignettierungen, Verzeichnungen, etc per EBV eliminiert.

Auch Prozessoren haben sich die letzten Jahrzehnte rasant entwickelt, aber die Grenze bei 4Ghz besteht nun doch schon erstaunlich lange. Zumindest in dieser Hinsicht sind Quantensprünge nicht mehr zu erwarten, außer es kommt auch hier wieder ein völlig neuer Ansatz.

Natürlich kann man in der Zwischenzeit immer (Not-)Lösungen finden, bei den Prozessoren dann eben parallele Signalverarbeitung oder bei den Sensoren dann eben riesengroße Pixel...

Aber mir persönlich erscheint ein rauschfreier ISO 32.000 Sensor derzeit genauso unwahrscheinlich wie ein 100 Ghz Prozessor.

mfg
 
Cephalotus schrieb:
Auch Prozessoren haben sich die letzten Jahrzehnte rasant entwickelt, aber die Grenze bei 4Ghz besteht nun doch schon erstaunlich lange. Zumindest in dieser Hinsicht sind Quantensprünge nicht mehr zu erwarten, außer es kommt auch hier wieder ein völlig neuer Ansatz.

Bei Raumtemperatur ja. Der Rekord für einen flüssiggekühlten P4, bei -190C oder so, liegt glaube bei etwas über 7 GHz. Man kann Gehäuse mit Flüssigkühlern kaufen die einen solchen Prozessor auf -50 bis -70C runterkühlen, dann erreicht ein P4 ca. 5 GHz. Sowas is dann durchaus alltagstauglich.
Wenn man sowas mit Sensoren schafft, könnte ich mir rauscharme ISO 12800 schon vorstellen, mit der heutigen Technik.

Cephalotus schrieb:
Aber mir persönlich erscheint ein rauschfreier ISO 32.000 Sensor derzeit genauso unwahrscheinlich wie ein 100 Ghz Prozessor.

Man könnte sicherlich einen RISC Prozessor mit 5 GHz bauen. Intel hat den P4 mit 3,8 GHz für dieses Jahr angekündigt, und das is ein CISC Prozessor.
 
Cephalotus schrieb:
Nun, solche Sprünge sind aber nur dann zu realisieren, wenn ein völlig neuer Ansatz das Licht der Welt erblickt oder wenn eine neue Technologie noch in den Kinderschuhen steckt.
Woher willst du das wissen?
Ich erinner mich noch gut an das Rennen um den ersten Ghz Prozessor. Intel bremste immer aus und dann war auf einmal AMD da mit dem ersten Ghz Prozessor, fluggs war auch Intel soweit...
Auch Prozessoren haben sich die letzten Jahrzehnte rasant entwickelt, aber die Grenze bei 4Ghz besteht nun doch schon erstaunlich lange.
Es macht vielleicht einfach keinen Sinn mehr, noch mehr Ghz zu haben? Wofür braucht man denn schon mehr als 3Ghz, selbst die sind für die allermeisten Anwendungen overkill. Selbst Bildbearbeitung reicht doch 3Ghz aus und der Flaschenhals bei großen Arbeiten ist eher der Arbeitsspeicher.
Aber mir persönlich erscheint ein rauschfreier ISO 32.000 Sensor derzeit genauso unwahrscheinlich wie ein 100 Ghz Prozessor.
Derzeit, klar, aber was ist in 5 Jahren?
 
Ich denke eher das das vorstellen lichtstarker Optiken abgenommen hat seit jeder eine DSLR haben muss, und es nicht kapiert das es sinnlos ist 2000? für den Body auszugeben um da eine 100? Scherbe vorzuschnallen.

Lichtstärke sagt doch den meisten nichts mehr. Stellt euch mal ne Stunde in nen Fotoladen und schaut wie es ausseiht wenn jemand eine 20D oder so kaufen will. DIe Fragen: "Wie hoch ist die Auflösung?", "Wie viele Bilde rkann man machen?" usw... Nicht mal fragen nach der Optik, maximal beiläufig: "Ist das Objektiv dabei?" oder ´"Hat es 10 Fach Zoom?"

Diese Leute sollten eher mit nem Buch, oder noch besser mit nem Buch und den Grundlagen in der Analogfotografie anfangen...

Wenn einem Begriffe wie "Focus", "Blende", "Belichtungszeit", "Abblenden", "Schärfentiefe" nichts sagen, kann man mit einer DSLR nichts anfangen, oder zumindest keine guten
Fotos machen.

Das merkt man auch an vielen Fragen: "Bild ist überbelichtet", "Bild ist unscharf", "Bild ist verwackelt" usw....

Und daran passt sich der Markt an: Es werden natürlich keine Sachen mehr vorgestellt die eh nur ganz wenige Leute kaufen... Es wird für den Massenmarkt produziert.


Deshalb denke ich durchaus das es normal ist das weniger lichtstarke Optiken vorgestellt werden....
 
MrJudge schrieb:
Es macht vielleicht einfach keinen Sinn mehr, noch mehr Ghz zu haben? Wofür braucht man denn schon mehr als 3Ghz, selbst die sind für die allermeisten Anwendungen overkill. Selbst Bildbearbeitung reicht doch 3Ghz aus und der Flaschenhals bei großen Arbeiten ist eher der Arbeitsspeicher.

Doch, mehr Megahertz machen schon Sinn. Als High End Zocker schraubt man zwei Geforce 7800 GT in seinen PC, und is dann CPU limitiert. Oder mehr Megahertz könnte für eine bessere AI verwendet werden, ein besseres Physikmodell, etc. Es gibt mittlerweile spezielle Karten die die Physikberechnung übernehmen sollen, um die CPU zu entlasten.
Oder mehr Megahertz für noch bessere Komprimierung, bzw. noch bessere Bildqualität bei HDTV. Selbst mein 2,7 GHz Athlon64 schafft es nich 1080i flüssig zu dekodieren.
Ich hätte auch nix dagegen wenn ein Prozessor es schafft ein 16 Mpixel RAW Bild in 1s zu konvertieren in ein JPG, du etwa ? Mein A64 braucht dafür im Moment ca. 5s, und das bei 6 Mpixel.
Oder wenn die Umwandlung eines 2 Stunden Films von HDTV in DivX in nur 1 Minute erledigt wäre.
 
Cephalotus schrieb:
Nun, solche Sprünge sind aber nur dann zu realisieren, wenn ein völlig neuer Ansatz das Licht der Welt erblickt oder wenn eine neue Technologie noch in den Kinderschuhen steckt.
Man sollte sich ansehen, was in der Astronomie so üblich ist. Dann merkt man, daß das was neu ist, gar nicht so neu ist. Für Widerangeaufnahmen hat man auch dort schon vor Jahren zwei- bis dreistellige Megapixelsensoren hergestellt, ein Sensor pro Waver und solche Späße.

Film hat es in 100 Jahren nicht geschafft, rauscharme ISO 1600 Bilder zu ermöglichen was den Sensoren innerhalb eines Jahrzehnts gelungen ist. Film ist zwar immer ein kleines bißchen besser gewesen, aber seine physikalischen Grenzen konnte er eben nie aushebeln.
Das Problem bei Filmen ist, daß der eigentliche photochemische Prozeß erst durch Absorption von 4 Lichtquanten in einem Silberjodidkristall ausgelöst wird.
Die TECHNISCHE Grenze beim Film ist damit wesentlich von der PHYSIKALISCHEN Grenze entfernt. In dunklen Bereichen an der Grenze der Detektion sellt sich damit eine Auslöserate von ~I^4 ein, Halbleiter sind mit ~I^1 da wesentlich gutmütiger.

Cephalotus schrieb:
Auch die Sensoren unterliegen physikalischen Grenzen und werden zwar auch in Zukunft immer noch ein bißchen besser werden, ein Quantensprung wird aber vermutlich nicht mehr möglich sein, außer es kommt wieder ein völlig neuer Ansatz in der Fotografie (den wir uns noch nicht vorstellen können).
Empfindlichkeitssprünge (was sind Quantensprünge?) wird es schon noch geben, technisches Potential bieten noch:
* weg von Bayer zu 3 Einzelsensoren: dichroitische Spiegel und 3 Sensoren ist aber zu aufwendig und Sigmas Weg ist noch in den Kinderschuhen. Faktor 2 im Helligkeitsrauschen und Faktor 4 im Farbrauschen sind theoretisch erreichbar.
* Optimierung des Ausleserauschens von CCD- und APS-Sensoren.
* APD-Sensoren und variable Belichtungszeit. Das Raw-Bild ist keine 2D-Matrix von 12-bit-Werten, sondern eine 3D-Matrix von 1-bit-Werten. Beim Belichten stelle ich die maximale Belichtungszeit ein, am Computer kann ich diese im Raw-Converter dann lokal reduzieren.

Cephalotus schrieb:
Eher glaube ich an eine elektronische Echtzeitsignalverarbeitung, die Objektivschwächen automatisch rausrechnet, womit dann F1,0 Optiken einfach zu bauen sind und man die CAs, Vignettierungen, Verzeichnungen, etc per EBV eliminiert.
Ersetze "einfach" durch "einfacher". Einfach sind 1:1,0 Optiken nie.
Ansonsten ist dieser Schritt schon längt ÜBERFÄLLIG.

Cephalotus schrieb:
Auch Prozessoren haben sich die letzten Jahrzehnte rasant entwickelt, aber die Grenze bei 4 GHz besteht nun doch schon erstaunlich lange. Zumindest in dieser Hinsicht sind Quantensprünge nicht mehr zu erwarten, außer es kommt auch hier wieder ein völlig neuer Ansatz.

Natürlich kann man in der Zwischenzeit immer (Not-)Lösungen finden, bei den Prozessoren dann eben parallele Signalverarbeitung oder bei den Sensoren dann eben riesengroße Pixel...
Was ist an Parallelität eine Notlösung? Serialisierung ist eher eine Notlösung.

Aber mir persönlich erscheint ein rauschfreier ISO 32.000 Sensor derzeit genauso unwahrscheinlich wie ein 100 GHz Prozessor.
Definiere rauschfrei. Rauschfrei ist kein Sensor. Nenne mir den SNR (ohne Rauschfilterung), den Du haben willst und die Empfindlichkeit und ich sage Dir die Größe der Pixel. Bei 1 mm x 1 mm pro Pixel sind Megapixelsensoren nicht mehr tragbar ;-)
 
p5freak schrieb:
Doch, mehr Megahertz machen schon Sinn. Als High End Zocker schraubt man zwei Geforce 7800 GT in seinen PC, und is dann CPU limitiert. Oder mehr Megahertz könnte für eine bessere AI verwendet werden, ein besseres Physikmodell, etc. Es gibt mittlerweile spezielle Karten die die Physikberechnung übernehmen sollen, um die CPU zu entlasten.
Oder mehr Megahertz für noch bessere Komprimierung, bzw. noch bessere Bildqualität bei HDTV. Selbst mein 2,7 GHz Athlon64 schafft es nich 1080i flüssig zu dekodieren.
Ich hätte auch nix dagegen wenn ein Prozessor es schafft ein 16 Mpixel RAW Bild in 1s zu konvertieren in ein JPG, du etwa ? Mein A64 braucht dafür im Moment ca. 5s, und das bei 6 Mpixel.
Oder wenn die Umwandlung eines 2 Stunden Films von HDTV in DivX in nur 1 Minute erledigt wäre.
Der Flaschenhals ist doch aber der Arbeitsspeicher, bei Bildern und Filmen müssen eben unmengen an Daten hin und hergeschoben werden. Da nutzt eine schnelle CPU garnix, die bräuchte dann auch einen großen Cache oder eben schnellen Arbeitspeicher und natürlich auch schnellere Festplatte, DVD/CD etc. von denen die Daten ertmal gelesen bzw. wieder zurück geschrieben werden.
 
p5freak schrieb:
Doch, mehr Megahertz machen schon Sinn. Als High End Zocker schraubt man zwei Geforce 7800 GT in seinen PC, und is dann CPU limitiert. Oder mehr Megahertz könnte für eine bessere AI verwendet werden, ein besseres Physikmodell, etc. Es gibt mittlerweile spezielle Karten die die Physikberechnung übernehmen sollen, um die CPU zu entlasten.
Oder mehr Megahertz für noch bessere Komprimierung, bzw. noch bessere Bildqualität bei HDTV. Selbst mein 2,7 GHz Athlon64 schafft es nich 1080i flüssig zu dekodieren.
Ich hätte auch nix dagegen wenn ein Prozessor es schafft ein 16 Mpixel RAW Bild in 1s zu konvertieren in ein JPG, du etwa ? Mein A64 braucht dafür im Moment ca. 5s, und das bei 6 Mpixel.
Oder wenn die Umwandlung eines 2 Stunden Films von HDTV in DivX in nur 1 Minute erledigt wäre.

Besonders Video ist aber massiv parallelisierbar.
Statt 1 CPU mit 4 GHz wären z.B. 1024 CPUs mit 100 MHz wesentlich schneller. 4 GHz-CPUs benötigen so um die 150 mm² Fläche, wie klein könnte man einen 100 MHz-ARM machen? In einen zukünftigen Rechner sollte man CPUs wie RAM stecken können. Pro Karte 128 CPUs und gleich 512 MByte L3-Cache.

50 Jahre Informatik und Programmieren haben aber alles, was parallelisierbar ist, serialisiert. Kaum eine Sprache hat Sprachelemente zur Vektorisierung.
 
Frank Klemm schrieb:
Besonders Video ist aber massiv parallelisierbar.
Statt 1 CPU mit 4 GHz wären z.B. 1024 CPUs mit 100 MHz wesentlich schneller. 4 GHz-CPUs benötigen so um die 150 mm² Fläche, wie klein könnte man einen 100 MHz-ARM machen? In einen zukünftigen Rechner sollte man CPUs wie RAM stecken können. Pro Karte 128 CPUs und gleich 512 MByte L3-Cache.

Sowas wirds nie geben im PC Bereich. Ein PC muss alles können, spezielle CPU Steckkarten mit 100 CPUs drauf nur für Videokonvertierung will die Masse nich haben. Das wäre was für Spezialisten. Und für die wird sowas nich entwickelt weil die Kosten zu hoch wären, aufgrund der geringen Stückzahlen.
 
mariane schrieb:
Der Flaschenhals ist doch aber der Arbeitsspeicher, bei Bildern und Filmen müssen eben unmengen an Daten hin und hergeschoben werden. Da nutzt eine schnelle CPU garnix, die bräuchte dann auch einen großen Cache oder eben schnellen Arbeitspeicher und natürlich auch schnellere Festplatte, DVD/CD etc. von denen die Daten ertmal gelesen bzw. wieder zurück geschrieben werden.

Logisch muss auch das Umfeld stimmen.
 
mariane schrieb:
Der Flaschenhals ist doch aber der Arbeitsspeicher, bei Bildern und Filmen müssen eben unmengen an Daten hin und hergeschoben werden. Da nutzt eine schnelle CPU garnix, die bräuchte dann auch einen großen Cache oder eben schnellen Arbeitspeicher und natürlich auch schnellere Festplatte, DVD/CD etc. von denen die Daten ertmal gelesen bzw. wieder zurück geschrieben werden.

Was für Arbeitsspeicher?

DVD/CD sind erst mal keine Speichermedien, sondern nur zum Transport da. Das sind die aktuellen "Diskettenlaufwerke" heutiger PCs.

Ansonsten muß man davon abkommen, daß es einen zentralen Arbeitsspeicher gibt. Es gibt nur noch lokalen Arbeitsspeicher und schnelle Transportwege (X-Bars), um auf nicht-lokale Daten zugreifen zu können.
AMD ist da schon einen kleinen Schritt in die richtige Richtung gegangen. Graphikkarten (die ja auf dem Pfad der Parallelisierung unseren lahmen CPUs schon etwas voraus sind) sind auch schon den richtigen Weg gegangen. XDR-RAM ist auch die richtige Richtung (heutiger RAM ist eine dauernd umgeschaltete Einbahnstraße, was für ein Unsinn!).

Natürlich sind MASPAS-Systeme (MASPAS = massive parallel) anders zu programmieren als heutige CPUs. Das ganze geht auch etwas vom Weg der universellen CPU weg, weil für eine spezielle Aufgabe die CPU optimiert wird. Eine für Bildverarbeitung optimierte CPU ist für Audio weniger gut geeignet. Aber diesen Weg ist Intel und AMD schon mit MMAX/3DNow!/SSE/SSE2 gegangen. Das sind Spezialanweisungen, die für Schachprogramme völlig unbrauchbar sind und die auch bei der Rechtschreibkorrektur nicht wirklich helfen.
Auf der anderen Seite sollte man aber auch nur die Dinge optimieren, die man benötigt und die zu langsam sind. Das ist heutzutage im wesentlichen Bildverarbeitung und Videoverarbeitung. Audio "langweilt" mittlerweile heutige CPUs. Wenn man "The Wall" von Pink Floyd in 10 Sekunden dekodieren kann, dann sind weitere Optimierungen sinnlos.
 
p5freak schrieb:
Bei Raumtemperatur ja. Der Rekord für einen flüssiggekühlten P4, bei -190C oder so, liegt glaube bei etwas über 7 GHz. Man kann Gehäuse mit Flüssigkühlern kaufen die einen solchen Prozessor auf -50 bis -70C runterkühlen, dann erreicht ein P4 ca. 5 GHz. Sowas is dann durchaus alltagstauglich.
Wenn man sowas mit Sensoren schafft, könnte ich mir rauscharme ISO 12800 schon vorstellen, mit der heutigen Technik.

Kühlen bringt nichts. Kühlen reduziert im wesentlichen den Dunkelstrom. Der interessiert aber bei Freihandaufnahmen NIE.

Der größte Rauschfaktor für Belichtungszeiten im Sekundenbruchteilbereich ist das Ausleserauschen.
Das ist das Teil, das Ladungsträger in einen Widerstand konvertiert, der dann gemessen wird.

Man könnte sicherlich einen RISC Prozessor mit 5 GHz bauen. Intel hat den P4 mit 3,8 GHz für dieses Jahr angekündigt, und das is ein CISC Prozessor.

Die Diskussion RISC und CISC stammt aus den frühen und mittleren 1990er Jahren ist völlig obsolet. Obsolet war sie seit Register-Renaming, Out-of-Order-Execution und Speculative Execution. Näheres auf Anfrage.

Die Vorhersage aus den 1950er Jahren, daß es nie CPUs geben wird, die Befehle in weniger als 1 ns abarbeiten, scheint zu stimmen und sich als Grenze wirklich zu etablieren. 10 ns wurden als durchaus erreichbar eingestuft.

Der Pentium 4 zu Hause arbeitet Befehle in etwa 7 ns ab (2,8 GHz, Execution-Pipeline der Länge 20).
 
Cephalotus schrieb:
Interessant wäre gewesen, wie Du auf den Wert 2,7 Photonen bei einer bestimmten Pixelgröße, ISO Wert und Helligkeit kommst.

Gibt es dafür eine Quelle? Du hast die DIN zitiert?

Die DIN definiert die Empfindlichkeit von 0° DIN in folgender Weise:
* Beginnende Schwärzung (D=+0,1 über Grauschleier) bei 1 Lux*s-Belichtung
* Deutliche Schwärzung (D=+0,9 über Grauschleier) bei 20 Lux*s-Belichtung
* Lux = lx, Lux*s = lxs

Weiterhin sind
* 48° DIN = 50000 ASA ( => 0,00002...0,0004 lxs )
* 41° DIN = 10000 ASA ( => 0,0001...0,0020 lxs )
* 21° DIN = 100 ASA ( => 0,01...0,20 lxs )
* 1° DIN = 1 ASA ( => 1...20 lxs )
* 0° DIN = 0,8 ASA ( => 0,8...16 lxs)

Weiterhin ist
* 555 nm Wellenlänge sind f = 540 THz Frequenz
* Das Plancksche Wirkungsquantum beträgt h = 6,62607⋅10^−34 Js
* Ein grünes Lichtquantum hat damit E = h f = 0,3578 aWs Energie (aWs = Attowattsekunde = 10^-18 Ws)
* 1 Lux = 1/683 W/m² für 555 nm Wellenlänge
* 0,00002...0,0004 lx = 29,3 ... 585 nW/m²
* 0,00002...0,0004 lxs = 29,3 ... 585 nWs/m² = 0,0293 ... 0,585 aWs/µm²

Weiterhin hat
* Eine Crop 1,6-Kamera einen Sensor mit 22,5 mm x 15 mm Fläche
* Eine 8 MP Crop 1,6-Kamera hat damit (maximal) Pixel der Größe 42,1875 µm².
* Das oben weitergeführt sind dann 1,235...24,7 aWs/Pixel
* Da ein Quant 0,3578 aWs hat, sind das 3,4 bis 69 Quanten (ich bin doch nicht mehr gut im Kopfrechnen).

Die Rechnung gilt für den grünen Farbauszug, der 60% der Helligkeit bringt. Für Rot sieht die Bilanz etwas besser aus (Rote Quanten rauschen weniger (*0,8) und das Auge ist weniger empfindlich (*0,5)), gleiches gilt für blau (Blaue Quanten rauschen stärker (*1,2), das Auge ist aber um etliches unempfindlicher (*0,18)). Etwas genauer gerechnet kommt man daher auf ca. 35% mehr Empfindlichkeit.
 
Zuletzt bearbeitet:
Beaker80 schrieb:
Gerade die lichtstarken Optiken haben doch immer wieder Probleme mit dem Fokus (siehe Tamron 28-75mm 2.8, Sigma 18-50mm 2.8 und sogar das Canon EF 24-70mm 2.8L)

Hi,

das sehe ich nicht so. Bei grosser Blendenöffnung fallen Fehlfokussierungen seitens der Kamera mehr auf. Abgeblendet sorgt die Tiefenschärfe dafür, dass der Fehlfokus nicht mehr so auffällt. Billig hergestellte Objektive verschärfen das Problem natürlich zusätzlich (was hilft es, wenn die Kamera den Schärfepunkt exakt setzt, aber die Objektivmechanik das nicht hergibt ?).

Die Problematik scheint mir da eher auf Seiten der Kamerahersteller zu liegen, wobei für mich nur die Objektive der Kamerahersteller als Referenz taugen.

Grüße

Mattes
 
Foxii schrieb:
Livebild auf dem Display!

Foxi

Hi Foxi.

Niemals ! Ich hasse elektronische Sucher. Das Livebild kann nur optisch entstehen, alles andere ist eine Interpretation durch Sensoren und Elektronik.

Für mich gibt es nichts Überflüssigeres als die ständig wachsenden Displaygrössen (3" sind im Kommen - warum nur ???)

Grüße

Mattes
 
WERBUNG
Zurück
Oben Unten