• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs September 2025.
    Thema: "Straßenfotografie s/w"

    Nur noch bis zum 30.09.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Alle Informationen dazu gibt es demnächst hier.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Lichtstarke Optiken vor dem Aus?

MrJudge schrieb:
Woher willst du das wissen?
Ich erinner mich noch gut an das Rennen um den ersten Ghz Prozessor. Intel bremste immer aus und dann war auf einmal AMD da mit dem ersten Ghz Prozessor, fluggs war auch Intel soweit...

Es macht vielleicht einfach keinen Sinn mehr, noch mehr Ghz zu haben? Wofür braucht man denn schon mehr als 3Ghz, selbst die sind für die allermeisten Anwendungen overkill. Selbst Bildbearbeitung reicht doch 3Ghz aus und der Flaschenhals bei großen Arbeiten ist eher der Arbeitsspeicher.

Derzeit, klar, aber was ist in 5 Jahren?

Es gibt aus meiner Sicht zwei Arten von Grenzen bei der technologischen Entwicklung.

1. Solche, wo derzeit die technischen Möglichkeiten noch fehlen (z.B. ein Raumschiff zu bauen, das 50% Lichtgeschwindigkeit fliegt)

2. Solche, die uns die Physik vorgibt (wird werden voraussichtlich nie ein Raumschiff bauen können, das 150% c fliegt und vermutlich werden wir auch nie in die Vergangenheit reisen können...)


Die maximale Auflösung definiert durch die Beugung ist eine Grenze von Typ II und auch die maximale ISO Empfindlichkeit definiert durch die statistische Verteling von Photonen ist so eine Grenze vom Typ II.

Von ISO 1 Mio. zu träumen ist genauso wie von Zeitreisen in die Vergangenheit zu träumen.
Nicht 100%ig auszuschließen, aber zu nahezu 100%ig.

Ein 20 Ghz Prozessor oder ISO 32.000 ist eine Grenze vom Typ I. Durchaus vorstellbar, u.U. dann eben mit anderer Technik als heute benutzt

mfg
 
Skater schrieb:
Mich würde interessieren, ob Du da was Genaueres weißt, oder ob Du
eher allgemein spekulierst.
Es geht darum, was physikalisch möglich ist und was technisch (in vielleicht nicht mal so ferner Zeit) möglich ist. Ich kann leider
nicht sagen, was davon auf dem Markt landen wird und was mit 5 Jahren Verspätung auf dem Markt landen wird, so wie z.B.
Autoradios MP3-Player (ich wollte so was 1999 haben und war kurz davor, es selbst zu bauen) oder modulare TV-Geräte (Loewe
bietet so was an, aber ansonsten nur weltweit Ebbe oder gepfefferte Preise).

Skater schrieb:
Ich glaube nämlich, dass das lange Warten, auf die nächste Generation des Foveon-Chips, seine Ursache in einem kompletten Neudesign des Sensors durch Sigma, oder besser Foveon ist.

Der Nachteil des Foveonkonzeptes ist es ja, dass man keine Einzelkomponenten, wie etwa die Blausensoren in der obersten Schicht, ändern kann, ohne alle anderen, in den darunterliegenden Schichten, auch entsprechend anzupassen.

Da werden sicher die Sensormaterialien, Schichtdicken, die Siliziumart der Trägerschichten, sowie die Auswertungsmatrizen komplett neu auf dem Prüftisch gelandet sein.

Man hört ja auch einiges über andere Neuerungen wie zusätzliche Reflexionschichten zwischen den Blau- und Grünsensoren und so einiges mehr!
Darüber weiß ich überhaupt nichts. Ich könnte nur noch mit weiteren Problemen dienen, mit denen Foveon-Sensoren noch mehr als "normale" Sensoren zu kämpfen haben.

Alternativ oder auch ergänzend könnte man ja auch einen Foveon bauen,
der über ein Set unterschiedlich großer Pixelsensoren verfügt, wie es Fuji bei der S3 macht um die Dynamik erhöhen.
Wenn Du mit variabler Belichtungszeit arbeiten kannst, benötigst Du das nicht mehr. Wenn Du den Sensor alle 125 us ausliest und
8000 us belichtest, gewinnst Du allein schon dadurch 6 Blendenstufen. Bei Nachtaufnahmen mit 500.000 us Belichtungszeit sind es
dann schon 12 Blendenstufen, bei 30 s dann 18 Blendenstufen.
Schwachpunkt ist die Aufnahme von sehr hellen Objekten, da muß dann mit der Blende oder mit Graufiltern abgeschwächt
werden (Gegenlichtaufnahme über das sich kräuselnde Meer). Man kann solche Sensoren nicht durch kurze Verschlußzeiten unempfindlicher machen.

Ein weiterer netter Spaß ist die mögliche Entwacklung (Image Stabilizer) beim Raw-Prozeß. Bewegte Sensoren sind dazu nicht notwendig, ein Gyrosensor, der seine Daten mit ins Rawfile schreibt, reicht aus, wenn man nicht zu sehr wackelt. Die Bewegungsdaten des Gyros können dann als Anhaltswert für die Summation der Teilbilder herhalten. Sind die Einzelbilder hell genug, kann über Tile Matching (wie bei MPEG oder WMV) auch die Bewegung von Objekten teilweise kompensiert werden.

Ein solches Objektiv würde einen Fokuspunkt jedenfalls immer superexakt treffen! :top:
Wenn die Tiefenschärfe nur noch einen mm oder so beträgt, dürfte der
Fokus dann eigentlich nie mehr daneben liegen! ;)
Das hängt von der Funktionsweise des AF ab. Beim Parallaxenverfahren bringt es leider nicht viel (im wesentlichen Helligkeit). Beim Parallaxenverfahren wird das Zwischenbild aus zwei unterschiedlichen Winkeln betrachtet. Die Unterschiede werden bei großer Blende nicht größer. Wird die Blende zu klein, dann funktionieren sie einfach nicht mehr.
 
Frank Klemm schrieb:
Kühlen bringt nichts. Kühlen reduziert im wesentlichen den Dunkelstrom. Der interessiert aber bei Freihandaufnahmen NIE.

Der größte Rauschfaktor für Belichtungszeiten im Sekundenbruchteilbereich ist das Ausleserauschen.
Das ist das Teil, das Ladungsträger in einen Widerstand konvertiert, der dann gemessen wird.

Gehe ich recht in der Annahme, dass Rauschen von drei Faktoren gebildet wird.

1. Signalrauschen (=Photonenverteilung), was heute aber bei unseren DSLRs noch absolut keine Rolle spielt. Dieser Einfluss hängt unmittelbar von der Pixelgröße ab.

2. Dunkelrauschen, das aber heute auch nur bei Langzeitaufnahmen oder extrem hohen Temperaturen eine Rolle spielt und durch große Pixel eh nicht kleiner werden kann, da es in gleichem Maße wie das Signal mit der Pixelfläche skaliert.

3. Ausleserauschen, heute der wesentliche Bestandteil. Dieser ist bei großen und kleinen Pixel gleich groß (?????) und die großen pixel rauschen heute deswegen weniger, weil das Singal dann auch größer ist.

Würde es nun ein Hersteller schaffen, das Ausleserauschen seines Sensors stark zu minimieren, dann wäre die Pixelgröße plötzlich egal, solange man sich nicht ISO Empfindlichkeiten annährt, bei denen dann das Photonenrauschen (oder wie immer man das nennt) der dominierende Faktor ist?

Sind meine Überlegungen richtig ?
 
Zuletzt bearbeitet:
Schon mal was von Freistellen eines Porträts bei Blende 1,8 oder gar 1,2 gehört? Nein?
Das wars dann glaub ich zu dem Thema abgeshen von dem hellern Sucherbild
 
Beaker80 schrieb:
Hallo Leute!
...
Da die neuen Sensoren ja immer empfindlicher werden und gleichzeitig weniger Bildrauschen produzieren, könnten lichtstarke Optiken auf längere Zeit gesehen doch eine Fehlinvestition sein. Zumindest dann, wenn man sie nur wegen ihrer Lichtstärke gekauft hat. (Schöne Effekte dank geringer Tiefenschärfe mal außen vor).

Liegt es nicht sogar im Interesse der führenden Hersteller die Empfindlichkeit nicht weiter zu steigern? Wer würde denn bei rauschfreien ISO 25600 noch ein 300mm 2.8 kaufen? Nur wegen der geringen Tiefenschärfe? Ich weiß ja nicht. Vielleicht mach ich aber auch einen Denkfehler!? Was meint Ihr dazu?

Tut mir Leid falls es zu diesem Thema schon Threads gibt, aber über die Suche habe ich zumindest mit meinen Suchbegriffen nichts gefunden.

Viele Grüße,
Steffen

Ich fasse mal etwas zusammen:
lichtschwache Objektive:

Preis
Schärfe wg kleinerer Anfangsblende (Kompaktknipsenfeeling!)

lichtstarke Objektive:

Unschärfe als Bildgestaltungsmittel
allgemeine optische Qualität
(--> höhere Linien-Auflösung wg. normalerweise aufwändigerer Optiken!))
AF schneller und genauer (mehr Licht)
Sucherhelligkeit
geringeres Rauschen
(wird nie anders sein!==> höhere ISO=mehr Rauschen)

Was bleibt also als Ergebnis?

Immer höhere ISOwerte würden immer kleiner Blenden bedingen!
Unendliche Tiefenschärfe in Verbindung mit ultrakurzen Verschlußzeiten
würden technisch perfekte, superscharfe und unverwackelte Bilder bedeuten.

Das aber kennt man doch schon, wenn auch in abgeschwächter Form:
Kompakt-Kameras!

Alles was eine DSLR gegenüber einer solchen Kompakten auszeichnet
würde durch eine ISO 51.200 Fähigkeit, so man diese denn jemals
benutzen würde, anulliert.

Niemand, der auch nur ein bischen Tiefenunschärfe will,
würde diesen Modus jemals nutzen.

Tatsächlich dürfte sich der Aufwand kaum wirklich lohnen,
ISO 6.400 in die anstehenden Next-Generation-Kameras zu integrieren.

Wer braucht so was, und wofür?
Überwachungskameras vielleicht, Astronomen und so weiter.

Also Techniker, die finsterster Nacht einen schwarzen Pudel vor einer
dunkelblauen Stofftapete fotographieren wollen- warum auch immer! :D

Für gestaltende Fotografie ist sowas jedenfalls vollkommen irrelevant!

Also wird dieser ISO-Wert, der sicher kömmen wird, nur von
Flaschenbodentestern gebraucht werden, die ihre DSLR nicht dafür
brauchen, um schöne, kunstvolle oder einfach erinnerungswürdige
Bilder zu machen, sondern um zu testen.

Die Marketingabteilungen werden uns bei Zeiten aber sicher was anderes
einreden, aber das ändert nix daran, dass die heute üblichen ISO-Werte
spätestens ab 1600 nicht mehr wirklich mit der normalen menschlichen
Wahrnehmung korrelieren.

Natürlich ist gegen ein wenig Reserve aber nix zu sagen! :p

Schönen GRuß
Pitt
 
ma_bai schrieb:
Schon mal was von Freistellen eines Porträts bei Blende 1,8 oder gar 1,2 gehört? Nein?
Das wars dann glaub ich zu dem Thema abgeshen von dem hellern Sucherbild

Laß mal gut sein. Diese Glasdinger an der Kamera wird man auch noch irgendwie ablösen:D

Siehe die letzten Meldungen zur nachträglichen Scharfeinstellung per Computer.

Falls das nicht funktioniert, wird man eben die Photonen ablenken müssen.

Ich sehe schon die ersten Objektive, bestehend aus supraleitfähigen Spulen. Zur Kühlung gibt es Rucksäcke mit Stickstofftanks.

Sigma wird die ersten Objektive mit Kühlung durch Speiseeis (jederzeit nachfüllbar) anbieten.

Canon kontert rot lackiertem Wickeldraht für die Spulen.

Irgendwann viel, viel später wird dann mal jemand die Lichtempfindlichkeit bestimmter Stoffe erforschen und das erste nichtdigitale Lichtbild vorstellen ;)

Gruß
ewm
 
Frank Klemm schrieb:
Es geht darum, was physikalisch möglich ist und was technisch (in vielleicht nicht mal so ferner Zeit) möglich ist.
Naja, schade ;)
Als Sigma-Besitzer wüßte ich etwas mehr ISO durchaus zu schätzen.
Die Konkurrenz läßt bei den ISO´s ja wenig Wünsche offen, wäre toll,
wenn Sigma/Foveon in diesem Punkt gleichziehen könnte! :)
Frank Klemm schrieb:
Darüber weiß ich überhaupt nichts. Ich könnte nur noch mit weiteren Problemen dienen, mit denen Foveon-Sensoren noch mehr als "normale" Sensoren zu kämpfen haben.
Nun ja, ich war da jetzt nicht soweit in der Zukunft wie Du.

Ich könnte mir sowas halt als festverdrahteten Zwischenschritt hin zu
Deinen variablen Belichtungszeiten vorstellen.

Ich vermute mal, dass diese einen Steuerungsaufwand bedeuten, den
heute noch niemand bezahlen kann, sofern man das technisch
überhaupt schon hinbekommt. :(
Frank Klemm schrieb:
Wenn Du mit variabler Belichtungszeit arbeiten kannst, benötigst Du das nicht mehr. Wenn Du den Sensor alle 125 us ausliest und
8000 us belichtest, gewinnst Du allein schon dadurch 6 Blendenstufen. Bei Nachtaufnahmen mit 500.000 us Belichtungszeit sind es
dann schon 12 Blendenstufen, bei 30 s dann 18 Blendenstufen.
Schwachpunkt ist die Aufnahme von sehr hellen Objekten, da muß dann mit der Blende oder mit Graufiltern abgeschwächt
werden (Gegenlichtaufnahme über das sich kräuselnde Meer). Man kann solche Sensoren nicht durch kurze Verschlußzeiten unempfindlicher machen.
...
Hmmm, wenn sowas mal gebaut wird, kann man die Software beim Stacken
ja entscheiden lassen, dass die überlaufenden Bereiche nicht mehr
übernommen werden, wenn sie dann jede Zeichnung verlieren.

Bzw. man muß den Farbraum doch ohnehin dem größeren Dynamikbereich anpassen.

Wenn ich das jetzt richtig verstanden habe, wird die Belichtungsauslesung
in dem Moment unterbrochen, wo die ersten Pixel überlaufen.

Man wird also vermutlich die ersten Frames als sich verlängernde
Messintervalle zur Ermittlung der kritischen Intervall-Länge nutzen,
bevor man das eigendliche Foto in der so ermittelten Intervallänge einließt.

Jedenfalls sollte beim anschließenden Stacken genug Intelligenz in der
Software drin sein, als dass man auf den Graufilter verzichten kann. :cool:

Schönen Gruß
Pitt
 
Skater schrieb:
Ich fasse mal etwas zusammen:
lichtschwache Objektive:

Preis
Schärfe wg kleinerer Anfangsblende (Kompaktknipsenfeeling!)

Die Blende hat nix mit der Schärfe zu tun, ausser du meinst Schärfentiefe, aber das denke ich nich. Du meinst das Objektive mit kleinerer Anfangsblende unscharf sind. Das liegt aber nich an der kleinen Blende, sondern daran das solche Objektive in der Regel billig sind, sprich die optische Konstruktion, das ganze Objektiv, muss günstig in der Herstellung sein. Es wäre problemlos möglich ein 3,5-5,6/18-50 zu bauen was schon bei Offenblende so scharf is wie manches L-Objektiv bei 2,8. Allerdings würde ein solches lichtschwaches Objektiv dann nich mehr 100 Euro kosten sondern 400-500 Euro.

Skater schrieb:
Unschärfe als Bildgestaltungsmittel

Das geht mit lichtstarken Objektiven besser, is bei lichtschwächeren aber nich unmöglich.

Skater schrieb:
allgemeine optische Qualität

Das liegt daran das lichtstarke Objektive viel hochwertigere Gläser verbaut haben. Es wäre kein Problem solche Linsen auch bei lichtschwachen Objektiven einzubauen.

Skater schrieb:
AF schneller und genauer (mehr Licht)

Is das wirklich so ? Mein altes 5,6/400L war sehr schnell, und das an einer 10D. Ich kann mir nur schwer vorstellen das ein 2,8/400L noch schneller sein soll, wenn dann bewegt sich das im hunderstel Sekunden Bereich.

Skater schrieb:

Auch das is so ne Sache. Mein Sigma 2,8/24-60 hatte ein helleres, kontrastreicheres Sucherbild als mein 1,8/50 MkI.


Skater schrieb:
Das aber kennt man doch schon, wenn auch in abgeschwächter Form:
Kompakt-Kameras!

Du kannst die Bildqualität einer Kompaktknipse nich mit der einer DSLR vergleichen. Da können Welten dazwischen liegen.

Skater schrieb:
Alles was eine DSLR gegenüber einer solchen Kompakten auszeichnet
würde durch eine ISO 51.200 Fähigkeit, so man diese denn jemals
benutzen würde, anulliert.

Niemand, der auch nur ein bischen Tiefenunschärfe will,
würde diesen Modus jemals nutzen.

Wie du schon sagtest, man muss es nich benutzen, aber man könnte.

Skater schrieb:
Wer braucht so was, und wofür?
Überwachungskameras vielleicht, Astronomen und so weiter.

Für AL-Fotografie, denn da spart es Geld, je nach Objektivumfang sogar sehr viel Geld. Anstatt eine ganz Reihe hochlichtstarken Festbrennweiten anzuschaffen reichen normale Festbrennweiten. Folgendes Beispiel :

20D
1,4/24L
1,4/35L
1,2/85L
-------
5216 Euro

5D
2/35
1,4/50
2/135L
-------
4539 Euro

Welche Kombination is günstiger ? Nimm jetz noch das 2,8/70-200L bei der 20D dazu und bei der 5D das 4/70-200L und die Differenz wird noch grösser.

Ich hätte nix dagegen auf einem Konzert mit dem 4/70-200L zu fotografieren, anstatt das 2,8/70-200L zu schleppen, du etwa ? Stative könnte man sich so gut wie sparen, IS auch, denn durch die hohen ISO Werte könnte man locker in genügend schnelle Verschlusszeitenbereiche kommen, wo freihand fotografieren problemlos möglich is. Logisch wird ein Stativ niemals ganz ersetzbar sein.
 
Frank Klemm schrieb:
Keine Ahnung, was die neue CMOS-Strategie ist (ich habe jetzt keine Probleme, die Frage zu verstehen, ich gehe davon aus, daß Du Dich auf http://www.digitalkamera.de/Info/News/30/69.htm beziehst).
Genau das meinte ich. Welche Technologie steckt wohl dahinter?

Wenn man das Ausleserauschen deutlich unterhalb von 1 Photon bekommt, kann man einen Sensor während der Belichtungszeit mehrfach auslesen, ohne sich Nachteile einzuhandeln. Das ist bei APDs, PMTs, aber wenn ich richtig nachdenke, dann auch bei EM-CCDs möglich.
Ja, allerdings nur nach Auslesen (Frequenz 1 MHz), also mit einer satten Viertelsekunde Verzögerung.

Bei EM-CCDs und einem Wandler pro Zeile (statt pro Chip) könnte man den Sensor alle 1/8192 s auslesen, das Meßergebnis in Quanten umrechnen und dann entweder diese Zahlen notieren oder die Zahlen zusammenaddieren. Kritisch würde es erst werden, wenn die Zelle innerhalb einer 1/8192 s volläuft.
Aha, Du willst dem Sensor noch eine Ausleseelektronik pro Zeile spendieren! Klingt gut, eine Architektur mit individuellen Wandlern pro Zeile bei größeren Flächensensoren ist mir zwar noch nicht bekannt, da müsste man noch die Parallelisierung des Auslesens weiter hochskalieren. Das Problem ist allerdings, dass dann auch jede Zeile ein teures Gain-Register benötigen würde, welches zudem mindestens die vierfache Fläche der Sensorzeile selbst beansprucht. Derzeit ist ein paralleles Auslesen über 8 Kanäle schon implementiert (und auch die beeindruckende Rate von 70 MP/s der Canon 1er-Serie beruht auf parallelem Auslesen über ich glaube vier Kanäle). Dennoch wird man selbst mit nur 512 Pixeln einer Zeile, einem Wandler pro Zeile und 1 MHz Taktfrequenz beim Auslesen nicht schneller als 1/2000 s, sodass bei einer Achtfachbelichtung und 1/125 s Belichtungszeit gerade mal die Hälfte für die eigentliche Belichtung übrigbleibt und die andere Hälfte der Zeit ausgelesen würde. Also würde diese Technologie nur kaum bei aus der Hand haltbaren Belichtungszeiten einsetzbar werden. Angenommen die Wandlerrate würde auf 10 MHz hochgenommen werden, so ist das Ausleserauschen dann höher und der positive Effekt der EM-CCDs geht zum Teil verloren.

Was vielleicht eher ginge, wäre bei ultraschnellem Auslesen eine ultraschnelle Belichtungsserie mit 2-4 Blendenstufen Spreizung, die dann zu einem Bild mit hoher Dynamik zusammengerechnet werden.
 
Rigger schrieb:
Ich hätte jetzt eher erwartet, das die Verstärkung im Durchschnitt 200 ist - aber selbst auch einer Statistik unterliegt. Wobei die Streuung grösser wird, wenn die Anzahl der Eingangselektronen steigt. (Summation des Rauschens der einzelnen voneinander unabhängigen Verstärkungsvorgängen für jedes Eingangs-Elektron) Dh. man kann so zuverlässig 1e- von keinem e- unterscheiden aber deutlich schlechter 1000e- von 990e- ... (wenn man einen integrierenden Detektor hat)
Ist das bei diesen EM-CCDs nicht so ? (ist das Rauschen des Multiplikationsvorgangs so klein ?)
Deine Folgerung ist absolut korrekt: bei höheren Photonenzahlen ist keine diskrete "Quantelung" der verstärkten Signale mehr zu erwarten. Dennoch sinkt mit dieser Strategie das Ausleserauschen gegenüber dem Aufzeichnungsrauschen (Photonenrauschen oder shot noise) ab. Wo hier ein Optimum der Gain-Faktoren liegt, ist schwer zu entscheiden, ein Faktor 4 ist zumindest noch nicht mit Signal-Clipping im Gain-Register der Andor-Kamera verbunden und würde das Ausleserauschen auf ca. 4-5 Elektronen drücken. Dagegen ist eine perfekte Ausleseelektronik ohne Gain-Register kaum schlechter, 4-5 Elektronen sind eigentlich ein typischer Wert guter CCD Kameras. Eine DSLR dürfte eher mit dem fünffachen Wert zu Buche schlagen.

Bei single-photon-counting hat man dieses Problem natürlich nicht.
Allerdings müsste man dann recht schnell auslesen - am besten hat dann wirklich jeder Pixel seine eigene Datenverarbeitungs-Einheit. Da geht einem bei den aktuellen Pixelgrössen aber einfach der Platz aus. (Möglicherweise reicht es ja Pixel Blöcke ala 64x64 zusammenzufassen und per bump bonding an die Elektronik anzuschliessen)
Dein Vorschlag geht in die gleiche Richtung wie das, was Farnk bereits vorschlug: einen Wandler pro Zeile, Auslesen des Chips in deutlich unter 1 ms und Mehrfachbelichtungen.
 
Frank Klemm schrieb:
Die 33.500 EUR des EM-CCD dürften im wesentlichen durch das "back-illuminated" kommen. Aber selbst wenn ein
nicht-"back-illuminated" "nur" 3.500 EUR kostet, ist das für eine
5.000 EUR-Kamera viel zu viel, dort dürfte der Sensor maximal
250 EUR oder so kosten, bei 750 EUR-Kameras düefte der Werte
unter 50 EUR liegen.
Wenn die "front-illuminated"-Version so billig wäre, dann hätte ich längst einige dieser Kameras. ;)

Übrigens: der Strombedarf für die mehrstufige Peltierkühlung steht der Nutzung in portablen Kameras strikt entgegen. Nur vorbeugend: Du hattest an anderer Stelle die Notwendigkeit einer Kühlung für die "normale" Fotografie abgestritten, wobei ich Dir in bezug auf normale Chips gerne recht gebe. Bei EM-CCDs ist das etwas anders, da Einzelphotonenzählungen natürlich schon einzelne thermische Elektronen mitzählen. In diesem Fall wird es ohne Kühlung schon bei Belichtungszeiten um 10 ms mit dem Dunkelstrom kritisch - und zudem extrem Temperatur-abhängig, da thermische Ladungstrennungen nicht-linear (ich glaube etwa um Faktor 3 bei 10° Temperaturänderung) mit der Temperatur skalieren.
 
Frank Klemm schrieb:
Ich bin gerade am Durchrechnen (traue keiner Statistik, die Du nicht selbst gefälscht hast). Der Verstärkungsprozeß bei EM-CCDs ist selbst auch ein rauschender Prozeß. Bei wenigen Photonen stört das nicht (Molekularbiologie, Astronomie), aber in der Photographie sieht es mir so aus, als wenn man nur sehr geringe Verstärkungen nutzen kann. V_opt (Anzahl_der_Photonen, Ausleserauschen_des_Wandler_in_Photonen) scheint mir für größere Photonenzahlen auf Werte zwischen 1 und 2 zu fallen.
Bei größeren Photonenzahlen lässt man das Verstärkerregister lieber ganz weg und liest mit klassischer Ausleseelektronik rauschärmer (ca. 5 Elektronen) aus; beide Auslesekanäle sind bei der Andor iXon fakultativ anwählbar.

Die EM-CCDs bringen in der Tat nur Vorteile bei sehr wenig Licht und bei relativ kurzen Integrationszeiten. Längere Belichtungszeiten werden tatsächlich vorzugsweise mit Mehrfachbelichtungen und Zusammenrechnen mit etwas verfeinerter Pixelstatistik zur Erkennung thermischer Signale gebildet.
 
Skater schrieb:
Ich fasse mal etwas zusammen:
lichtschwache Objektive:

Preis
Schärfe wg kleinerer Anfangsblende (Kompaktknipsenfeeling!)

lichtstarke Objektive:

Unschärfe als Bildgestaltungsmittel
allgemeine optische Qualität
(--> höhere Linien-Auflösung wg. normalerweise aufwändigerer Optiken!))...

Solange man nicht an die Grenze kommt wo Beugung der limitierende Faktor ist sind lichtschwache Objketive bzgl der Theorie imme einfacher und somit auch besser zu bauen als die Lichtstarken.

In der Praxis ist das (z.B. bei Canon) nur deswegen oft nicht der Fall, wiel man in die lichtstarken die Sondergläer verbaut und in die lichtschwachen aus Kostengründen nicht.

Ein 24/2,8 für 1000? wäre immer ein besseres Objektiv als ein 24/2,0 für 1000?.
 
p5freak schrieb:
Die Blende hat nix mit der Schärfe zu tun, ausser du meinst Schärfentiefe, aber das denke ich nich. Du meinst das Objektive mit kleinerer Anfangsblende unscharf sind. Das liegt aber nich an der kleinen Blende, sondern daran das solche Objektive in der Regel billig sind, sprich die optische Konstruktion, das ganze Objektiv, muss günstig in der Herstellung sein. Es wäre problemlos möglich ein 3,5-5,6/18-50 zu bauen was schon bei Offenblende so scharf is wie manches L-Objektiv bei 2,8. Allerdings würde ein solches lichtschwaches Objektiv dann nich mehr 100 Euro kosten sondern 400-500 Euro.
Ja Du hast recht, aber der OP ging davon aus, dass Du Lichtstärke
komplett durch ISO ersetzen kannst um Geld zu sparen!

Wenn Du eine billige Scherbe verwendest, hilft Abblenden durchaus,
um die Abbildungsqualität zu verbessern!
Jedenfalls bis zur Beugungsgrenze bei sagen wir mal F18 oder so!

Na gut..., vielleicht bringt das nicht bei jeder Linse was...!
Aber die achsennahen Bereiche der Linsen sind nun mal meißtens mit
weniger Toleranzen geschliffen, bzw durch Verkleinern der Linse
(=Abblenden ;) )sinkt insgesamt die Wahrscheinlichkeit Linsenfehler als
Störungen ins Bild zu bekommen!
p5freak schrieb:
...
Das liegt daran das lichtstarke Objektive viel hochwertigere Gläser verbaut haben. Es wäre kein Problem solche Linsen auch bei lichtschwachen Objektiven einzubauen.
Ja, aber nicht wenn man den Preis im Auge behält!
Glas + Schliff + Vergütung + Führungsmechanik + Verarbeitungstoleranzen + ...
Nix davon ist umsonst!

zum schnellerer AV
p5freak schrieb:
Is das wirklich so ? Mein altes 5,6/400L war sehr schnell, und das an einer 10D. Ich kann mir nur schwer vorstellen das ein 2,8/400L noch schneller sein soll, wenn dann bewegt sich das im hunderstel Sekunden Bereich.
Also vielleicht nicht in der Theorie. :D Aber meine "Dunkellinse"
pumpen ergebnislos, wo meine lichtstärkeren Optiken noch problemlos
und vor allem schnell den Fokus finden!

Zum helleren Sucherbild:
p5freak schrieb:
Auch das is so ne Sache. Mein Sigma 2,8/24-60 hatte ein helleres, kontrastreicheres Sucherbild als mein 1,8/50 MkI.
:confused:
Also wenn ich meine Abblendtaste drücke, habe ich einen anderen Eindruck! :D
Vielleicht solltest Du Dein 1,8/50 MkI mal checken lassen.:confused:
p5freak schrieb:
Du kannst die Bildqualität einer Kompaktknipse nich mit der einer DSLR vergleichen. Da können Welten dazwischen liegen.
Habe ich auch nicht!

Es ging mir vor allem um die Tiefenschärfe, bzw um den "Fixfokus-Charakter"
der Kompakten! Das Rauschverhalten wurde vom OP ja aus der
Argumentation herausgenommen. :)
p5freak schrieb:
Wie du schon sagtest, man muss es nich benutzen, aber man könnte.
Warum sollte man es aber kaufen bzw. überhaupt erst entwickeln?
p5freak schrieb:
Für AL-Fotografie, denn da spart es Geld, je nach Objektivumfang sogar sehr viel Geld...
Du hast natürlich recht, aber es ging ja darum alles über ISO und
gar nichts mehr über Lichtstärke zu machen!
Um ISO 51.200!
Das hat mit AL nun wirklich nix mehr zu tun!
(Klar lassen sich auch da noch AL-Motive finden!)
Aber Blinde können dann auch wieder sehen! :D
p5freak schrieb:
...
Ich hätte nix dagegen auf einem Konzert mit dem 4/70-200L zu fotografieren, anstatt das 2,8/70-200L zu schleppen, du etwa ? Stative könnte man sich so gut wie sparen, IS auch, denn durch die hohen ISO Werte könnte man locker in genügend schnelle Verschlusszeitenbereiche kommen, wo freihand fotografieren problemlos möglich is. Logisch wird ein Stativ niemals ganz ersetzbar sein.
Wie weit würdest Du es mit ISO alleine wirklich treiben wollen?
Gegen ein wenig mehr habe ich ja auch nix!
Aber es gibt Grenzen, ab denen man es nur nur brauchen würde weil es
halt geht, nicht weil man es braucht!
:p :evil:

Schönen Gruß
Pitt
 
Skater schrieb:
Ja Du hast recht, aber der OP ging davon aus, dass Du Lichtstärke
komplett durch ISO ersetzen kannst um Geld zu sparen!

Der OP sagte folgendes :

OP schrieb:
Da die neuen Sensoren ja immer empfindlicher werden und gleichzeitig weniger Bildrauschen produzieren, könnten lichtstarke Optiken auf längere Zeit gesehen doch eine Fehlinvestition sein. Zumindest dann, wenn man sie nur wegen ihrer Lichtstärke gekauft hat. (Schöne Effekte dank geringer Tiefenschärfe mal außen vor).

Liegt es nicht sogar im Interesse der führenden Hersteller die Empfindlichkeit nicht weiter zu steigern? Wer würde denn bei rauschfreien ISO 25600 noch ein 300mm 2.8 kaufen? Nur wegen der geringen Tiefenschärfe? Ich weiß ja nicht. Vielleicht mach ich aber auch einen Denkfehler!? Was meint Ihr dazu?

Warum kauft man lichtstarke Objektive ? Erstens, weil man die Lichtstärke braucht, wegen AL-Fotografie, oder Freistellung des Motivs. Zweitens, wegen der Schärfe. Lichtschwache Billigobjektive sind nich so scharf wie die teuren lichtstarken, bzw. nich so robust. Das liegt aber an der Konstruktion, bzw. am Preis.
Ausser bei der Freistellung hilft mir eine hohe rauschfreie, bzw. rauscharme ISO. Ich kann günstige, lichtschwache Objektive abblenden und gleichzeitig eine ausreichend schnelle Verschlusszeit erreichen.
Würde es lichtschwache Objektive geben die bei Offenblende schon schön scharf sind, bräuchten wir in der Tat keinen so hohen ISO Werte. Die Entwicklung geht aber in die Richtung Objektiv leicht, klein, lichtschwach, günstig, und Kamera mit hohen ISO Werten.

Skater schrieb:
Ja, aber nicht wenn man den Preis im Auge behält!
Glas + Schliff + Vergütung + Führungsmechanik + Verarbeitungstoleranzen + ...
Nix davon ist umsonst!

Sagte ich doch schon das sowas dann entsprechend teurer werden würde.

Skater schrieb:
Du hast natürlich recht, aber es ging ja darum alles über ISO und
gar nichts mehr über Lichtstärke zu machen!
Um ISO 51.200!
Das hat mit AL nun wirklich nix mehr zu tun!
(Klar lassen sich auch da noch AL-Motive finden!)
Aber Blinde können dann auch wieder sehen! :D

Grade bei AL braucht man hohe Lichtstärke, und hohe ISO Werte. Hat man keine hohe Lichtstärke, braucht man noch höhere ISO Werte. Der Massenmarkt will kleine, leichte Kameras, und kleine leichte Objektive. Und das alles soll auch noch möglichst bei Kerzenschein brauchbare, scharfe Fotos liefern.

Skater schrieb:
Wie weit würdest Du es mit ISO alleine wirklich treiben wollen?
Gegen ein wenig mehr habe ich ja auch nix!
Aber es gibt Grenzen, ab denen man es nur nur brauchen würde weil es
halt geht, nicht weil man es braucht!

Was technisch machbar is, und sich wirtschaftlich für den Massenmarkt fertigen lässt, wird auch gebaut. Was du oder ich davon brauchen is irrelevant.
Kein Mensch auf dieser Wert braucht ein Auto was 400km/h fährt. Es wird aber gebaut, und sogar in (Klein)serie.
 
p5freak schrieb:
...

op schrieb:
...Liegt es nicht sogar im Interesse der führenden Hersteller die Empfindlichkeit nicht weiter zu steigern? Wer würde denn bei rauschfreien ISO 25600 noch ein 300mm 2.8 kaufen? Nur wegen der geringen Tiefenschärfe? Ich weiß ja nicht. Vielleicht mach ich aber auch einen Denkfehler!?

Warum kauft man lichtstarke Objektive ? Erstens, weil man die Lichtstärke braucht, wegen AL-Fotografie, oder Freistellung des Motivs. Zweitens, wegen der Schärfe. Lichtschwache Billigobjektive sind nich so scharf wie die teuren lichtstarken, bzw. nich so robust. Das liegt aber an der Konstruktion, bzw. am Preis.

Ich glaube nicht, das wir beide so weit auseinander sind, wie Du anscheinend glaubst. ;)

Aber die Formulierung:
op schrieb:
Wer würde denn bei rauschfreien ISO 25600 noch ein 300mm 2.8 kaufen? Nur wegen der geringen Tiefenschärfe?
verstehe ich so, dass er glaubt Lichtstärke etc. komplett durch ISO ersetzen zu können.
Ich weiß nicht wie es Dir geht, aber ich würde seine Frage sofort mit
"Ja kler, wegen der Tiefenschärfe (und wegen der besseren optischen Leistung)" beantworten! ;)
p5freak schrieb:
...
Was technisch machbar is, und sich wirtschaftlich für den Massenmarkt fertigen lässt, wird auch gebaut. Was du oder ich davon brauchen is irrelevant.
Kein Mensch auf dieser Wert braucht ein Auto was 400km/h fährt. Es wird aber gebaut, und sogar in (Klein)serie.

Und genau deshalb wird es auch immer teure, lichtstarke und hochauflösende
Objektive geben, selbst dann, wenn wir ISO 25600 jemals erreichen würden.

ISO ist nur ein technischer Wert, der genauso willkürlich wie PS oder
Gigaherz Teil eines Marketings ist.
Es schadet nix sowas zu haben, aber es wird fast immer überbewertet.

Deine Bilder mit der Billigoptik werden durch ISO allein nicht besser, nur heller! :D

Schönen Gruß
Pitt
 
Cephalotus schrieb:
Gehe ich recht in der Annahme, dass Rauschen von drei
Faktoren gebildet wird.

1. Signalrauschen (=Photonenverteilung), was heute aber bei unseren DSLRs
noch absolut keine Rolle spielt. Dieser Einfluss hängt unmittelbar von der
Pixelgröße ab.
Quantenrauschen oder Schrotrauschen.
Größe ist proportional zur Wurzel der Anzahl der Quanten.

2. Dunkelrauschen, das aber heute auch nur bei Langzeitaufnahmen oder extrem
hohen Temperaturen eine Rolle spielt und durch große Pixel eh nicht kleiner
werden kann, da es in gleichem Maße wie das Signal mit der Pixelfläche
skaliert.
Dunkelrauschen ist zum einen durch zwei Effekte geprägt:
* Kristallbaufehler
* Detektierte IR-Quanten durch die thermische IR-Strahlung, die Körper
ausstrahlen.
Limitierend sind für die Photographie die durch Kristallbaufehler
verursachten.
Durch leichte Kühlung kann man das Dunkelrauschen drastisch reduzieren. Man
darf aber nur so weit runterkühlen, daß auch die Elektronik nicht einfriert.

3. Ausleserauschen, heute der wesentliche Bestandteil. Dieser ist bei großen
und kleinen Pixel gleich groß (?????) und die großen pixel rauschen heute
deswegen weniger, weil das Singal dann auch größer ist.
Das Ausleserauschen entsteht im Ladungskonverter. Der weiß nichts mehr von
der Pixelgröße, sondern sieht nur noch die Elektronenanzahl. 50 +- 25
rauscht natürlich stärker als 5000 +- 25.
Das Ausleserauschen ist auch temperaturabhängig, allerdings
ändert es sich nicht großartig, wenn man von 293 K auf 213 K runterkühlt.

Würde es nun ein Hersteller schaffen, das Ausleserauschen seines Sensors
stark zu minimieren, dann wäre die Pixelgröße plötzlich egal, solange man
sich nicht ISO Empfindlichkeiten annährt, bei denen dann das
Photonenrauschen (oder wie immer man das nennt) der dominierende Faktor ist?
Man hat im wesentlichen 4 Komponenten des Rauschen:
* Quantenrauschen
* Dunkelrauschen
* Auslese- / Elektronikrauschen
* AD-Wandlerrauschen (bei nichtzählenden Wandlern).
Wenn wir in hohe Empfindlichkeitsregionen gehen, dann spielt
das letzte keine Rolle mehr. Dunkelrauschen spielt ohnehin bei Freihand
keine Rolle bzw. ist "nur" ein technologisches Problem,
bleiben Quanten und Ausleserauschen.

Beide sind von ihrer Erscheinungsform völlig unterschiedlich. Nehmen wir mal
einen Wandler mit 25 Photonen Ausleserauschen und einer Sättigung bei
100.000 Photonen. Bei ISO 100 werden die 100.000 auf den Sättigungswert
abgebildet, bei ISO 3200 seien es 3.125 Photonen, bei ISO 10000 seien es
1.000 Photonen. Der Wandler habe effektiv 10,61 bit Genauigkeit bei 60 MHz Wandlerfrequenz.

Mittlere Lichtmenge = 0 Photonen
=> Quantenrauschen = 0
=> Read-Out-Rauschen = 25
=> AD-Wandler bei ISO 100 = 64 => SNR = 0
=> AD-Wandler bei ISO 3200 = 2 => SNR = 0
=> AD-Wandler bei ISO 10000 = 0,64 => SNR = 0

Mittlere Lichtmenge = 1 Photonen
=> Quantenrauschen = 1
=> Read-Out-Rauschen = 25
=> AD-Wandler bei ISO 100 = 64 => SNR = 0,01
=> AD-Wandler bei ISO 3200 = 2 => SNR = 0,04
=> AD-Wandler bei ISO 10000 = 0,64 => SNR = 0,04

Mittlere Lichtmenge = 10 Photonen
=> Quantenrauschen = 3
=> Read-Out-Rauschen = 25
=> AD-Wandler bei ISO 100 = 64 => SNR = 0,11
=> AD-Wandler bei ISO 3200 = 2 => SNR = 0,33
=> AD-Wandler bei ISO 10000 = 0,64 => SNR = 0,35

Mittlere Lichtmenge = 31 Photonen
=> Quantenrauschen = 5,5
=> Read-Out-Rauschen = 25
=> AD-Wandler bei ISO 100 = 64 => SNR = 0,33
=> AD-Wandler bei ISO 3200 = 2 => SNR = 0,95
=> AD-Wandler bei ISO 10000 = 0,64 => SNR = 0,99

Mittlere Lichtmenge = 100 Photonen
=> Quantenrauschen = 10
=> Read-Out-Rauschen = 25
=> AD-Wandler bei ISO 100 = 64 => SNR = 1,1
=> AD-Wandler bei ISO 3200 = 2 => SNR = 2,7
=> AD-Wandler bei ISO 10000 = 0,64 => SNR = 2,8

Mittlere Lichtmenge = 312 Photonen
=> Quantenrauschen = 18
=> Read-Out-Rauschen = 25
=> AD-Wandler bei ISO 100 = 64 => SNR = 2,9
=> AD-Wandler bei ISO 3200 = 2 => SNR = 7
=> AD-Wandler bei ISO 10000 = 0,64 => SNR = 7,2

Mittlere Lichtmenge = 1000 Photonen
=> Quantenrauschen = 32
=> Read-Out-Rauschen = 25
=> AD-Wandler bei ISO 100 = 64 => SNR = 8,3
=> AD-Wandler bei ISO 3200 = 2 => SNR = 17,1
=> AD-Wandler bei ISO 10000 = 0,64 => SNR = 17,5

Mittlere Lichtmenge = 3125 Photonen
=> Quantenrauschen = 56
=> Read-Out-Rauschen = 25
=> AD-Wandler bei ISO 100 = 64 => SNR = 21,6
=> AD-Wandler bei ISO 3200 = 2 => SNR = 37,7

Mittlere Lichtmenge = 10000 Photonen
=> Quantenrauschen = 100
=> Read-Out-Rauschen = 25
=> AD-Wandler bei ISO 100 = 64 => SNR = 53

Mittlere Lichtmenge = 100000 Photonen
=> Quantenrauschen = 316
=> Read-Out-Rauschen = 25
=> AD-Wandler bei ISO 100 = 64 => SNR = 247

Wenn wir z.B. eine EOS-5D nehmen, dann ist dort das Rauschen in den hellen
Passagen zum größten Teil Quantenrauschen, dort spielt das Read-Out-Noise
keine große Rolle. Das Read-Out-Noise ist für das Absaufen der Schatten verantwortlich.

Die SNRs bei ISO 100 (dahinter in Klammern die Werte für ideale Detektoren und AD-Wandler):
Hell (100%) = 247 (316)
Mittel (10%) = 53 (100)
Dunkel (1%) = 17 (32)

Die SNRs bei ISO 3200 (dahinter in Klammern die Werte für ideale Detektoren und AD-Wandler):
Hell (100%) = 38 (56)
Mittel (10%) = 7 (18)
Dunkel (1%) = 0,95 (5,6)

Die SNRs bei ISO 10000 (dahinter in Klammern die Werte für ideale Detektoren und AD-Wandler):
Hell (100%) = 17,5 (32)
Mittel (10%) = 2,8 (10)
Dunkel (1%) = 0,35 (3,2)
 
p5freak schrieb:
Auch das is so ne Sache. Mein Sigma 2,8/24-60 hatte ein helleres, kontrastreicheres Sucherbild als mein 1,8/50 MkI.

Unwahrscheinlich. Aber richtig ist, daß in optischen VF die
Helligkeit ab einer gewissen Blende (die helligkeitsabhängig ist)
nicht mehr steigt, weil das Licht nicht mehr in die Pupille kommt.
Bei Tag ist diese Grenzpupille anders als bei Nacht.
 
WERBUNG
Zurück
Oben Unten