• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Nikon D800 Sensor Architektur und Ausleseverhalten

  • Themenersteller Themenersteller Gast_397548
  • Erstellt am Erstellt am
Ich versuche solche Dinge nicht, weil ich sie dann in der Praxis einsetzen will, sondern weil mich interessiert wie meine Werkzeuge unter Extrembedingungen reagieren. Meine D800 hatte zB auch das white dot Problem, welches sich aber auch ohne den Nikon Service lösen ließ.

Darauf wäre ich ohne meine Langzeitbelichtungstests nicht gekommen.
 
Beim Betrachten Deiner Beispiele habe ich mich auch gefragt, ob das nicht eher was mit der "Lichtführung" zu tun hat.
Die rechte Seite scheint im Schatten zu liegen.
 
Zuletzt bearbeitet von einem Moderator:
Das man dort, wo längere Belichtungszeiten benötigt werden (z.B. Astrofotografie) passive und gar aktive Kühlungen verbaut sei erwähnt.

Nicht nur Da auch bei der Fluoreszenz-Mikroskopie zahlt man gerne für eine gekühlte 3Mpix Kamera gerne mal 6k€.

Die Diskussion kommt mir vor als ob man sich wundert "das eine Katze dort Löcher im Fell hat, wo die Augen sitzen" (Harald Lesch).

Die ganz genaue Erklärung für den gezeigten Effekt wird wohl unter das Betriebsgeheimnis von Nikon fallen.
 
Die rechte Seite scheint im Schatten zu liegen.

Bitte kurz überlegen wie finster es sein muss, damit 6 Stunden Belichtungszeit ein korrekt belichtetes Bild ergeben.....
 
mich auch

Beim Betrachten Deiner Beispiele habe ich mich auch gefragt, ob das nicht eher was mit der "Lichtführung" zu tun hat.
Die rechte Seite scheint im Schatten zu liegen.

Und die Licht-Schattengrenze ist eine randscharfe Linie exakt in Bildmitte?
Mich interessiert das Thema.
Auf den Bildern sieht men einen harten Bruch, dem Anschein nach werden rechte und linke Bildhälfte unterschiedlich behandelt.
Ob das in der täglichen Fotografiearbeit eine Rolle spielt war doch gar nicht die Frage, es geht darum warum das so ist.
Muss doch nicht gleich jeder wieder senkrecht an die Decke gehen wie das HB Männchen, wenn jemand "Jehova" sagt.:cool:
 
Was niemand hier ausgesprochen hat, aber sich so Mancher sich gedacht hat ist sicherlich, ob ich den Sensor mit meiner kleinen Spielerei gegrillt habe und dies dadurch entstanden ist, richtig?

Dies ging auch mir durch den Kopf und so hatte ich gleich im Anschluss, also als die Kamera quasi noch glühend heiß war folgendes Foto gemacht:


17991424-lg.jpg



Gleiche Kamera, gleiches Objektiv und 60 sec lang belichtet.

Hier ist nichts auffälliges sichtbar und zwar auch nicht bei 100%. Keine Linie mittig, keine Farbunterschiede zw. rechts und links. Der Sensor hatte also offensichtlich keinen Schaden genommen und bei normalen Belichtungszeiten ist nichts sichtbar.

Das Phänomen reduziert sich demzufolge auf Zeiten jenseits der 120min, denn auch bei 60 min ist mir nichts aufgefallen.
 
Muss doch nicht gleich jeder wieder senkrecht an die Decke gehen wie das HB Männchen, wenn jemand "Jehova" sagt.:cool:

Interessant finde ich das auch, schrieb ich schon vorher. Nur werden wir hier keine Erklärung finden. Da die Einflussfaktoren und -größen unbekannt sind.

Ein Thermalbild der Kameraelektronik könnte hinweise liefern. Der genaue Algoritmus mit dem die RAW-Dateien erstellt werden auch.

Wie ich im Beispiel gezeigt habe hat der Effekt ja auch einen Einfluss auf "normale" Bilder.
Die lila Pixel scheinen immer da aufzutreten wo das Signal vom Sensor etwas über 0 ist.
 
Hier ist nichts auffälliges sichtbar und zwar auch nicht bei 100%. Keine Linie mittig, keine Farbunterschiede zw. rechts und links.
Dann ist das alles, worum es hier geht, also rein theoretischer Natur und hat null echte Praxisrelevanz, richtig?
Das Phänomen reduziert sich demzufolge auf Zeiten jenseits der 120min, denn auch bei 60 min ist mir nichts aufgefallen.
siehe oben

Meiner Meinung nach trifft dieser Effekt nicht unbedingt nur den (einen) Sensor selbst, sondern er begründet sich vermutlich auf etwas, was hinter/nach der Aufnahme passiert.
Eventuell entsteht das entlang des Auslesekanals des Bildsensors, also binnen der Signalverarbeitung und nicht seitens der Signalerstellung/Signalaufnahme.
Bei Bildsensoren, die beidseitig über zwei Kanäle oder mehr Kanäle ausgelesen werden, kann so etwas wie hier "offenbart" wurde ja dann vielleicht entstehen.
So etwas kann evtl. vom Nikon-Service durch "Kalibrieren der Ausgangssignale" des Bildsensors beseitigt werden.
 
Zuletzt bearbeitet:
Das Phänomen reduziert sich demzufolge auf Zeiten jenseits der 120min, denn auch bei 60 min ist mir nichts aufgefallen.

Tritt der Effekt dann in der gleichen Stärke wie 360min auf oder steigt es langsam an.

Du hast bei 360min natürlich ein völlig anderes Verhältnis von Nutzsignal zum Störsignal. Die Strukturen die Du siehst können vom Design der Kamera oder auch vom Design der Schaltkreise in den Bauteilen kommen.
Je länger Du Belichtest des mehr schiebst Du das Verhältnis Nutz- zu Störsignal zu ungunsten des Nutzsignales.
 
Dann ist das alles, worum es hier geht, also rein theoretischer Natur und hat null echte Praxisrelevanz, richtig?

siehe oben

Meiner Meinung nach trifft dieser Effekt nicht den (einen) Sensor selbst, sondern er begründet sich vermutlich auf etwas, was danach/dahinter passiert...

Lieber Chris!

Willst du mir damit sagen, nur weil niemand solche Langzeitzeit Belichtungen macht ist das Thema uninteressant? Kostet jede Seite die hier geschrieben wird Geld und Du musst aufpassen, dass sinnlose Threads nicht zu viel Speicherplatz einnehmen???

Ich hab es an anderer Stelle schon erwähnt, aber kein Mensch würde die Nikon D810 kaufen, hätte sie noch das Problem mit den weißen Punkten, richtig?

Dieses Problem tritt auch nur bei sehr langen Belichtungszeiten auf und ALLE User haben daraufhin mit angesetztem Deckel 30 sec oder länger belichtet um feststellen zu können ob ihre Kamera unter diesem Problem leidet.

War dieser Test nun sinnvoll, oder unsinnig?

Nikon hat reagiert und nun werden keine Kameras mit diesem Bug mehr ausgeliefert. Mich interessiert einfach nur, wieso der Sensor der D800 in zwei Hälften "zerlegt" und intern unterschiedlich be-/verwertet wird.......
 
Willst du mir damit sagen, nur weil niemand solche Langzeitzeit Belichtungen macht ist das Thema uninteressant?
Nein.
Ich wollte nur ausloten, ob das alles irgendwie praxisrelevant ist.
Dem scheint nicht wirklich so zu sein.
Sofern diese theoretische Betrachtung dann nun lediglich auf Vermutungen/Spekulationen gestützt verläuft, muss das Thema ggfs. an die passendere Stelle verschoben werden.
Vielleicht ist es auch "weitreichender" und nicht nur auf die D800 zutreffend.
Womöglich ist es sogar herstellerübergreifend und/oder ein rein allgemeines technisches "Phänomen".
War dieser Test nun sinnvoll, oder unsinnig?
Darum geht es gar nicht.
Mich interessiert einfach nur, wieso der Sensor der D800 in zwei Hälften "zerlegt" und intern unterschiedlich be-/verwertet wird.......
Das kann ja auch erörtert werden.
Pure Spekuletionen dazu sind hier aber Fehl am Platze.
Darum die obige Info, dass bei Nikon ein beidseitiges Auslesen stattfindet.
Vielleicht hilft das ja für die Ergründung/Erörterung des Phänomens.
 
Auch wenn ich den Umgang des TO mit anderen Usern nicht gerade schätze...
Ich mag aber Leute, die die Grenzen des Equipments ausprobieren und rumtüfteln, um ihre Arbeitsweise zu verbessern oder für was auch immer.
Überrascht bin ich wirklich, das das keine bleibenden Schäden am Sensor oder Elektronik zur folge gezogen hat, obwohl hier die garantierten Parameter weit überschritten wurden :top:. Danke dafür.

<Offtopic entfernt>
 
Zuletzt bearbeitet von einem Moderator:
Willst du mir damit sagen, nur weil niemand solche Langzeitzeit Belichtungen macht ist das Thema uninteressant? Kostet jede Seite die hier geschrieben wird Geld und Du musst aufpassen, dass sinnlose Threads nicht zu viel Speicherplatz einnehmen???

Nein es wird sogar nicht selten gemacht. Nur mit den für dieses Spezialgebiet geeigneten Kameras.

War dieser Test nun sinnvoll, oder unsinnig?

Unsinnig wenn man i.d.R. nicht 30sec und länger belichtet.

Nikon hat reagiert und nun werden keine Kameras mit diesem Bug mehr ausgeliefert. Mich interessiert einfach nur, wieso der Sensor der D800 in zwei Hälften "zerlegt" und intern unterschiedlich be-/verwertet wird......

Ursache und Wirkung kennt keiner außer Nikon. Woher willst Du wissen das das Verhalten der D800 nicht aus dem "White Dot" Problem der D7000 resultiert. Es ist reines Glaskugelraten was wir hier machen.
 
Dass das Ausleseverhalten thematisiert wird, ist absolut legitim.
Unsinnig wird es natürlich irgendwann dann, wenn nur reine Vermutungen gegeneinander gestellt werden (können)...
Es ist reines Glaskugelraten was wir hier machen.
Quasi. Darum sollte wenn, dann auf realen Infos aufgebaut werden.
Daher auch die eingeschlagene Richtung, dass der Ausleseprozess hier "verantwortlich" sein mag und nicht die These "ein Sensor oder zwei halb so große"...

Es lassen sich die Fotodioden ja beim CMOS einzeln adressieren und auslesen, da sie ein vertikales und ein horizontales Ausleseregister besitzen. Wie bei einem CCD-Sensor ist zu jeder Fotodiode ein Kondensator parallel geschaltet, der die elektrische Ladung speichert. Ein Transistor wandelt dann die Ladung in Spannung um und stellt diese Spannung dem Signalprozessor zur Verfügung. Vielleicht läuft hier etwas zweigeteilt ab, aus Performancegründen etwa. Die größeren Modelle werden meines Wissens nach bei Nikon auf erweiterte Weise ausgelesen als die kleineren Modelle. Arbeiten bei den einen Modellen dann in Summe zwei Kanäle parallel, sind es bei den größeren Modellen bis zu einem Dutzend Kanälen usw...

Darum die Info.

Auch kann ein CMOS-Sensor gleich als Analog-Digital-Wandler fungieren und Kameraeinstellungen wie den Weißabgleich kontrollieren, was das Thema Weißabgleich im Zuge der parallel verrichteten Arbeit evtl. tangieren könnte, wenn eben nicht alles parallel 100,0%-ig identisch abläuft.

Diese Differenz mag dann aber eben so klein ausfallen, dass das für das Bildergebnis selbst irrelevant ist.
 
Zuletzt bearbeitet:
Ich mag aber Leute, die die Grenzen des Equipments ausprobieren und rumtüfteln, um ihre Arbeitsweise zu verbessern.

Genau darum gings mir.



Überrascht bin ich wirklich, das das keine bleibenden Schäden am Sensor oder Elektronik zur folge gezogen hat, obwohl hier die garantierten Parameter weit überschritten wurden.


Hier war ich sehr zuversichtlich, dass es keinen wirklichen Unterschied macht, ob ich 5 min belichte eine Sekunde Pause mache und dann wieder 5 min belichte und das Ganze 6 Stunden lang (was in der Astrofotografie normal ist), oder ob ich 6 Stunden am Stück belichte (macht niemand). In der einen Sekunde ändert sich zB bzgl der Temperatur des Sensors gar nix. Und dem Sensor muss es wurscht sein ob er 5 min oder 500 min lang unter Strom gesetzt wird, denn er weiß ja sowieso nicht wann die Belichtung zu Ende sein wird. :D
 
Hier war ich sehr zuversichtlich, dass es keinen wirklichen Unterschied macht, ob ich 5 min belichte eine Sekunde Pause mache und dann wieder 5 min belichte und das Ganze 6 Stunden lang (was in der Astrofotografie normal ist), oder ob ich 6 Stunden am Stück belichte (macht niemand). In der einen Sekunde ändert sich zB bzgl der Temperatur des Sensors gar nix. Und dem Sensor muss es wurscht sein ob er 5 min oder 500 min lang unter Strom gesetzt wird, denn er weiß ja sowieso nicht wann die Belichtung zu Ende sein wird. :D

Siehst Du und ich glaube das die Algorithmen die die Störungen minimieren sollen besser bei 72x5 min funktionieren als bei 6 Stunden, da sie für diesen Bereich entwickelt wurden.
 
Zuletzt bearbeitet:
...... unsachgemäße Handhabung etwas produziert was in der normalen Praxis keinerlei Relevanz hat.


Die gewählte Überschrift "Sensor Architektur und Ausleseverhalten" ist allerdings sowohl vom Sinnzusammenhang als auch von der Rechtschreibung her falsch.


Das man Sensoren nicht solange belichten soll setze ich als bekannt voraus, das durch Überhitzung Schäden an der Kamera entstehen können sollte ebenfalls bekannt sein.


All diese Wortmeldungen haben nichts mit meiner Fragestellung oder dem Thema zu tun und erinnern mich sehr an das vom User turricanus verlinkte Kleine Trollhandbuch.

Herzlichen Dank an alle anderen die sich für diesen Bug der Nikon D800 interessieren.


Mir ist es schleierhaft wie es sein kann, dass über 100 Jahre analoge Fotografie binnen weniger Jahre völlig in Vergessenheit geraten können. Ich habe vor sehr kurzer Zeit – 2004 – noch mit einer Horseman Großformat-Kamera und einer Nikon F5 in Kambodscha den Angkor Wat fotografiert und damals gab es außer ein paar Drucki-Mucki Digicams nichts wirklich Brauchbares für einen Profi.


Belichtungszeiten von 3 bis 6 Stunden waren völlig normal für Astrofotografen, denn analog konnte man nichts stacken und so war klar, dass Strichspuren nur durch extrem lange Belichtungszeiten machbar waren.
Heute, nur wenige Jahre danach ist man aber offensichtlich ein Volltrottel, der nicht weiß wie er sein Equipment nutzen soll, wenn man selbiges versucht.


Kann es sein, das es eine pure Vermutung ist, dass solch lange Belichtungszeiten Schäden an der Kamera oder von mir aus nur dem Sensor oder der nachgeschalteten Elektronik hervorrufen? Ja, … ich bin auch mit wenig zufrieden! Zeig uns doch bitte die Tests der Hersteller dazu…
 
Siehst Du und ich glaube das die Algorithmen die die Störungen minimieren sollen besser bei 72x5 min funktionieren als bei 6 Stunden, da sie für diesen Bereich entwickelt wurden.

Damit hast Du völlig recht.

Unbekannt war mir aber der Break-even. Ab wann, oder besser gesagt ab welcher Belichtungszeit wird der Qualitätsvorteil der niedrigen ISOs durch das Verhältnis von Nutz-/ zu Störsignal egalisiert?

Mir ist trotz intensiver Recherche im Netz nichts zu diesem Thema bekannt. Dort wird nur von so manchem Astrofotografen beschrieben, dass es besser ist einige längere Belichtungen mit niedrigen ISOs zu machen und anschließend zu stacken, als die vergleichbare Menge an High-ISO Aufnahmen mit kurzer Belichtungszeit.
 
Siehst Du und ich glaube das die Algorithmen die die Störungen minimieren sollen besser bei 72x5 min funktionieren als bei 6 Stunden, da sie für diesen Bereich entwickelt wurden.
+1
Unbekannt war mir aber der Break-even. Ab wann, oder besser gesagt ab welcher Belichtungszeit wird der Qualitätsvorteil der niedrigen ISOs durch das Verhältnis von Nutz-/ zu Störsignal egalisiert?
Jetzt speziell bei der D800 oder allgemein?
Das schwankt ja auch über die ISO-Performance der jeweiligen Kamera und zudem mit dem individuellen Anspruch ans Bildergebnis (bzgl. Relevanz).
Mir ist trotz intensiver Recherche im Netz nichts zu diesem Thema bekannt.
Wie gesagt - das ist ja letztlich auch individuell zu sehen.
Zur D800 speziell ist mir da auch nichts bekannt.
Dort wird nur von so manchem Astrofotografen beschrieben, dass es besser ist einige längere Belichtungen mit niedrigen ISOs zu machen und anschließend zu stacken, als die vergleichbare Menge an High-ISO Aufnahmen mit kurzer Belichtungszeit.
Das ist ja so, weil das in der Regel zu besseren ERgebnissen aufgrund der ISO-Thematik führt. Mit dem hier angeführten Phänomen hat das imho arg wenig Zusammenspiel.
All diese Wortmeldungen haben nichts mit meiner Fragestellung oder dem Thema zu tun...
Aber das hier hat (wirklich) damit zu tun?:
Mir ist es schleierhaft wie...
Falls ja, sehe ich den Bogen zum Phänomen nicht wirklich.
Belichtungszeiten von 3 bis 6 Stunden waren völlig normal für Astrofotografen
Die haben sich dann aber auch nicht mit Ausleserauschen oder einer Sensorarchitektur oder Auslesekanälen oder Algrotithmen beschäftigt...
Heute, nur wenige Jahre danach ist man aber offensichtlich ein Volltrottel, der nicht weiß wie er sein Equipment nutzen soll, wenn man selbiges versucht.
Das sagt so doch niemand.
Aber das hier beschriebene als einen "Bug" zu thematisieren wobei es sich in realen Bildergebnissen doch quasi gar nicht (?) wirklich niederschlägt, und für dessen Provozierung/Verbildlichung man jede Menge für die Praxis "Unrealistischem" betreiben muss, ist doch irgendwie schon etwas too much.

Das alles im Detail auf technischer Ebene ergründen zu wollen, ist bestimmt für einige User interessant. Aber das kann nur "gemeinsam" zu irgendwelchen aufschlussreichen Ergebnissen führen, und nicht, wenn es nur auf der contra-Schiene läuft, wie hier teils der Fall...

Kommen wir doch weg von "Ist Humbug..." oder "Hätte, wäre, wenn und aber" usw. und konzentrieren wir uns auf das "Wie kann das sein? Warum ist das so?" und so weiter...:top:
 
WERBUNG
Zurück
Oben Unten