• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Hat die A7III ein Hot Pixel Problem?

Hallo!

So, ich habe jetzt mal versucht, die Tests weitgehend durchzuführen:

1.) Dauerhaft weiße oder schwarze Pixel konnte ich nicht identifizieren.
2.) Ich habe versucht, den Testchart (gerade horizontale oder vertikale Linien habe ich nicht gefunden; ich habe folgenden verwendet: http://www.bealecorner.org/red/test-patterns/star-chart-bars144-600dpi.png) an verschiedenen Stellen zu positionieren, von denen ich meine, dass dort zumindest grob die Pixelfehler waren (wenn ich das nur noch genau wüsste). Kein perfektes Testsetup, aber ich vermute, dass zumindest große "tote" Bereiche im Bereich des Charts auffallen würden. Solche konnte ich allerdings nicht entdecken. Das einzige, was zu sehen war, sind relativ deutliche (aber nach meiner Kenntnis normale) Moiréeffekte (siehe Bilder anbei).

Jetzt bleibt nur zu hoffen, dass ich die Linien auch tatsächlich an den Stellen positioniert habe, an denen auch die Pixelfehler auftraten...

Beste Grüße
 

Anhänge

...
1.) Dauerhaft weiße oder schwarze Pixel konnte ich nicht identifizieren.
Hört sich gut an.

...
2.) Ich habe versucht, den Testchart (gerade horizontale oder vertikale Linien habe ich nicht gefunden; ...
Siemenssterne sind für diesen Test ungeeignet, es soll ja in der zu untersuchenden Sensorfläche ein möglichst homogenes Muster projiziert werden. Nur so sind Unregelmäßigkeiten wie interpolierte Pixelhaufen erkennbar.

Mit Microsoft-Excel oder LibreOffice-Calc kannst du dir selbst einen Testchart bauen:
Die Zeilenhöhe auf die gewünschte Linienbreite einstellen, z.B. 1,2mm, jede zweite Zeile mit schwarzem Hintergrund formatieren, ausdrucken, aufhängen, im geeigneten Maßstab abfotografieren.
 
Danke für die Rückmeldung, m@sche.

Ich habe das entsprechend probiert, allerdings bekomme ich damit nahezu ausschließlich Regenbogenmuster wie angehängt. Wirklich erkennen lässt sich da hinsichtlich Pixelfehler meines Erachtens nicht viel. Sollte ich näher ran?

Beste Grüße
 

Anhänge

Danke für die Rückmeldung, m@sche.

Ich habe das entsprechend probiert, allerdings bekomme ich damit nahezu ausschließlich Regenbogenmuster wie angehängt. Wirklich erkennen lässt sich da hinsichtlich Pixelfehler meines Erachtens nicht viel. Sollte ich näher ran?
..
Eigentlich hätte ich erwartet dass bei einem Abbildungsmaßstab 1:100 die Linienbreite von 1,2mm mit einer nahezu idealen Optik gerade noch so vom 24MP-Sensor aufgelöst wird.
Der AA-Filter streut das Licht allerdings auch noch etwas.

Also näher ran. Es sollen die Linien des Testcharts gerade so erkennbar werden. Es geht ja um die Auflösungsgrenze des Sensors. Die Intention dieses Tests ist, dass die interpolierten Pixel als Unregelmäßigkeit in den abgebildeten Linien erscheinen.

Wenn die Linien allerdings viel mehr als 2 Pixel breit sein müssen um hier abgebildet zu werden, dann werden interpolierte Pixel nicht mehr auffallen können.

Was für ein Objektiv verwendest du für den Test?
 
Ich nehme das Tamron 28-75 2,8; habe abgeblendet auf 5,6. Ich versuche es vermutlich heute Abend noch mal und berichte dann.

Beste Grüße
 
So, ich habe mich jetzt noch mal dran gesetzt. Zunächst muss ich erst mal sagen, dass mein Chart nicht in Ordnung war. Mit bloßem Auge sahen die Linien i. O. aus, aber sie waren nicht hoch genug - das habe ich korrigiert. Außerdem (Schande auf mein Haupt, aber meine erste Sony...) war Auto-ISO an, sodass die meisten Bilder mit 1250 oder 1600 entstanden sind. Ich habe anschließend noch einen weiteren Bereich mit ISO 400 fotografiert.

Insgesamt sind mir keine großen Verwerfungen aufgefallen. Im Bereich der weißen Linien waren fast immer Farbartefakte zu sehen mit einzelnen Pixeln, die dann aus der Reihe fielen, aber das dürfte mehr oder weniger normal sein, oder? Ich habe einige Beispiele (jeweils bei 200 % betrachtet) angehängt.

Was meinst Du, m@sche?

Beste Grüße
 

Anhänge

Zuletzt bearbeitet:
...und noch eins.

Vor allem in den Randbereichen sind die Linien übrigens teilweise etwas schlechter aufgelöst, aber das schiebe ich aufs Objektiv und den Fokus.

P.S.: Nach meinem ersten Test gestern mit den Siemenssternen wurde übrigens offenbar das Remapping ausgelöst (Verschlussgeräusch nach dem Ausschalten); seitdem nicht mehr.
 

Anhänge

... Zunächst muss ich erst mal sagen, dass mein Chart nicht in Ordnung war. Mit bloßem Auge sahen die Linien i. O. aus, aber sie waren nicht hoch genug - das habe ich korrigiert.
Die Höhe bzw. Breite der Linien soll halt zum gewählten Abbildungsmaßstab passen, so dass eine Linienbreite bzw. Linienhöhe durch 2 Pixel abgebildet wird, ein Linienpaar sollte also ca. 4 Pixel breit sein.
Die hier gezeigten Bilder zeigen für ein Linienpaar eine Breite von 10 bzw. 12 Pixel - irgendwas passt da noch nicht ganz.
Wenn möglich, soweit an die Auflösungsgrenze herantasten, bis die Linien gerade noch so zu erkennen sind. Also den Abstand vergrößern.

Bei 28mm Brennweite wird die Leistung des Objektives nicht ganz so gut sein wie in der Mitte des Brennweitenbereichs bei 50mm. Am schwächsten sind Zooms meist am langen Ende, hier also bei 75mm. Das ist bei allen Zooms so.

...
Außerdem (Schande auf mein Haupt, aber meine erste Sony...) war Auto-ISO an, sodass die meisten Bilder mit 1250 oder 1600 entstanden sind. Ich habe anschließend noch einen weiteren Bereich mit ISO 400 fotografiert.
Bei der Basis-ISO 100 ist die Auflösung am Besten.

...
Insgesamt sind mir keine großen Verwerfungen aufgefallen. Im Bereich der weißen Linien waren fast immer Farbartefakte zu sehen mit einzelnen Pixeln, die dann aus der Reihe fielen, aber das dürfte mehr oder weniger normal sein, oder? Ich habe einige Beispiele (jeweils bei 200 % betrachtet) angehängt.
...
Das Bild "Neu ISO 400.JPG" sieht am saubersten aus.
Die ISO wird eine Rolle spielen, vielleicht wird das bei der Basis-ISO 100 besser.

Der Testchart ist eigentlich nie perfekt zum Sensor waagerecht//senkrecht ausgerichtet, so dass in der Abbildung auch ein Moiré-Effekt auftritt.
 
Ich danke Dir ganz herzlich für die detaillierten Ausführungen und die kompetente Unterstützung, m@sche!

Leider werde ich hier momentan und kurzfristig keine perfekten Testbedingungen schaffen können (und ich habe meist erst spätabends ein bisschen Zeit; die Tests sind dann aber sehr zeitintensiv). Daher werde ich jetzt erst mal noch ein paar "normale" Bilder mit der Kamera machen und die Bedienung ein wenig testen und schaue dann in 1-2 Tagen, ob das mulmige Bauchgefühl noch da ist oder nicht (Tendenz ja). Falls ja, werde ich die Kamera retournieren.

Also noch mal vielen Dank für die Hilfe! Es ist schön zu sehen, dass dieses Forum immer noch eine tolle Anlaufstelle für Hilfesuchende ist.

Beste Grüße
 
Wie wird denn eigentlich das am Sensor ankommende Bild für den Sucher und das Display runtergerechnet?
Offensichtlich, wie Dir nun langsam aufgefallen sein müßte, werden nur ein Bruchteil der Sensorpixel für die Darstellung auf dem Display/EVF verwendet. Das hat diverse technische Gründe (Datenmenge, Sensorerwärmung, Energieverbrauch, ...). Grob gesagt werden da nur bestimmte Zeilen ausgelesen und das Ergebnis davon mehr oder weniger trivial skaliert. Heißt also im Umkehrschluß: Hotpixel können durchaus als einzelner Pixel auf dem Display/EVF auffällig werden. Das entspricht also keinem kaputtem Pixelcluster, sondern ist tatsächlich nur ein einzelner Pixel. Sowas sollte man auch im RAW/LR/C1/... sehen.

Ich nutze die A7-Serie seit Frühjahr 2014, und ab und an stolpert man über einen Pixel, der dann doch irgendwann seinen Geist aufgegeben hat. Die bei allen A7-Kameras funktionierende Methode, wie von BastianK schon erwähnt, ist dann das Verstellen vom Datum um mehr als einen Monat nach vorn, weil das u.a. das automatische Ausmappen von solchen toten Pixeln aktiviert, d.h. danach ist alles wieder ok. Selbst bei neuen Kameras können da schon Pixel ausgemappt sein, und Du weißt es nicht mal. Wenn Pixelcluster kaputt gehen, sieht das ganz anders aus. Es gab z.B. Untersuchungen zu Laserschäden an Sensoren, wobei die u.U. noch mehr zerstören als nur Pixel. Da kann man sich aber gut anschauen, wie sich das in den resultierenden Bildern äußert, wenn ganze Cluster von Pixeln adé gesagt haben ...
 
... werden nur ein Bruchteil der Sensorpixel für die Darstellung auf dem Display/EVF verwendet. Das hat diverse technische Gründe (Datenmenge, Sensorerwärmung, Energieverbrauch, ...). Grob gesagt werden da nur bestimmte Zeilen ausgelesen und das Ergebnis davon mehr oder weniger trivial skaliert.
...
Werden bei 11-facher Fokusvergrößerung dann mehr Sensorpixel ausgelesen?


... Hotpixel können durchaus als einzelner Pixel auf dem Display/EVF auffällig werden. Das entspricht also keinem kaputtem Pixelcluster, sondern ist tatsächlich nur ein einzelner Pixel. Sowas sollte man auch im RAW/LR/C1/... sehen.
...

Wie passt das zu?:
...
Nachdem ich meine neue Kamera gerade ausgepackt hatte (meine erste Berührung mit Systemkameras überhaupt - ich war vorher bei Canon mit einer 60D), fielen mir auf dem Display sofort zwei dickere relativ zentrale Punkte bzw. Pixelansammlungen auf - eine in blau und eine in rot.
...
und:
...
der Objektivdeckel war aufgeschraubt und ein ansonsten schwarzes Bild war zu sehen, das aber durch leichtes dynamisches Rauschen "in Bewegung" war; ansonsten halt noch die üblichen Anzeigen sowohl im Sucher als auch auf dem Display.
...

Hotpixel werden im Live-View niemals zu sehen sein; dazu ist die Belichtungszeit (= Zeit zwischen Rücksetzen und Auslesen der Sensel) viel zu kurz. Erst bei Aufnahmen mit längeren Belichtungszeiten werden Hotpixel ein Thema; dafür gibt es dann die Langzeitrauschunterdrückung, oder alternativ das separate Dunkelbild.
Stuckpixel werden von der Kamera von Zeit zu Zeit selbständig ausgemapt, also zukünftig interpoliert. Deadpixel kann die Kamera eigentlich nicht erkennen, und somit auch nicht ausmappen.

Eigentlich wäre ab Beitrag #21 das beschriebene Problem einen eigenen Thread wert gewesen, denn ab da geht es gar nicht mehr um Hotpixel.


...
Wenn Pixelcluster kaputt gehen, sieht das ganz anders aus. Es gab z.B. Untersuchungen zu Laserschäden an Sensoren, wobei die u.U. noch mehr zerstören als nur Pixel. Da kann man sich aber gut anschauen, wie sich das in den resultierenden Bildern äußert, wenn ganze Cluster von Pixeln adé gesagt haben ...
Das ist dann halt nur noch Elektroschrott.
 
Werden bei 11-facher Fokusvergrößerung dann mehr Sensorpixel ausgelesen?
Nein. Im einfachen Fall kann man die Zeilen selektieren, die ausgelesen werden, d.h. man liest über die gesamte Breite ausgewählte Zeilen aus. In der Gesamtansicht wird also massiv Lineskipping betrieben, während eine Zoomansicht weniger bzw. kein Lineskipping benötigt, aber dann nur einen kleinen (Zeilen-)Bereich vom Sensor ausliest. Einige Sensoren erlauben auch die Beschränkung der Zeilenlänge, also effektiv eine rechteckige Selektion vom auszulesenden Sensorbereich.

Wenn immer der ganze Sensor ausgelesen würde, wäre die Qualität im EVF/Display bei der Gesamtansicht und weniger Licht vor allem bei Kameras mit kleineren Pixeln deutlich besser. Einer der Gründe, warum man mit einer A7s selbst im Dunkeln noch gut manuell fokussieren kann ...


Hotpixel werden im Live-View niemals zu sehen sein [...]
Ja, das ist mein lascher Umgang mit Terminologie, sorry. Ich hatte schon mehrere kaputte Pixel in meinen Sonys, und die waren samt und sonders alle im EVF sofort sichtbar. Die hat man dann in Bearbeitungssoftware eindeutig an den Stellen wiederfinden können, und es waren keine größeren Ansammlungen, sondern immer einzelne Sensel, die da ihren Abgesang aufgezeigt haben. Wenn man also auf einen anderen Bereich zoomt, dann war da nichts zu sehen, quasi als Gegentest.

Wenn man immer an der gleichen Stelle einen Fehler sieht, egal wohin man zoomt, ist der EVF bzw. das Display kaputt bzw. hat einen Pixelfehler.

Kaputte Pixel bei einer Neukamera sind halt auch nicht auszuschließen, und wie schon geschrieben, können da schon wer weiß wieviele ausgemappt sein. Sofern sich sowas mit einem forcierten Mapping-Lauf beheben läßt, würde ich keinen weiteren Gedanken daran verlieren.


Das ist dann halt nur noch Elektroschrott.
Ich hatte mal einen interessanten Vortrag gesehen, und einer der Punkte war eine Digitalkamera, die ins Wasser gefallen ist. Danach lieferte sie ... wie soll man es ausdrücken ... quasi LSD-artige Bilder ab, vieles in Falschfarben, und es war auch nicht homogen kaputt. Das wurde dann aktiv genutzt im künstlerischen Sinn. "Ist das kaputt?" -- "Nee, das ist Kunst!" :lol:
 
... Im einfachen Fall kann man die Zeilen selektieren,
...
Irgend einen stromsparenden Auslesemodus für den Live-View wird der Exmor-Sensor schon haben, denn sonst hätte der Live-View ja auch eine erhöhte Wärmeerzeugung vergleichbar mit dem Videobetrieb zur Folge. Leider gibt das Datenblatt https://www.sony-semicon.co.jp/products/common/pdf/IMX410CQK_Flyer.pdf keine Auskunft darüber wie die Readout modes technisch realisiert sind.


...
Kaputte Pixel bei einer Neukamera sind halt auch nicht auszuschließen, und wie schon geschrieben, können da schon wer weiß wieviele ausgemappt sein. Sofern sich sowas mit einem forcierten Mapping-Lauf beheben läßt, würde ich keinen weiteren Gedanken daran verlieren.
Ein Test auf Hotpixel würde eventuell noch Sinn machen.

Hypothese:
Wenn im Fertigungsprozess des Sensors(die Sensel) Toleranzen auftreten, so sollte sich das auf Stuckpixel und Hotpixel ähnlich auswirken.
Dann sollte auch die Verteilung der Stuckpixel und Hotpixel auf der Sensorfläche ähnlich sein.

Test:
Lanzeitrauschunterdrückung ausgeschaltet, Objektivdeckel oder Gehäusedeckel geschlossen, Belichtungszeit 2 Minuten, ISO 1600, bei Bedarf die Belichtungszeit ändern – Beispiele für diesen Test lassen sich im Internet und hier im Forum finden.

Folgerung:
Wenn die Hotpixel relativ gleichmäßig über die gesamte Sensorfläche verteilt sind, sich also nicht an den Stellen häufen wo das ursprüngliche Fehlerbild mit den roten und blauen Pixelanhäufungen zu sehen war, dann könnte daraus der Schluss gezogen werden, dass das Fehlerbild keine Stuckpixel zeigte, sondern eine andere Ursache haben könnte.

Wie schon in Betrag #40 kurz erwähnt:
"Ein gerade noch nicht ausreichender Spannungspegel am Anfang des Ladevorgangs, könnte auch ein Grund für die Fehlfunktion der angezeigten Pixelhaufen gewesen sein."


...
Ich hatte mal einen interessanten Vortrag gesehen, und einer der Punkte war eine Digitalkamera, die ins Wasser gefallen ist. Danach lieferte sie ... wie soll man es ausdrücken ... quasi LSD-artige Bilder ab, vieles in Falschfarben, und es war auch nicht homogen kaputt. Das wurde dann aktiv genutzt im künstlerischen Sinn. "Ist das kaputt?" -- "Nee, das ist Kunst!" :lol:
... also doch nicht immer gleich entsorgen ;-)
 
Hallo zusammen!

So, ich wollte mal ein Update (mit "spannenden" neuen Bildern) geben: Wie ich schon befürchtet hatte, hat mich das mulmige Gefühl nicht so recht verlassen. Bei einer Investition von EUR 2.000 habe ich die Kamera daher retourniert und eine neue bestellt. Diese habe ich soeben in Augenschein genommen:

Dieses Mal habe ich den Akku vorher komplett geladen; die Kamera hing beim Anschalten nicht am Strom. Darüber hinaus habe ich mein Handy gezückt, um etwaige Pixelfehler direkt ablichten zu können - und siehe da:

Angehängt findet Ihr die Ansicht (Bild 1-2), die sich auf Display und Sucher direkt nach dem erstmaligen Einrichten der Kamera gezeigt hat (mit deutlich sichtbaren Pixelfehlern - je nach Blickwinkel und Belichtungszeit vier bis sechs kleinere Häufchen - Objektivdeckel war aufgesetzt). Ich habe dann mal die Langzeitrauschunterdrückung deaktiviert und ein Bild gemacht. Beispielhafte Ausschnitte seht Ihr angehängt (Bild 3-5).

Nach dem Ausschalten der Kamera wurde ein Pixelmapping durchgeführt. Beim zweiten Anschalten der Kamera waren die direkt im Live View sichtbaren Pixelfehler damit verschwunden.

Die Kamera scheint von ca. Mitte/Ende 2019 zu sein (Firmware 3.01).

Nun wieder die Frage: Ist das normal? Sind die initial im Live View angezeigten Pixelfehler einzelne Pixel auf dem Sensor oder eher Pixelhaufen? Was meint Ihr?

Besten Dank und viele Grüße
 

Anhänge

Weiterhin, dass Digitalkameras nichts für dich sind.
Und das du noch 10 weitere bestellen kannst, und jedes Mal das Gleiche passieren wird.

PS: Ich fühle mit den Händlern, die sich mit Kunden wie dir und komplett sinnlosen Retouren rumschlagen müssen.

Das Spiel hier wird so lange gehen, bis du durch Zufall mal einen Rückläufer bekommst,
der schon mal eingeschaltet war und auf dich dann wie das goldene Kalb wirkt.
 
Zuletzt bearbeitet:
...
Angehängt findet Ihr die Ansicht (Bild 1-2), die sich auf Display und Sucher direkt nach dem erstmaligen Einrichten der Kamera gezeigt hat (mit deutlich sichtbaren Pixelfehlern - je nach Blickwinkel und Belichtungszeit vier bis sechs kleinere Häufchen - Objektivdeckel war aufgesetzt).
...
Haben diese "Häufchen" etwa die gleiche Ausdehnung wie bei der ersten Kamera, oder sind die jetzt viel kleiner?
Der Begriff "Häufchen" bedeutet ja eine kleine - mehr oder weniger lose - Ansammlung von Objekten gleicher Art.
Die Skalierung für das Display darf feine Strukturen ja auch nicht verschlucken, d.h. einzelne Pixel die sich von den umgebenden Pixel abheben, müssen aufgeblasen werden, damit sie auf den Display erscheinen können.

...
Ich habe dann mal die Langzeitrauschunterdrückung deaktiviert und ein Bild gemacht. Beispielhafte Ausschnitte seht Ihr angehängt (Bild 3-5).
...
In dieser Aufnahme sollten in der 400%-Ansicht die Stuckpixel zu sehen sein, wenn keine Pixelhaufen zu sehen sind, sondern nur einzelne Stuckpixel mit genügend Abstand untereinander, ist das kein Problem.

...
Nun wieder die Frage: Ist das normal? Sind die initial im Live View angezeigten Pixelfehler einzelne Pixel auf dem Sensor oder eher Pixelhaufen? Was meint Ihr?
...
Die 400%-Ansicht der Aufnahme vor dem Ausmappen (Bild 3-5) sollte das klären helfen.
 
Weiterhin, dass Digitalkameras nichts für dich sind.
Und das du noch 10 weitere bestellen kannst, und jedes Mal das Gleiche passieren wird.

PS: Ich fühle mit den Händlern, die sich mit Kunden wie dir und komplett sinnlosen Retouren rumschlagen müssen.

Das Spiel hier wird so lange gehen, bis du durch Zufall mal einen Rückläufer bekommst,
der schon mal eingeschaltet war und auf dich dann wie das goldene Kalb wirkt.
Bis dato hast Du inhaltlich nur gesagt, dass eine gewisse Menge an toten/hot/stuck Pixeln völlig normal ist (kann ich nachvollziehen) und dass mit meiner Kamera "schon alles in Ordnung" sei. Eine inhaltlich fundierte Begründung dazu hast Du nicht genannt. Ich bin dafür gerne offen, halte es aber nicht für zielführend, wenn Du mich dafür kritisierst, dass ich zumindest die Frage stelle, ob es bei einem Gerät für EUR 2.000 normal ist, dass das erste, was ich auf dem Display nach der Einrichtung sehe, defekte Pixel(haufen) auf dem Sensor sind. Da ich das (logischerweise) von DSLRs nicht kenne und mich mit Systemkameras nicht bzw. nur bedingt auskenne, halte ich es für legitim, Experten nach ihrem Rat und ihrer Einschätzung zu fragen. Ein klares und (vor allem) fundiertes "dass man das am Anfang sieht, ist bei Systemkameras normal und kein Defekt" habe ich bis dato noch nicht gehört. Es ist ja (wenn auch unwahrscheinlich) nicht auszuschließen, dass hier eine Charge Kameras nicht in der Norm ist und ich davon eine erwischt habe.

P.S.: Den endgültigen Ausschlag zum Zurückschicken der ersten Kamera hat übrigens die Tatsache gegeben, dass der Deckel des USB-Anschlusses, der ja ohnehin schon nicht der stabilste ist, schief war und nicht plan mit den anderen Deckeln abschloss und sich daher noch einfacher öffnen ließ als die anderen Deckel.

Haben diese "Häufchen" etwa die gleiche Ausdehnung wie bei der ersten Kamera, oder sind die jetzt viel kleiner?
Grob würde ich sagen, dass ich dieses Mal zwar mehr "Häufchen" erkennen konnte, sie zwei beim letzten Mal aber etwas größer waren.

Der Begriff "Häufchen" bedeutet ja eine kleine - mehr oder weniger lose - Ansammlung von Objekten gleicher Art.
Die Skalierung für das Display darf feine Strukturen ja auch nicht verschlucken, d.h. einzelne Pixel die sich von den umgebenden Pixel abheben, müssen aufgeblasen werden, damit sie auf den Display erscheinen können.
Genau das ist der Punkt. Ich sehe jetzt einzelne Stellen auf dem Display, die auch auf dem Display selbst ja definitiv größer sind als nur ein Pixel. Was bedeutet das im Umkehrschluss für den Sensor - mehr als 24 defekte Pixel an einer einzelnen Stelle? Oder werden diese ja besonders kontraststarken Stellen dann für die Ansicht auf dem Display sogar noch extra verstärkt, damit sie (als vermeintlich wichtige Details) nicht in der Ansicht auf dem Display untergehen?

In dieser Aufnahme sollten in der 400%-Ansicht die Stuckpixel zu sehen sein, wenn keine Pixelhaufen zu sehen sind, sondern nur einzelne Stuckpixel mit genügend Abstand untereinander, ist das kein Problem.

Die 400%-Ansicht der Aufnahme vor dem Ausmappen (Bild 3-5) sollte das klären helfen.
Erst mal danke für die Info, dass das eine 400-%-Ansicht ist (war mir nicht sicher, welche Zoomstufe das ist). Da ich keine Speicherkarte in der Kamera hatte, habe ich das Bild nicht mehr. Das grobe Absuchen am Kameradisplay selbst hat aber im Wesentlichen das Bild gezeigt, das man auf den Bildern 3 bis 5 erkennen kann. Aber hier scheinen doch teilweise auch schon definitiv mehrere benachbarte Pixel stuck bzw. hot zu sein, oder (also etwa die roten Ansammlungen auf dem letzten Bild)?

Danke und beste Grüße
 
... ob es bei einem Gerät für EUR 2.000 normal ist, dass das erste, was ich auf dem Display nach der Einrichtung sehe, defekte Pixel(haufen) auf dem Sensor sind. Da ich das (logischerweise) von DSLRs nicht kenne und mich mit Systemkameras nicht bzw. nur bedingt auskenne,
...
Das hat nichts mit DSLR oder DSLM zu tun. Mit steigender Pixeldichte werden die Strukturen auf den Wafern immer kleiner und somit empfindlicher gegenüber Fertigungstoleranzen und Elektromigration.

Siehe auch Elektromigration:
https://www.elektroniknet.de/halbleiter/der-feind-auf-dem-chip.85242.html



...
Grob würde ich sagen, dass ich dieses Mal zwar mehr "Häufchen" erkennen konnte, sie zwei beim letzten Mal aber etwas größer waren.
...

Wenn ein dicker roter blauer oder grüner Punkt auf dem Display erscheint, ist das kein dichter Pixelhaufen, denn wenn das mehrere unmittelbar benachbarte Stuckpixel wären, dann wäre ja nicht nur eine Farbe betroffen, sonder alle drei Farben des Bayerfarbfilters, der dicke Punkt würde dann weiß leuchten. Dass mehre unmittelbar benachbarte Pixel in der gleichen Farbe leuchten - das geht ja wegen dem Bayerfarbfilter nur dann wirklich, wenn die defekten Pixel exakt mit dem Muster des Bayerfarbfilter übereinstimmen, also das gleiche Muster aufweisen - also sehr unwahrscheinlich, also praktisch unmöglich.


...
Genau das ist der Punkt. Ich sehe jetzt einzelne Stellen auf dem Display, die auch auf dem Display selbst ja definitiv größer sind als nur ein Pixel. Was bedeutet das im Umkehrschluss für den Sensor - mehr als 24 defekte Pixel an einer einzelnen Stelle? Oder werden diese ja besonders kontraststarken Stellen dann für die Ansicht auf dem Display sogar noch extra verstärkt, damit sie (als vermeintlich wichtige Details) nicht in der Ansicht auf dem Display untergehen?
...
Das kann nur die Methode der Skalierung für das Display sein.
Eventuell ein weiteres Stuckpixel der gleichen Farbe in der Nähe, beide Stuckpixel rücken durch das Skalieren zusammen.

...
Erst mal danke für die Info, dass das eine 400-%-Ansicht ist (war mir nicht sicher, welche Zoomstufe das ist). Da ich keine Speicherkarte in der Kamera hatte, habe ich das Bild nicht mehr. Das grobe Absuchen am Kameradisplay selbst hat aber im Wesentlichen das Bild gezeigt, das man auf den Bildern 3 bis 5 erkennen kann. Aber hier scheinen doch teilweise auch schon definitiv mehrere benachbarte Pixel stuck bzw. hot zu sein, oder (also etwa die roten Ansammlungen auf dem letzten Bild)?
...
Nein, das ist nicht die 400%-Ansicht, die gibt es nur auf dem PC-Bildschirm.

Die 400%-Ansicht hätte auf deinem PC-Bildschirm erfolgen sollen, da du aber keine Speicherkarte in der Kamera hattest ….

Welche %-Ansicht wird auf dem Display der Sony A7III präsentiert?

Herleitung:
Sensor mit 24,2 MP
Display mit 0,9216 MP (Brutto, für die reine Bildanzeige ist das etwas weniger, siehe Anmerkung unten)

x: horizontal
y: vertikal

mit:
MP = x * y
y = x / 1,5 (Seitenverhältnis)

wird:
MP = x * x / 1,5
x = sqrt( MP * 1,5 )

ergibt am Sensor:
x = 6025 Pixel

ergibt am Display:
x = 1176 Pixel


D.h. ein Bildpixel das sich von den umgebenden Pixel unterscheidet muss um den Faktor 5,12 (= x-Sensor / x-Display) bei der Skalierung vergrößert werden, sonst wird es verschluckt.

Eine 100%-Ansicht auf dem Display
erfordert eine Vergrößerung von = 6025 / 1176 = 5,12.
Die 11,7-fache Vergrößerung auf den Display wäre dann ca. einer 230%-Ansicht.

Die 5,9-fache (Sony) Vergrößerung wird vermutlich die echte 100%-Ansicht sein.
Die 11,7-fache (Sony) Vergrößerung wäre dann dann eine echte 200%-Ansicht.

Anmerkung: Es wird nicht das komplette Display für die Bildanzeige verwendet, links und rechts werden am schwarzen Rand Kameraeinstellungen angezeigt. Die Anzahl der MP für die Bilddarstellung ist also etwas kleiner als 0,916 MP.



Die Hotpixel (nicht die Stuckpixel) bei Langzeitbelichtung ohne Rauschunterdrückung in den Bilder 3-5 sind für die Fotografie mit kurzen Belichtungszeiten, also kürzer als 1s bedeutungslos. Für längere Belichtungszeiten ist die Langzeitrauschunterdrückung da, alternativ ein separates Dunkelbild mit gleicher ISO, Zeit und Temperatur.

Die Stuckpixel in den Aufnahmen 1 und 2 haben die Größe wie ich sie auch schon gesehen habe - ohne allerderdngs weiter darüber nachzudenken.
 
Zuletzt bearbeitet:
(...) Wenn ein dicker roter blauer oder grüner Punkt auf dem Display erscheint, ist das kein dichter Pixelhaufen, denn wenn das mehrere unmittelbar benachbarte Stuckpixel wären, dann wäre ja nicht nur eine Farbe betroffen, sonder alle drei Farbei den Bayerfarbfilters, der dicke Punkt würde dann weiß leuchten. Dass mehre unmittelbar benachbarte Pixel in der gleichen Farbe leuchten - das geht ja wegen dem Bayerfarbfilter nur dann wirklich, wenn die defekten Pixel exakt mit dem Muster des Bayerfarbfilter übereinstimmen, also das gleiche Muster aufweisen - also sehr unwahrscheinlich, also praktisch unmöglich.
Danke, sehr gut zu wissen. Das macht es ja auf jeden Fall deutlich unwahrscheinlicher, dass die Bereiche problematisch sind.

Das kann nur die Methode der Skalierung für das Display sein.
Eventuell ein weiteres Stuckpixel der gleichen Farbe in der Nähe, beide Stuckpixel rücken durch das Skalieren zusammen.
Klingt plausibel; hoffentlich ist es auch so.

Vielen Dank für die detaillierte Herleitung der Ansicht auf dem Display!

Die Stuckpixel in den Aufnahmen 1 und 2 haben die Größe wie ich sie auch schon gesehen habe - ohne allerderdngs weiter darüber nachzudenken.
Danke, das ist sehr hilfreich (und beruhigend ;)). Auf dieser Basis zusammen mit den anderen Erläuterungen gehe ich davon aus, dass höchstwahrscheinlich alles mit der Kamera in Ordnung sein sollte. Ich werde jetzt mal ein paar normale Bilder machen und mir anschauen, ob ich irgendwelche Auffälligkeiten (insbesondere an den Stellen auf den Bildern 1 und 2) sehe.

Beste Grüße
 
Mach lieber Bilder mit deiner Kamera und schau ob du dann tatsächlich etwas siehst. Dass gemappt wird, ist bei allen Herstellern nicht anders - geht auch technisch nicht anders.
 
WERBUNG
Zurück
Oben Unten