• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Führt eine höhere Pixeldichte zu mehr Bildrauschen? Beispiele gesucht!

Spacemarine2009

Themenersteller
Man hört immer wieder das Argument, eine höhere Pixeldichte würde zu einem höheren Rauschen führen und die Bilder würden daher schlechter werden. Leider habe ich bislang nirgends Beispiele gesehen, die diese Behauptung belegen würden.

Wer kennt hieb- und stichfeste Beispiele, aus denen eindeutig hervorgeht, dass die Qualität eines Fotos mit steigender Pixeldichte abnimmt?

Also konkret suche ich:
Zwei Bilder, aufgenommen mit zwei Sensoren unterschiedlicher Pixeldichte, aber gleicher Gesamtgröße und möglichst gleicher Sensortechnologie. (Also z.B. zwei aufeinanderfolgende Modelle)
Die beiden Bilder sollen identisch belichtet sein und das gleiche Motiv zeigen und nach der Aufnahme auf die gleiche Größe heruntergerechnet werden, bzw. auf die gleiche Größe ausbelichtet werden.

Leider sind die meisten Beispiele, die man im Internet findet, schlichtweg falsch. Da werden 100% Ansichten, unterschiedliche Belichtungssituationen oder unterschiedliche Sensorgrößen miteinander verglichen und dann falsche Schlüsse daraus gezogen.

Um den Thread lesbar zu halten: Bitte keine Grundsatzdiskussionen über Sinn und Zweck hoher Pixeldichten a la "Die Optiken lösen das eh nicht auf" oder "wenn man keine Poster druckt, braucht man das eh nicht" usw. Es soll hier wirklich nur darum gehen, die oben angeführte Aussage mit Beispielen zu belegen oder zu widerlegen. Für Grundsatzdiskussionen bitte z.b. https://www.dslr-forum.de/showthread.php?t=935915 benutzen.
 
Ob nun die Ursache wirklich die Pixelzahl ist, läßt sich aber auch daran nicht belegen: Die Ziele und Prioritäten der Software-Auslegung sind ja bei beiden Kameras auf verschiedene Schwerpunkte gesetzt.

Gruß messi
 
Okay, dann ist es nur im Labor beweisbar. Das Softwareargument kannst du immer bringen - identische Kameras , deren einziger Unterschied die Pixeldichte ist, wirst du nicht finden. Ich halte den Einwand für nicht berechtigt, aber jedem die seine (Meinung).

Grüße, Uwe
 
@SimDreams:

Interessanter Vergleich, diesen kannte ich in der Tat noch nicht. Rein den Bildern nach gebe ich dir recht, die höhere Pixeldichte scheint zu einem höheren Rauschen zu führen, allerdings fallen mir ein paar Punkte an dem Vergleich auf:

1. Das Bild der D3 ist deutlich schärfer, besonders bei den niedrigen ISO-Stufen fällt das stark auf. Entweder wurde durchgängig falsch fokussiert, oder der RAW-Konverter hat nicht optimal funktioniert.

2. Er schreibt dass zum Zeitpunkt des Tests kaum RAW-Konverter vorhanden waren. Der RAW-Konverter ist jedoch einer der wichtigsten Faktoren beim schlussendlichen Bild. Möglicherweise ist der verwendete Konverter also noch nicht komplett optimiert gewesen.

3. Als er die Kamera-interne Rauschunterdrückung testet, sind die Bilder mit aktivierter Unterdrücktung wesentlich schärfer. Auch hier kann etwas nicht stimmen: http://www.pbase.com/chipscar/d3x_with_incamera_nr_on

4. Korrekterweise hätte man bei allen Bildern die gleiche Belichtung wählen müssen und später die Helligkeit per Software anpassen. Schließlich haben nicht alle Kameras die gleiche ISO-Verstärung. D3 und D3X haben aber eine fast identische Verstärkung, so dass das nicht ins Gewicht fallen dürfte.
http://www.dxomark.com/index.php/Ca...485|0/(onglet)/0/(brand)/Nikon/(brand2)/Nikon
 
Moin!


Du musst immer unterscheiden, ob Du gleiche Ausgabegröße oder 100%-Ansichten vergleichst. Bei gleicher Ausgabegröße und möglichst ähnlichem Entwicklungsstand von Sensor und Auswerteelektronik und -software, hängt das Bildrauschen zuallererst von der Sensorgröße ab. Nikon D300s und D700 sind da Paradebeispiele: Der "Rauschvorsprung" der D700 ist ziemlich exakt 1 1/3 Blende, und das entspricht exakt dem Größenverhältnis der Sensoren.

Das ist aber auch alles überhaupt kein Wunder, denn die bei gleicher Belichtung vom größeren Sensor aufgenommenen Photonen (=Energie =Bildinformation) für das am Ende gleich große Bild unterscheiden sich auch um das Flächenverhältnis der Sensoren (Cropfaktor²).

Die Pixelgröße spielt erst in 2. Linie eine Rolle, weil der Anteil an "blinder Fläche" (Ränder der Mikrolinsen, Leiterbahnen usw.) mit steigender Pixelzahl immer größer wird.



Gruß, Matthias
 
Gleiche Ausgabegröße vorausgesetzt, wurden bei meinen Kameras Dynamik und Rauschen immer besser, trotz steigender Pixelzahlen.
Das die Auflösung einen *wesentlichen* Einfluss auf das Bildrauschen hat, halte ich für einen Mythos, Belege dafür würden mich also auch interessieren.
 
Die Pixelgröße spielt erst in 2. Linie eine Rolle, weil der Anteil an "blinder Fläche" (Ränder der Mikrolinsen, Leiterbahnen usw.) mit steigender Pixelzahl immer größer wird.

Und genau dafür suche ich den Beleg, denn das ist das einzige, wodurch tatasächlich das Rauschen ansteigen kann.

Was du obendrüber schreibst, habe ich implizit vorausgesetzt indem ich schrieb dass es unsinnig ist, 100% Ansichten zu vergleichen. Es müssen schließlich immer gleiche Gesamtlichtmengen miteinander verglichen werden.
 
.....
Die Pixelgröße spielt erst in 2. Linie eine Rolle, weil der Anteil an "blinder Fläche" (Ränder der Mikrolinsen, Leiterbahnen usw.) mit steigender Pixelzahl immer größer wird.



Gruß, Matthias

Na ich würde den Einfluß der Pixelgröße/dichte eher so sehen:

- kleinere Pixel schwanken zwar stärker in ihrem Wert (weil die absolute Photonenzahl geringer) aber eben auch feiner, da auf kleinerer Fläche.
- das Mehr an Bildinformationen gibt der Software eine bessere Unterscheidung zwischen Nutz- und Rauschinformation um korrigierend einzugreifen

In der Summe haben sich aber die "hängt sie" - Prognosen gegenüber hohen Pixelzahlen wohl als DEUTLICH überzogen herausgestellt.

Gruß messi

I
 
Man hört immer wieder das Argument, eine höhere Pixeldichte würde zu einem höheren Rauschen führen und die Bilder würden daher schlechter werden. Leider habe ich bislang nirgends Beispiele gesehen, die diese Behauptung belegen würden.

Wer kennt hieb- und stichfeste Beispiele, aus denen eindeutig hervorgeht, dass die Qualität eines Fotos mit steigender Pixeldichte abnimmt?
Physik sagt: It doesn't matter!

Statistik sagt: Höhere Pixeldichte korreliert mit besserer Bildqualität (siehe DXOmark).

Statistik sagt aber auch: Höhere Pixeldichte korreliert mit dem Jahr, in dem die Kamera auf den Mark kam.

Frank Klemm sagt: Solange es Antialiasing-Filter in Kameras gibt und Telekonverter effektiv (deutlich!) mehr Auflösung bringen, ist die Pixeldichte nicht hoch genug.

Also konkret suche ich:
Zwei Bilder, aufgenommen mit zwei Sensoren unterschiedlicher Pixeldichte, aber gleicher Gesamtgröße und möglichst gleicher Sensortechnologie. (Also z.B. zwei aufeinanderfolgende Modelle)
Okay. Sauber beschrieben.
Die beiden Bilder sollen identisch belichtet sein und das gleiche Motiv zeigen und nach der Aufnahme auf die gleiche Größe heruntergerechnet werden, bzw. auf die gleiche Größe ausbelichtet werden.
Ja.
Wir vergleichen:
  • einen Sensor mit 36 mm x 24 mm Größe und 3600 x 2400 Pixel (8,6 MPixel) und
  • einen Sensor mit 36 mm x 24 mm Größe und 7200 x 4800 Pixel (35 MPixel).
  • Die Lichtverhältnisse seien schlecht (z.B. ISO 1600).
Ausbelichtet
  • auf 60 cm x 40 cm (24 Zoll x 16 Zoll) -- das ist schon ziemlich groß!
  • mit 300 dpi (7200 x 4800 Pixel auf dem Ausbelichter) -- die meisten haben nur 200 dpi
dann sehen die Bilder aus der Ferne (60 cm Betrachtungsabstand und mehr) identisch aus. Geht man
näher heran, wird das 35 MPixel-Bild schärfer und es liegt ein ganz feiner Gries darüber, den man
genau dann anfängt wahrzunehmen, wenn man die zusätzlichen Details wahrnimmt.

Leider sind die meisten Beispiele, die man im Internet findet, schlichtweg falsch. Da werden 100% Ansichten, unterschiedliche Belichtungssituationen oder unterschiedliche Sensorgrößen miteinander verglichen und dann falsche Schlüsse daraus gezogen.
Richtig. Die Fehler sind eher die Regel als die Ausnahme. Selbst die ansonsten gute Seite dpreview macht diesen elementaren Fehler.

Bei Vergleich von Sensoren:
  • Bild oder gleicher Bildausschnitt (gleicher Prozentsatz der Fläche, z.B. 4%) auf die gleiche Pixelzahl vergrößern oder verkleinern.
  • Vergrößerung bzw. Verkleinerung so wählen, so daß beide etwa das gleiche Vergrößerungshandicap haben (d.h. beide Bilder sollten verkleinert oder vergrößert werden und beide Zahlen sollten ähnlich krum sein)
  • Ideal: beide Bilder zwischen 1,5x und 3,5x vergrößern, auf einem Bildschirm anzeigen und den Betrachtungsabstand so weit vergrößern, so daß die Pixelstruktur nicht mal mehr erahnbar ist (bei 100 dpi: >122 cm)
Bei Vergleich von Sensortechnologien:
  • Gleiche Sensorfläche (z.B. 4 mm x 2,5 mm) auf die gleiche Pixelzahl vergrößern oder verkleinern.
  • Rest wie oben ...
Eine 1:1-Betrachtung ist weder zum Vergleich von Sensoren noch zum Vergleich von Sensortechnologien geeignet. Man kann sie zum Analysieren von Strukturrauschen und Aliasingfehlern verwenden, aber zu nichts anderem.

Ähnliche Fehler gibt es beim Vergleich von ISO-Werten.
Zum Vergleich muß man:
  • gleiche Lichtmenge auf den Sensor fallen lassen: daher synthetische Szene mit definierter Beleuchtung UND Belichtung mit M
  • gleiche Farbtemperatureinstellung (die Farbmatrix wird bei geringer Farbtemperatur ungünstiger)
  • gleiche Gradationskurve und gleiche Farbsättigung (am besten die Bilder durch ein Programm jagen, das die Histogramme zur Deckung bringt)
Das ganze kann man dann mit unterschiedlichen ISO-Einstellungen der Kamera machen und
man wird feststellen, das ISO 100 mehr rauscht als ISO 3200.

Noch so ein Fehler ist das Messen der Objektiv-Vignettierung in JPEG-Bildern.
Die Objektivvignettierung wird so durch die Gradationskurve aufgesteilt.
 
Zuletzt bearbeitet:
Die Pixelgröße spielt erst in 2. Linie eine Rolle, weil der Anteil an "blinder Fläche" (Ränder der Mikrolinsen, Leiterbahnen usw.) mit steigender Pixelzahl immer größer wird.

Das scheint man bei Kompaktkameras besser im Griff zu haben als bei DSLRs. Gerade die "bösen" Knipsen mit Minisensor haben für ihre Fläche eine gute Qualität. Ein flächenmäßig gleich großer Crop von DSLRs ist
teilweise bis zu 1(!) Blendenstufe schlechter. Besonders schlimm war das
2009. 2010/2011 haben die DSLRs wieder etwas nachgezogen (D5100, D7000, K5).
 
Das scheint man bei Kompaktkameras besser im Griff zu haben als bei DSLRs. Gerade die "bösen" Knipsen mit Minisensor haben für ihre Fläche eine gute Qualität. Ein flächenmäßig gleich großer Crop von DSLRs ist
teilweise bis zu 1(!) Blendenstufe schlechter. Besonders schlimm war das
2009. 2010/2011 haben die DSLRs wieder etwas nachgezogen (D5100, D7000, K5).

Benutzen die denn auch gleiche Sensortechniken (ich schreibe mit Absicht nicht "Technologien")? Ich weiß es nicht, mit Kompaktknipsen kenne ich mich nicht aus. Ich meine aber, dass die meisten CCD-Sensoren haben, während heutzutage alle DSLR CMOS-Sensoren haben. Dass man natürlich nur halbwegs gleiche Techniken vergleichen kann, hatte ich eigentlich hiermit...

[...] möglichst ähnlichem Entwicklungsstand von Sensor und Auswerteelektronik und -software

...gemeint.

Na ich würde den Einfluß der Pixelgröße/dichte eher so sehen:

- kleinere Pixel schwanken zwar stärker in ihrem Wert (weil die absolute Photonenzahl geringer) aber eben auch feiner, da auf kleinerer Fläche.
- das Mehr an Bildinformationen gibt der Software eine bessere Unterscheidung zwischen Nutz- und Rauschinformation um korrigierend einzugreifen

Irgendwie bist Du gedanklich schon wieder bei 100%-Ansichten. Bei gleicher Ausgabegröße und angemessenem Betrachtungsabstand sollte es doch egal sein, ob große Pixel gleich mehr Photonen "einfangen", die Information mehrerer kleiner Pixel zusammengerechnet wird oder das Auge wegen seiner mangelnden Auflösung einfach über mehrere Bildpunkte mittelt.


Gruß, Matthias
 
Benutzen die denn auch gleiche Sensortechniken (ich schreibe mit Absicht nicht "Technologien")? Ich weiß es nicht, mit Kompaktknipsen kenne ich mich nicht aus. Ich meine aber, dass die meisten CCD-Sensoren haben, während heutzutage alle DSLR CMOS-Sensoren haben. Dass man natürlich nur halbwegs gleiche Techniken vergleichen kann, hatte ich eigentlich hiermit ...

CMOS vs. CCD ist eine von ca. 10 Eigenschaften, die sich von Sensor zu Sensor ändern.
Außerdem sind bei kleinen Sensoren Dinge möglich, die bei großen nicht bezahlbar sind (z.B. BSI). Weiterhin sind insbesondere bei CCDs bei großen Sensoren Signale länger ungeschützt auf dem Chip unterwegs ...

Aktuelle CCDs (Canon S95) hat wesentlich ähnlichere Eigenschaften zur einem guten heutigen CMOS (Nikon D7000) als zu einem alten CCD (Nikon D70). Daher ist CMOS und CCD kein Unterscheidungsmerkmal.

Im wesentlichen gibt es zwei Eigenschaften:

  • Quanteneffizienz [QE]
  • Ausleserauschen in Abhängigkeit vom eingestellten ISO-Wert, wir betrachten hier mal zwei Werte, das Ausleserauschen bei ISO 100 [RON100] und bei ISO 3200 [RON3200].
 
CMOS vs. CCD ist eine von ca. 10 Eigenschaften, die sich von Sensor zu Sensor ändern.

Ich gebe zu, dass ich von der eigentlichen Sensortechnik herzlich wenig Ahnung habe, wohl aber von der zugrundliegenden Physik. Wenn also bei heutigen "kleinen" CCDs etwas so grundsätzlich anders gemacht wird als früher und sie deshalb heutigen "großen" CMOS nahekommen, dann klingt das für mich erstmal nach "ganz anderer Entwicklungsstand". Das muss ja nicht "alt" bedeuten, sondern einfach "andere Prioritäten". Trotzdem hebeln die ja die Physik nicht aus, sondern verschieben einfach technische (und finanziell sinnvoll erreichbare) Grenzen. Soll heißen: Ein in der Technik der S95 hergestellter Sensor mit vergleichbarer Datennachbereitung, aber doppelter Fläche, hätte näherungsweise 1 Blende Rauschvorteil bei gleicher Ausgabegröße und gleichem Betrachtungsabstand. Oder etwa nicht?


Gruß, Matthias
 
Die Frage ist aber auch, wieweit bei den heutzutage gaengigen Pixeldichten "getrickst" wird, um die Effizienz zu erhoehen.

Z.B. werden wohl Mikrolinsen mit reduzierter Grenzapertur eingesetzt, um die Effizienz bei "normalen" Linsen mit f>2 zu erhoehen. Bei kleineren Blendenzahlen nimmt der Sensor dann nicht mehr das ganze Licht auf, sondern schneidet einiges ab, was durch die groessere Objektivapertur tritt. Dadurch muss dann das Bild (fuer den Fotografen nicht direkt nachvollziehbar) digital aufgehellt werden. Ausserdem werden die Unschaerfekreise nicht mehr gleichmaessig hell dargestellt.

Siehe hier.

Solche technischen Fortschritte freuen natuerlich die Anhaenger von Telebrennweiten und Zooms, die Freunde von lichtstarken FBs haben das nachsehen...

Die Frage ist, ob diese Tricks nur den allgemeinen High-ISO-Fortschritt begruenden, oder wirklich auch Nachteile hoeherer Pixeldichte ausgleichen.
 
Das scheint man bei Kompaktkameras besser im Griff zu haben als bei DSLRs. Gerade die "bösen" Knipsen mit Minisensor haben für ihre Fläche eine gute Qualität. Ein flächenmäßig gleich großer Crop von DSLRs ist
Kompaktkameras kleistern über ihre Fotos aber meist auch dick Rauschunterdrückung drüber und schärfen dann nach. Nur relativ wenige Kompaktkameras können in RAW aufnehmen, und dann rauschen die auch ziemlich stark, selbst bei niedrigen ISO-Werten.

Soll heißen: Ein in der Technik der S95 hergestellter Sensor mit vergleichbarer Datennachbereitung, aber doppelter Fläche, hätte näherungsweise 1 Blende Rauschvorteil bei gleicher Ausgabegröße und gleichem Betrachtungsabstand. Oder etwa nicht?
Die S95 hat einen CCD-Sensor und die direkte Nachfolgerin S100 einen CMOS-Sensor. In Tests schneiden sie fast gleich ab bzw. mit minimalem Vorteil für die S95 (laut The Verge). Die Unterschiede zwischen CCD und CMOS sind also offenbar nicht signifikant.

edit:

Hier wurde die aktuelle NEX-5N mit 16MP gegen die ebenfalls aktuelle NEX-7 mit 24MP verglichen: http://www.luminous-landscape.com/reviews/cameras/sony_nex_7_rolling_review.shtml#28 (sowohl mit hochskalierten 5N-Bildern als auch mit herunterskalierten 7-Bildern)

Geht man davon aus, dass die beiden Sensoren bis auf die Pixeldichte identisch sind (und warum sollte Sony auch zwei Sensoren getrennt entwickeln?), dann lässt sich das Rauschverhalten also direkt auf die Pixelgröße zurückführen. Das Ergebnis ist fast ein Gleichstand, wobei die NEX-5N bei sehr hohen ISO-Werten (insbesondere 12800) IMO doch ein wenig besser ist. Der Unterschied ist aber gering und ob das die Unterschiede in der Auflösung aufwiegt, darf bezweifelt werden.

Physik sagt: It doesn't matter!
Ich bin nicht gut in Physik, aber ich finde das Argument, je kleiner ein Pixel ist desto weniger Licht fällt auf ihn, daher muss das Signal mehr verstärkt werden, eigentlich sehr einleuchtend.

Die NEX-Serie gilt allerdings als eine der besten beim Rauschverhalten und schlägt sogar einige Kleinbild-DSLRs. Daher denke ich, dass die Grenzen möglicherweise nicht physikalisch unumwindbar (oder zumindest noch nicht vollständig ausgeschöpft) sind, sondern sich einfach nur auf den aktuellen Stand der Technik beziehen. Das würde erklären, warum 2007 eine Kamera mit 6MP eine bessere Bildqualität erzeugt hat als eine mit 8MP und eine aktuelle 8MP-Kamera wiederum bessere Bilder als die 6MP-Kamera von damals macht. Wär’ ja nichts neues, dass man in der Technik denkt: „Hier muss die Grenze liegen, weiter geht es bestimmt nicht!” Und dann geht’s doch weiter.
 
Zuletzt bearbeitet:
Nur relativ wenige Kompaktkameras können in RAW aufnehmen, und dann rauschen die auch ziemlich stark, selbst bei niedrigen ISO-Werten.

Das bestreitet ja auch niemand, schließlich ist die Sensorfläche ja auch kleiner als bei APS-C. Hast du Nachweise, dass das Rauschen pro Fläche größer ist als bei einem größeren Sensor mit niedrigerer Pixeldichte?
 
Von der Physik her ist die Sache doch einfach. Wenn ein Pixel die halbe Größe hat, fängt es nur 1/4 des Lichtes auf. Das muss ich durch vierfache Empfindlichkeit korrigieren, also rauscht der Sensor mit den kleineren Pixeln auf Pixelebene bei ISO 100 genauso wie der mit den größeren Pixeln bei Iso 400. Oder, wenn man mal davon ausgeht, dass das Rauschen zum größten Teil von der ersten Verstärkerstufe kommt, rauscht jedes Pixel des höher auflösenden Sensors viermal so stark.

Wenn man jetzt gleiche Sensorgrößen voraussetzt und - der Fairness halber - die fertigen Bilder aus einem Abstand betrachtet, wo man die einzelnen Pixel nicht mehr sieht (oder skaliert das Bild des feineren Sensors um einen Faktor 2 herunter), dann wird das Rauschen der einzelnen Pixel gemittelt. Da jeweils 4 Pixel des feineren Sensors auf 1 Pixel des gröberen Sensors kommen, ergibt sich beim höher auflösenden Sensor eine Rauschreduzierung um √4 = 2, insgesamt rauscht also das Bild des höher auflösenden Sensor also nur um einen Faktor 2 stärker.

Natürlich kann man hier statt des Faktors 2 einen beliebigen anderen Faktor einsetzen.

Den Faktor "Fortschritt" habe ich hier bewusst unberücksichtigt gelassen (höhere Lichtausbeute, rauschärmere Verstärker usw.), ebenso die Tatsache, dass kleinere Pixel schräg einfallende Strahlen schlechter einfangen können, was man vermutlich z. T. durch Mikrolinsen wieder ausgleichen kann.

L.G.

Burkhard.
 
WERBUNG
Zurück
Oben Unten