• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Die definitive KB-vs.-APS-C-Abhandlung

Das Rauschverhalten wird gleich wenn die Pixeldichte gleich ist, dann ist auch die Pixelgröße gleich.

Das stimmt nur, wenn Du dann beide in 100%-Ansicht betrachtest. Wenn Du das nicht tust, sondern ein normales Foto in normaler Größe betrachtest, hängt das Rauschen von der Sensorgröße ab, nicht von seiner Pixelzahl.


Gruß, Matthias
 
Nein kleine Pixel Rauschen mehr wie große, da sie weniger Licht sammeln und das Signal verstärkt werden muss um bei gleicher Blende und Brennweite eine gleiche Belichtung zu erzielen.

Wenn es hier um KB vs Crop 1.6 geht ist der Vergleich auf pixelebene sehr wohl relevant.
Fände es toll wenn das jemand unter dem technischen Aspekt genauer erklären könnte weiter ins Detail kann ich nicht
 
Nein kleine Pixel Rauschen mehr wie große, da sie weniger Licht sammeln und das Signal verstärkt werden muss um bei gleicher Blende und Brennweite eine gleiche Belichtung zu erzielen.

Und wenn Du dann aus 2 Kameras mit gleich großem Sensor aber verschieden großer Pixelzahl 2 gleich große Bilder machst, dann mittelt sich alles wieder raus und das Rauschen ist gleich.

Wenn es hier um KB vs Crop 1.6 geht ist der Vergleich auf pixelebene sehr wohl relevant.

Wofür?

Fände es toll wenn das jemand unter dem technischen Aspekt genauer erklären könnte weiter ins Detail kann ich nicht

Das ist schon x Mal erklärt worden, auch in dieser Diskussion. Möchtest Du selber suchen, oder soll ich?

Es läuft am Ende alles auf die während der Belichtung vom Sensor aufgenommene Lichtenergie heraus. Und die ist bei gleicher Blende und Belichtungszeit proportional zur Sensorfläche.


Gruß, Matthias
 
Technisch ist es ein unterschied aber nicht praxisrelevant, in dem Punkt stimm ich dir zu, aber nur weil die Software der Kamera das ausgleicht.
Die Diskussion dass RAW kein "echtes" RAW ist lassen wir.
Würdest du nämlich bei diesem Vergleich die Informationen nach dem De-Bayering, also das wirkliche RAW (erste)Bild ohne weitere schritte direkt auslesen/betrachten dann könntest du da einen Unterschied/Helligkeitsabweichung bei unterschiedlich großen Pixeln bei gleicher Belichtungszeit feststellen bzw messen. (gleiches Motiv und gleiche Beleuchtungsstärke vorrausgesetzt).
 
Technisch ist es ein unterschied aber nicht praxisrelevant, in dem Punkt stimm ich dir zu, aber nur weil die Software der Kamera das ausgleicht.
Die Diskussion dass RAW kein "echtes" RAW ist lassen wir.
Würdest du nämlich bei diesem Vergleich die Informationen nach dem De-Bayering, also das wirkliche RAW (erste)Bild ohne weitere schritte direkt auslesen/betrachten dann könntest du da einen Unterschied/Helligkeitsabweichung bei unterschiedlich großen Pixeln bei gleicher Belichtungszeit feststellen bzw messen. (gleiches Motiv und gleiche Beleuchtungsstärke vorrausgesetzt).

Den Einwand verstehe ich nun gar nicht mehr, ich werde ihn gleich noch 5x lesen. Vielleicht hilft's.

Die Frage nach Rauschen, Sensorgröße und Pixelzahl wurde hier schon lang und breit durchgekaut und insbesondere von UnclePat sehr gut beantwortet (und von messenger, anathbush, noch ein paar anderen und meiner Wenigkeit). fazit: Die Sensorgröße macht den Unterschied, nicht die Pixelzahl, die begrenzt nur die Ausgabegröße bzw. die Ausschnittvergrößerung.



Gruß, Matthias
 
Ich rede ja nicht von Pixelzahl sonder der Pixelgröße

Würdest du die 18Mpx der 60D auf einen Sensor der Doppelten Fläche packen könntest du die Pixel doppelt so groß bauen und hättest die doppelte Empfindlichkeit
 
Ich rede ja nicht von Pixelzahl sonder der Pixelgröße

Würdest du die 18Mpx der 60D auf einen Sensor der Doppelten Fläche packen könntest du die Pixel doppelt so groß bauen und hättest die doppelte Empfindlichkeit

Es hat zwar mit der Pixelzahl oder -größe nichts zu tun, scheint aber für die meisten einfacher zu denken zu sein. Also in diesem Beispiel: Bei gleicher Belichtungszeit und Blende könntest Du also den größeren Sensor mit geringerer Empfindlichkeit betreiben. Und dann rauscht er weniger.


Gruß, Matthias
 
... (gleiches Motiv und gleiche Beleuchtungsstärke vorrausgesetzt).

Und genau da liegt der Denkfehler.
Wenn ich das gleiche Motiv einmal mit einer 5 MPixel-Kamera und mit einer 20 MPixel-Kamera aufnehme, sehe ich in der 100 %-Ansicht natürlich mehr Rauschen. Ich sehe aber auch nicht das gleiche Motiv(-detail), da die 20MPixel-Kamera das Motiv (bei 100%) doppelt so groß darstellt.
Verkleinere ich nur das 20 MPixel-Bild um 50% (auf 5 MPixel), habe ich wieder das gleiche Motiv. Beim Verkleinern verringert sich aber gleichzeitig auch das Rauschen entsprechend.

vg Klaus
 
5mpix rauscht weniger weil sie weniger Pixel auf der Fläche hat wie die mit 20Mpix ==> folglich hat die mit 5Mpix größere Pixel angenommen sie haben die gleiche Sensorgröße.
Würde man die Signalverarbeitung durch die Software der Kamera außen vor lassen so wäre die Kamera mit 5Mpix derjenigen mit 20Mpix bei der Empfindlichkeit deutlich überlegen.

Und ihr meint dass ein größerer Pixel effektiv nicht mehr Photonen sammelt wenn die Belichtungszeit gleich ist, verstehe ich euch richtig
 
5mpix rauscht weniger weil sie weniger Pixel auf der Fläche hat wie die mit 20Mpix ==> folglich hat die mit 5Mpix größere Pixel angenommen sie haben die gleiche Sensorgröße.
Würde man die Signalverarbeitung durch die Software der Kamera außen vor lassen so wäre die Kamera mit 5Mpix derjenigen mit 20Mpix bei der Empfindlichkeit deutlich überlegen.

Und ihr meint dass ein größerer Pixel effektiv nicht mehr Photonen sammelt wenn die Belichtungszeit gleich ist, verstehe ich euch richtig

Vielleicht solltest Du Dir erstmal einig werden, was Du eigentlich vergleichen willst. 100%-Ansichten? Oder gleich große fertige Fotos?

Ich halte den Vergleich von 100%-Ansichten aus Kameras mit verschiedener Pixelzahl für sinnlos und vergleiche deshalb immer (gedanklich) gleich große Abzüge/Ausdrucke aus gleicher Entfernung betrachtet. Und da das Verhältnis aus Ausgabegröße und Betrachtungsabstand durch die Pixelzahl begrenzt ist (aber nur das!), wählt man für den Vergleich eben etwas aus, was der Sensor mit der geringeren Pixelzahl noch leisten kann. Und unter dieser Voraussetzung stimmt all das, was ich bisher gesagt habe.

Wenn Du 100%-Ansichten vergleichen willst, hast Du recht. Bloß wozu ist das sinnvoll?


Gruß, Matthias
 
Verschiedene Sichtweisenmeine technisch theoretisch deine aus der Praxis und so wie es letztendlich ist.

Jetzt haben wir jedenfalls beide sichtweisen durch:)
 
5mpix rauscht weniger weil sie weniger Pixel auf der Fläche hat wie die mit 20Mpix ==> folglich hat die mit 5Mpix größere Pixel angenommen sie haben die gleiche Sensorgröße.
Würde man die Signalverarbeitung durch die Software der Kamera außen vor lassen so wäre die Kamera mit 5Mpix derjenigen mit 20Mpix bei der Empfindlichkeit deutlich überlegen.

Und ihr meint dass ein größerer Pixel effektiv nicht mehr Photonen sammelt wenn die Belichtungszeit gleich ist, verstehe ich euch richtig

Nein, das verstehst Du nicht richtig.
Natürlich sammelt der größere Pixel mehr Photonen, in dem Beispiel 4 mal so viele. Nur hat die die 20 MPixel-Kamera auf der Fläche eines (5Mega-)Pixels 4 einzelne Pixel. In der Summe bleibt die Photonenzahl also gleich:)
 
Danke!

Hast Du gute Bilder mit 17-40 bei ca. 24mm, die auch in den Ecken scharf sind?;)

Zeig mal!;)

Ja, 24mm in scharf habe ich wohl einige. Bilder bei denen die Bildecken dann im Bereich der Schärfentiefe liegen sind schon deutlich weniger. Ich kann gerne mal welche heraus suchen, sobald ich wieder einen Computer habe und Lightroom wieder läuft. Mein alter PC hat sich leider letzte Woche verabschiedet.

24mm bei Blende 5.6 am KB ist halt in der Regel nicht von den Füßen bis unendlich scharf. Demnach liegen die Ecken meist nicht im Schärfebereich. Vielleicht fotografiere ich aber auch nur lauter merkwürdiges Zeug.

Grüße
TORN
 
..Vielleicht fotografiere ich aber auch nur lauter merkwürdiges Zeug.

Grüße
TORN

Nein. Geht mir auch so...;) Dennoch würde ich gern das 17-40 einmal bei 17mm und einmal gern auch bei 24mm mit hoher Blende und einem Motiv sehen wollen, wo scharfe Ränder auch sinnvoll sind. Bei einem Rathaus oder einem anderen architektonischen Kleinod könnte das mal der Fall sein...

An Crop nutze ich aktuell das 15-85 und (nach der Reparatur) wieder mein 12-24/4.
 
Verschiedene Sichtweisenmeine technisch theoretisch deine aus der Praxis und so wie es letztendlich ist.

Deine Sichtweise ist nicht nur nicht technisch theoretisch, sondern falsch. Man vergleicht nicht zwei Sensoren mit unterschiedlicher Auflösung in der 100%-Ansicht miteinander, wenn man verwertbare Ergebnisse möchte. Das ist so, als würdest du das Korn eines 100er Provia und eines 50er Velvia mittels Mikroskop vergleichen und bei einem der beiden eine stärkere Vergrößerung wählen.
Eine gute Möglichkeit, Bilder zweier Kameras unterschiedlicher Auflösung zu vergleichen, ist, die Fotos der geringer auflösenden Cam hochzurechnen.
 
Und wie Hochrechnen? Ich war der Meinung da werden Pixel einfach ergänzt die es nicht gibt, bzw ergänzt.
Also unter diesem Punkt müsste das höher aufgelöste Kameramodell besser sein.
Aber wieso das kleine hochrechnen, statt das große auf kleinere Format herunter zu rechnen?
Das geht nur über Halbierung der dpi (Pixel pro inch=fläche, da war ja was)
 
Halbierung der dpi? Sorry, was hat dpi hier zu suchen? (p.s.: dpi = fläche? dpi ist ein Dichtemaß auf Länge betrachtet.. Es gibt sogar Drucker die horizontal und vertikal verschiedene Druckauflösungen haben, ist zwar nicht grad optimal für die menschliche Denke, aber ne Tatsache )

Der Ansatz des Hochrechnens des kleineren Bildes hat einen interessanten Hintergrund. Wie gut schlägt sich das synthetisch aufgeblähte gegen die native Auflösung. Im direkten Vergleich 7D zu 5DII (den beiden Hochauflösern) ist es gerade mal +8,3% Skalierung.

Im umgekehrten Fall (21mpix runter auf 18mpix) verbessert sich der (schon existente) SNR-Abstand der 5DII nochmals, zwar minimal, aber es passiert.

Im Endeffekt würd ich Bilder verschiedener Systeme gleich auf eine vielfach kleinere Auflösung runterskalieren und schauen, wieviel Unterschied bleibt, zB ~2.100x1.400px. Diese Auflösung reicht sogar noch für eine 10x15cm-Ausbelichtung. Spätestens da wird man sehen, dass die Unterschiede marginal sind. Also bleibt für mich lediglich der Vorteil der praktischen und preislichen Eigenschaften, die für meine Art des Fotografierens für KB sprechen.

mfg chmee
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten