• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Wobble-Effekt: Nikon vs. Canon

Rauschen war noch nie ein K.O.-Kriterium, sonst hätte vor 10 Jahren niemand DSLRs gekauft und Kompaktknipsen/Handykameras wären unverkäuflich :ugly:
Außerdem: selbst wenn man nur jede 21. Zeile ausliest, rauscht ein Pixel nicht mehr als wenn man alle ausliest.
Das Rauschen eines Pixels interessiert aber nicht (auch wenn das mittlerweile die Meinung von 99% aller Anwender und Tester ist).

Referenz ist das Rauschen bei Darstellung mit einer vorgegebenen Größe (z.B. 75 cm x 50 cm-Ausbelichtung oder Darstellung mit 2400 x 1600 Pixeln auf einem 30"-TFT-Computer-Display), d.h. die Rauschleistungsdichte bezogen auf die Ortsfrequenz im Bild (z.B. auf 500 lp/BH < f < 1000 lp/BH als Beispiel für den ganz feinen und nicht ganz so störenden Gries und 125 lp/BH < f < 250 lp/BH für den gröberen und weitaus mehr störenden Gries).


Klar kannst du mit pixel binning das Rauschen weiter absenken, aber wenn das Rauschen bei 21 MP akzeptabel ist, dann ist es das auch bei 21/9 MP.
Falsch.
Bei einer Dezimierung eines Kleinbildsensors mit 21 MP um den Faktor 9 landest Du bei einem 21/9 MP-Sensor (2,3 MPixel) mit einer Fläche von 12 mm x 8 mm.

Bei niedrigen ISO-Werten ist insbesondere die Reduzierung der effektiven Fläche das Hauptproblem.

Ich sehe momentan wenig alternativen zur Theory vom mehrfach-Interlacing, da pixel binning mit bayer pattern Sensoren schwierig bis unmöglich ist.
On-Chip-Binning ist bei CMOSs kein so riesiges Problem. Gleich neben der aktiven Fläche werden 16 Subpixel (8 grün, 4 rot, 4 blau) zu 3 Subpixeln zusammengefaßt.

Es bleiben noch 1404 x 936 als Auflösung übrig. Das reicht für LiveView (das 640 x 480 benötigt) wie auch für die Videomodi mit 1280 x 720 Pixel (720p) und 1920 x 1080 Pixel (1080p). Bei letzterem deswegen, weil die Datenrate für eine pixelgenaue Aufzeichnung ohnehin nicht ausreicht und zum anderen man bei Video ohnehin keine Schärfe bis ins letzte Pixel haben will (weil dies gut sichtbare Artefakte verursacht).

Die 1404 x 936 sind übrigens dann "vollständige" Pixel ohne "Bayerverlust".

Im 5x LiveView-Modus wird das Binning abgeschaltet, dafür aber nur 1128 x 752 ... 1280 x 960 Pixel ausgelesen. Diese müssen nun etwas besser demosaikt werden, danach auf 640 x 480 Pixel umgerechnet werden.

Im 10x Modus kann man das Feld auf 564 x 376 ... 640 x 480 reduzieren. Hochwertiges Demosaiken + Schärfen + Rauschfiltern ist dann allerdings fällig.

Nach dem debayering kannst du natürlich runterrechnen, aber dazu musst du vorher schon alle Bytes ausgelesen haben (was du ja schon als unmöglich vorgerechnet hast).
Halte ich für sehr unwahrscheinlich, weil der Anschluß 5 V/2 A an der Seite der Kamera fehlt.

Video ist ein Abfallprodukt von LiveView. Für Video und LiveView wird jetzt kein Prozessor und keine Stromversorgung aufgebaut, die die 5 bis 10fache Verarbeitungsleistung von Fotoschießen benötigt.
 
Das Rauschen eines Pixels interessiert aber nicht (auch wenn das mittlerweile die Meinung von 99% aller Anwender und Tester ist).
Da stimmen wir überein. Dennoch nehmen Leute Videos mit wesentlich kleineren Sensoren auf als selbst ein um den Faktor 3 linear runterskalierter 5dII Sensor wäre. Ich kann daher kein KO-Kriterium erkennen.
On-Chip-Binning ist bei CMOSs kein so riesiges Problem. Gleich neben der aktiven Fläche werden 16 Subpixel (8 grün, 4 rot, 4 blau) zu 3 Subpixeln zusammengefaßt.
Es geistert hartnäckig im Internet herum, dass selbst für die sRAW-Modi kein Pixelbinning verwendet wird, sondern im DIGIC 4 herumgerechnet wird. Wenn man nicht einmal in den sRAW-Modi Pixelbinning betreibt (und Canon hat ja genug Flak bekommen für sein Megapixelmonster, wo die Leute lieber höhere ISO-Werte gehabt hätten. Die Leute hätten gejubelt über einen 5MP-Modus mit rauschfreiem ISO 25600), dann kann ich mir kaum vorstellen, dass es im Videomodus plötzlich verwendet würde ...
Video ist ein Abfallprodukt von LiveView. Für Video und LiveView wird jetzt kein Prozessor und keine Stromversorgung aufgebaut, die die 5 bis 10fache Verarbeitungsleistung von Fotoschießen benötigt.
Ich glaube, wir uns einig, dass es nur zwei theoretische Möglichkeiten gibt, wie die 5DII sowohl live view als auch Video hinbekommt (pixel binning (was deiner Aussage zufolge auch im CMOS-Sensor drin sein könnte) und erweitertes interlacing). Wegen pixel binning habe ich (siehe oben) nach wie vor ernsthafte Zweifel.
 
Der Sensor wird nicht auf einmal ausgelesen, sondern Zeilenweise...
Bewegt man die Kamera nun schnell von links nach rechts (z.B.) verzerrt sich das Bild dadurch trapezförmig. Durch die schnelle Bewegung und das relativ langsame, kontinuierliche Auslesen verschieben sie die Bildinhalte.

Beispiel der D90.
http://www.youtube.com/watch?v=y484jV_2IfA

Sehr nettes Beispiel hier... gerade Münze oder doch nicht?
http://www.youtube.com/watch?v=LPOaH7uK9ho&feature=related


Schwenkt man die Kamera zur Seite, so scheint sich ein kerzengerade stehendes Objekt zur Seite zu neigen, scheint also auf dem Video schief zu stehen. Schwenkt man die Kamera jetzt schnell hin und her, so scheint das eigentlich kerzengerade stehende Objekt hin und her zu schwanken - wie Wackelpudding.

Quelle meiner Information: c`t special - Digitale Fotografie - 2009

Alles klar, jetzt kapiert.

Ich danke Euch beiden für die Erklärung.

Gruß
Daniel
 
Da stimmen wir überein. Dennoch nehmen Leute Videos mit wesentlich kleineren Sensoren auf als selbst ein um den Faktor 3 linear runterskalierter 5dII Sensor wäre. Ich kann daher kein KO-Kriterium erkennen.

Du bekommst die Artefakte nicht mehr in den Griff.

Artefakte, die so stark sind, daß Du den Bildinhalt nicht mehr erkennst.
Das Abfotografieren eines TFT-Displays mit einer DSLR ist dagegen fast noch ein makelloses Bild.
Objekte mit feinen Pixelstrukturen (z.B. einer Periode von 4 Pixeln), dazu noch langsam bewegt (z.B. mit 30 Pixeln/sec) würden verraten, wie der Sensor genau ausgelesen wird.

Jede Art der Auslesung verrät sich durch die Eigenschaften des Bildes. Man kann so viel indirekt bestimmen (gutes Beispiel ist der Aufbau der Mattscheibe).

Es geistert hartnäckig im Internet herum, dass selbst für die sRAW-Modi kein Pixelbinning verwendet wird, sondern im DIGIC 4 herumgerechnet wird.
sRAW ist Pixelbinning (wahrscheinlich durch den DIGIC, das ist am einfachsten und für HW-Lösungen besteht keine Notwendigkeit, weil die Kamera keine höhere Framerate mit sRAW erlaubt). Verifizierbar durch Analyse der sRAW-Dateien. 4 Pixel werden zu 3 Pixeln reduziert, dabei wird die Auflösung horizontal und vertikal halbiert.
Platzersparnis liegt um die 20%.

sRAW1 und sRAW2 funktionieren völlig anders. Dort wird das Bayer-Pattern aufgelöst. Das verdreifacht die Datenmenge. Dann wird das Bild bei sRAW1 um den Faktor 11:16, bei sRAW2 um den Faktor 1:2 resampelt. Dann wird das ganze vom RGB-Farbraum nach YCbCr konvertiert und die Farbdifferenzkanäle werden um den Faktor 2 downgesampelt.

Das ganze ist etwas so roh wie ein krosses Spiegelei. Was bleibt, ist die Kodierung in einem linearen Farbraum. Damit ist noch einiges möglich.

In meinen Augen weitaus bessere Alternativen hatte ich hier schon mal diskutiert.

Siehe auch:
Wenn man nicht einmal in den sRAW-Modi Pixelbinning betreibt (und Canon hat ja genug Flak bekommen für sein Megapixelmonster, wo die Leute lieber höhere ISO-Werte gehabt hätten.
Dauermärchen auf Sender DSLR-Forum.

Mit Megapixel-Askese kommst Du kaum höher in der Empfindlichkeit.
Für einen perfekten Sensor interessiert die Pixelanzahl überhaupt nicht, nur die Sensorfläche.
Theorie? Solche Sensoren kann man für fünfstellige $- bzw. €-Beträge kaufen. Im Spektralbereich zwischen 450 nm und 600 nm sind noch 5% Luft bis zum theoretischen Limit.

Die Leute hätten gejubelt über einen 5MP-Modus mit rauschfreiem ISO 25600),
Wird nie kommen. Rauschfrei gibt es zum einen nicht (Licht rauscht von sich aus), zum anderen wird bei Kleinbild ISO 25000 nie sehr brauchbar sein. Schon ISO 12500 wird sehr anspruchsvoll werden (keine Farbtrennung durch Absorption, 4-Farb-Breitband-Detektoren mit Helligkeitsanpassung).

dann kann ich mir kaum vorstellen, dass es im Videomodus plötzlich verwendet würde ...
Der Durchsatz ist ohne Pixelbinning NICHT machbar. Du hast 4 Auslesekanäle (DIGIC 4). Übliche Werte sind 25 bis 30 MHz pro Kanal. 40 MHz sind unter Extrembedingungen noch machbar. Bei 21 MPixeln kommst Du da auf maximal 7 fps.

Ich glaube, wir uns einig, dass es nur zwei theoretische Möglichkeiten gibt, wie die 5DII sowohl live view als auch Video hinbekommt (pixel binning (was deiner Aussage zufolge auch im CMOS-Sensor drin sein könnte) und erweitertes interlacing).
Ich habe keine 5DII. Daher keine Experimente möglich.

Wegen pixel binning habe ich (siehe oben) nach wie vor ernsthafte Zweifel.
Könnte man ganz einfach durch Videoaufnahme (30 fps, 720p, Offenblende, ISO 3200, Frame capturen) und Fotoaufnahme (1/30sec, Offenblende, ISO 3200, 16:9-Ausschnitt) bei sehr schlechtem Licht testen. Beide Bilder auf 720 x 405 resampeln und vergleichen. Rauschen sie etwa gleich, sieht es schlecht für Deine Theorie aus.
 
Du bekommst die Artefakte nicht mehr in den Griff.

Artefakte, die so stark sind, daß Du den Bildinhalt nicht mehr erkennst.
Das Abfotografieren eines TFT-Displays mit einer DSLR ist dagegen fast noch ein makelloses Bild.
Das Argument "Artefakte" erinnert mich sehr an das Argument "Stromverbrauch", mit dem jeder Ansatz beim ASIC-Design totgeschlagen werden konnte. Ich bin überzeugt, mit der "Artefakte"-Keule könnte man heute noch den Bayer-Pattern verhindern, wenn er nicht schon überall drin wäre. Denk nur, da sind die Farbpixel verschoben und mehr grüne als rote ...
sRAW ist Pixelbinning (wahrscheinlich durch den DIGIC, das ist am einfachsten und für HW-Lösungen besteht keine Notwendigkeit, weil die Kamera keine höhere Framerate mit sRAW erlaubt)
Und somit Pixelbinning NACH der A/D-Konversion. Genau deshalb wird auch argumentiert, dass sRAW2 keinen rauschmäßigen Vorteil gegenüber RAW bringt. Natürlich kann man auch Aufsummieren der digitalen Pixelwerte als Binning bezeichnen, üblicherweise findet Binning aber vor der A/D-Konversion statt. Wieviel Unterschied das bei heutiger Technologie noch bringt sei natürlich dahingestellt.
Dauermärchen auf Sender DSLR-Forum.

Mit Megapixel-Askese kommst Du kaum höher in der Empfindlichkeit.
Scheinbar ist es billiger, einen FF-Sensor mit 12 MP zu bauen als einen mit 21 MP. Und beim 12 MP-Sensor ist auch ein 51-Punkte AF-Sensor dabei ... :grumble: Aber scheinbar hat jeder andere Präferenzen und es dürften ja sehr viele glücklich sein mit 9 AF-Punkten.

Aber zurück zum Rauschen: Möglicherweise ist mittlerweile der Overhead auch bei 21 MP nicht so hoch, dass das Rauschverhalten deutlich leiden würde, und im Vergleich zu Kompaktknipsen sind auch hier die Pixel noch riesig. Ich hoffe, dass wir damit jetzt nicht zu weit OT abdriften, die D700/5DII-Vergleiche sind eh schon anderswo abgehandelt.
Ich habe keine 5DII. Daher keine Experimente möglich.

Könnte man ganz einfach durch Videoaufnahme (30 fps, 720p, Offenblende, ISO 3200, Frame capturen) und Fotoaufnahme (1/30sec, Offenblende, ISO 3200, 16:9-Ausschnitt) bei sehr schlechtem Licht testen. Beide Bilder auf 720 x 405 resampeln und vergleichen. Rauschen sie etwa gleich, sieht es schlecht für Deine Theorie aus.
Da reden die zwei Experten: Ich hab auch keine 5DII, nicht einmal eine DSLR :lol: :lol:

Der von dir angesprochene Vergleich wäre aber definitiv sehr interessant und aussagekräftig. Gibt's Freiwillige Tester ?
 
Scheinbar ist es billiger, einen FF-Sensor mit 12 MP zu bauen als einen mit 21 MP. Und beim 12 MP-Sensor ist auch ein 51-Punkte AF-Sensor dabei ... :grumble: Aber scheinbar hat jeder andere Präferenzen und es dürften ja sehr viele glücklich sein mit 9 AF-Punkten.

Allet klar :D
billiger ist es bestimmt :D
aber ob günstiger, wissen wir nicht.....
Aber hey scheinbar ist es günstiger weiße Objektive zu bauen als schwarze :ugly:

Gleiche Argumentationsweise wie bei dir ;)
 
WERBUNG
Zurück
Oben Unten