• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2025.
    Thema: "Grün"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
  • Unlauterer Verkäufer wieder unterwegs!

    Liebe Mitglieder,
    Florian Franzek, der seit Jahren mit verschiedensten Usernamen in allen möglichen Foren und auf etlichen Verkaufsplattformen auftritt,
    ist wieder hier im Forum und versucht, ehrliche Käufer zu betrügen.
    Wir können wenig tun, außer bei Bekanntwerden einer weiteren Registrierung eines Accounts für seine Machenschaften, diese umgehend zu sperren.
    Ich empfehle, bei Kontakt umgehend die Polizei einzuschalten.

WERBUNG

Welche Pixel des Sensors werden bei Videoaufnahmen benutzt?

derwohilfebraucht

Themenersteller
Hallo zusammen, ich habe eine technische Frage bezüglich des Auslesens von Pixeln im Videomodus.

Nehmen wir zum Beispiel die Canon 600D o.ä. mit 18MP, also 5184x3456 Pixeln auf dem Sensor. Welche dieser Pixel werden für das FullHD Video ausgelesen?
Angenommen der Sensor hätte in der Breite 5760 Pixel, dann könnte man jeden 3. Pixel nehmen. Würde man jeden 2. Pixel nehmen, hätte man mit dem Bayer-Filter ein Problem, denn man hätte nur in jeder zweiten Zeile rote bzw blaue Pixel (und man hätte einen beträchtlichen Crop von 1,35).
Wie werden also die Pixel des Videos berechnet?

Gibt es Informationen dazu, wie das im Allgemeinen gehandhabt wird?
 
das haengt von der cam ab.

1) sie werden zb alle 4 pixel 1 ausgelesen (canon, schlecht)
2) sie werden 1:1 ausgelesen so wie zb bei der a7s
3) das bild wird 1:1 ausgelesen und echtzeit auf 1080p/4k runterskaliert (samsung nx1, ARRI/RED etc)
4) sie werden 2x2 zusammengefasst und ausgelesen (sony a7rII)

manchmal hast du auch mischformen - wie zb bei der neuen nikon D500 - hier ist es zwar ein 1:1 auslesen, aber nur aus den mittleren pixeln, sprich du hast effektiv einen 2.2 crop ... dafuer in der theorie ein sauberes 4K signal (das aber im codec vernichtet wird).

es ist wirklich von hersteller zu hersteller verschieden. je sauberer das 4K/1080p signal, desto besser/schneller die signalprozessoren.
bei der 600D ist es uebrigens version 1).

JB
 
Zuletzt bearbeitet:
Bayer Filter

Danke jbooba für die ausführliche Auflistung! Wie lässt sich das (im Datenblatt) erkennen, welche der genannten Möglichkeiten genutzt wird, gibt es dafür Begriffe, nach denen man Ausschau halten kann?

Zu Möglichkeit 1) und 4) würde mich noch interessieren, wie das mit dem Bayer-Filter gemacht wird.
1) Wenn ich jeden 4. Pixel auslese, bekomme ich nur eine Farbe (rot, grün oder blau).
4) Wenn ich 2x2 Pixel zusammenfasse, hätte ich alle Farben vermischt.
Idee 1: Aus einem 2x2 Array mit einem roten, einem blauen und 2 grünen Pixeln die RBG-Werte ablesen (bei grün Mittelwert bilden)
Idee 2: Jeweils 4 Pixel der gleichen Farbe zusammenfassen (siehe Bild) und gröberes Bayer-Muster erhalten, dann normales De-Bayering anwenden.
 

Anhänge

hi,
fuer den bayer filter level habe ich mich nie interessiert, und was ich verstehe meinen reviewer und firmen "echte" RGB pixel.

und nein du kannst es im datenblatt nicht erkennen (zumindest ich wuesste nicht wie), nur tests oder die aussagen der frima (zb sony) kann dir helfen.


JB
 
das haengt von der cam ab.

1) sie werden zb alle 4 pixel 1 ausgelesen (canon, schlecht)
2) sie werden 1:1 ausgelesen so wie zb bei der a7s
3) das bild wird 1:1 ausgelesen und echtzeit auf 1080p/4k runterskaliert (samsung nx1, ARRI/RED etc)
4) sie werden 2x2 zusammengefasst und ausgelesen (sony a7rII)

Weitere Version (wie bei der D800):

Ein breiter Aussenrand wird gar nicht genutzt, und vom Innenbereich wird nur jede dritte Zeile ausgelesen. Damit hat diese KB-Cam im Videobetrieb weniger aktive Sensorfläche als eine Pana GH4. Bei welchen Sony-Sensoren wird dies Verfahren eigentlich noch angewandt?
 
Weitere Version (wie bei der D800):

Ein breiter Aussenrand wird gar nicht genutzt, und vom Innenbereich wird nur jede dritte Zeile ausgelesen. Damit hat diese KB-Cam im Videobetrieb weniger aktive Sensorfläche als eine Pana GH4. Bei welchen Sony-Sensoren wird dies Verfahren eigentlich noch angewandt?

zeilen-sprung bei sony? meines wissens gar nicht, zumindest auf keiner aktuellen cam (a5100/a6000, der sony 1", die a7xII reihe)

JB
 
Danke nochmal für eure Antworten, ich bin der Sache noch etwas auf die Spur gekommen:

Anscheinend wird bei der Canon 600D wie folgt vorgegangen:
In einem inneren Bereich von 5040x2835 Pixeln wird jeder dritte Pixel pro Zeile alle 3 Zeilen ausgelesen. Das kommt auch mit dem Bayer-Filter gut hin. Das führt zu einem Bild mit 1680x945 Pixeln, welches dann auf FullHD hochskaliert wird (Faktor 8/7).

Eigentlich schade, dass nur der innere Sensorbereich genutzt wird, und nicht die gesamte Breite. Dann hätte man ein Bild von 1728x972, welches noch mit einem Faktor von nur 10/9 hochskaliert werden müsste.

Quelle:
http://www.magiclantern.fm/forum/index.php?topic=16428.msg159809#msg159809
http://www.magiclantern.fm/forum/index.php?topic=15983.msg155174#msg155174
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten