• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

ProRes vs. H.264

jenne

Themenersteller
Wie viel Blendenstufen Kontrastumfang bringt ProRes bei einer Blackmagic Pocket 6k (Super35) ggü. einer Sony A7 iii oder A9 (Vollformat) mit H264?
j.
 
ProRes und hate264 / 265 sind codecs, die nichts mit dynamic range am Hut haben (sollten - bisserle kommt das noch drauf an, wie die Komprimierung vor allem bei diesen h.264 /265 mit Lichtern umgeht).
(Wenn ich h.irgendwas Material in die Bearbeitung bekomme, wird das als allererstes in ProRes umgewandelt, damit der Rechner beim Abspielen nicht mehr als unbedingt notwendig mit on-the-fly decodierung belästigt werden muss.)

Achte lieber drauf, dass Weissabgleich über den Daumen und Belichtung auf den Punkt stimmen, das spart nachher eine Menge Arbeit. Wie bei den Sony welches S-Log belichtet werden will und vor allem wann es sinnvoll ist, es einzusetzen, dazu weiss dieses Internet was. Bei dunklen Szenen nahezu immer eine schlechte Wahl, willst Du Schatten anlupfen, fängst Du Dir *sofort* Rauschen ein. Nicht zu knapp.
Bei der BMPCC und RAW nicht zu stark komprimieren, max bis 5:1, eher 3:1. Ansonsten wie eben, es gibt beim Anlupfen Rauschen und es geht in die Mitten ab.

Dynamik bei der Blackmagic sind 13EV, die Sony tummeln sich bei um und bei 14EV.
 
Danke!
Ich hätte gedacht, dass die Blackmagic auch mit ProRes mehr Kontrastumfang bietet als die Sony. Die Sony A9 hat allerdings kein S-Log.

Bringt denn Blackmagic Raw noch viel Dynamikgewinn ggü. ProRes?
j.
 
" Dynamikumfang " ist rein eine Sache des Sensors, der Licht einfangen soll.

BRAW, ArriRAW, ProResRAW, ProRes in seinen Varianten, hate26irgendwas, HEIV, HEIF und wie sie sich alle noch nennen, sind codecs, deren Aufgabe es ist, die Sensorinformationen irgendwie aufzuzeichnen. Sensortechnologie und codec sind zwei verschiedene paar Schuhe, die 'so' miteinander nichts mehr zu tun haben.

Im Schnitt ist es noch relativ egal, h.26irgendwas ist halt übelst komprimiert und will entweder bevor es überhaupt losgeht umgewandelt werden oder wird halt on-the-fly decodiert. Je nach Kiste unterm Schreibtisch merkt es der cutter nicht einmal, vielleicht bei wilden Übergängen. Sonstige Effekte obendrauf und es fängt beim Abspielen vielleicht das Stottern an. In der Farbstation wird das sofort eine ernste Sache, mit dieser Decodiererei. ProRes / DNxHD bzw DNxHR sind da deutlich freundlicher, im Handling, weil nicht so komprimiert. Das ist die eine Sache.

Dann ist der codec mit dafür verantwortlich, wie und wie weit die Bildinformationen noch verbogen werden können.
Die codecs, die RAW aufzeichnen haben 12, 14, 16 bit Farbtiefe, ProRes schreibt 10, hate264 8 bit, h.265 je nachdem. Stell es Dir vor, wie RAW und jpg.
(Und dann gibt es noch die bitrates, aber die spielen auf einer anderen Wiese.)


Achte auf den Weissabgleich und vor allem auf die Belichtung, dann sind auch 8bit absolut kein Problem.
Klar kannste mit 10bit und mehr aus irgendwelchen Funzeln noch was rauskitzeln und in Schatten die Schwärzen tanzen lassen, aber Bewegtbild funktioniert so vollkommen anders, als Foto. Beim Zuschauer. Wenn der blockbuster 'richtig' gemacht ist, hat Mensch im Kinosessel gar keine Zeit, auf sowas zu achten. Der folgt dem Hauptdarsteller in dessen fortlaufender Geschichte, sei es nun Mensch oder Ding.
 
Ah, ok., danke. Dann macht also (neben der Sensorgröße und -qualität) die Bit-Auflösung den Unterschied, nicht das Format selbst, wobei jedoch Formate oft an bestimmte Bit-Auflösungen gebunden sind.

Ich habe noch nie in RAW gefilmt, aber fotografiere immer in RAW. Dabei ist es für die Dynamik schon ein großer Unterschied, ob Jpg oder Raw, weil ich Raw in Lightroom bei der Dynamik quasi noch spreizen kann (Lichter- und Tiefen-Regler). Ist das genauso auch bei Video-Raw möglich? Kann auch der Weißabgleich bei BRAW nachträglich ohne Verlust geändert werden?

Die Datenraten sind schon heftig bei der Pocket 6K, bis zu 323 MB/s: https://www.blackmagicdesign.com/de/products/blackmagicpocketcinemacamera/techspecs/W-CIN-15

Btw: Was taugt eigentlich der AF bei der Pocket 6k?
Da der AF bei der Sony A9 sehr gut ist (auch Gesichtserkennung bei 4k), ist er erstaunlich oft auch im Video gut nutzbar. Man kann die Bereiche, in denen Gesichter erkannt werden sollen, ja eingrenzen mit den AF-Feldern.
j.
 
es kann letztendlich (auch) auf die bit-Auflösung runtergebrochen werden.

Der Verwendungszweck ist mit entscheidend: Bei Kino (also richtig grosse Leinwand) sind die "grossen" Sensorformate nach wie vor führend, während sich für Fernsehen (broadcast) durchaus mft und Derivate halten, weil vollständig ausreichend für die Aufgabe. Youtube und Konsorten sind vollkommen ausreichend in Full HD, weil auf den Bildschirmen ... allesamt Kindergeburtstag, rein von der Grösse her.
In 4k und grösser wird eigentlich nur produziert, weil das sog. downsampling so irre Resultate basteln kann. Werbung ist eine andere Geschichte und herausfordernd für script und Kameramenschen.

Weissabgleich aus RAW ist recht gut handhabbar, wobei ich total auf "von Anfang an nahe dran" stehe, egal, weches System. Stichwort ist "matching", vor allem, wenn Anschlussbilder aus anderen Kameras kommen und irgendwas angepasst werden muss soll will. Und es ist nun wirklich kein Problem, das bei der Aufnahme ordentlich zu machen. AutoWB ist ein no-go, btw.

Zu den AF-Fähigkeiten weiss ich nur, dass das reinrassige Camcorder ganz gut können. Bei allen anderen ziehe ich meine Schärfe manuell. Dann ist bzw. bleibt die auch da (bzw. 'ist' schon da), wo sie hinsoll.

Edith meint, ich solle Gründe und so, geht los.
Stichwort ist "Erzähltechniken". Es gibt zB triftige Gründe, ein Bild einfach noch stehen zu lassen, wenn zB von einem Tisch ein Gegenstand weggenommen wird. Durchdrehender AF ? Eher schlecht.
Wenn sich jemand vor den Protagonisten schiebt, der aber eigentlich keine dolle Rolle hat - in die Schärfe ? Kontraproduktiv.
 
Zuletzt bearbeitet:
Im Schnitt ist es noch relativ egal, h.26irgendwas ist halt übelst komprimiert

"Übelst" ist ja witzig. Das ist nicht übelst, es ist zweckgebunden. Und es hat den Zweck, so wenig wie mögliche Daten zu produzieren umso soviel wie möglich Video zu zeigen. Weil "streamen" heutzutage ein und alles ist und da müssen wir Daten sparen, weil es sonst zu viele Ressourcen verbraucht. Netflix hat alle seine Videos mittlerweile sowohl auf h265 (hevc) als auch Google V9 umcodiert. Um jedem Client optimal antworten zu können.

Die Kehrseite der Medaille ist natürlich, dass diese hochpotenten Formate die allerungeeignetsten für Videoschnitt sind. Videoschnittprogramme brauchen möglichst FullFrames, um an jedem Frame einen Schnitt zu ermöglichen und genau das ist ein Problem mit den potenten Kompressionen. Man kann halt nicht alles haben. Aber als Canon vor ein paar Jahren in seiner EOS 5D IV als Videocodec MJPEG (statt h26x) eingebaut hat, da haben alle Pseudobesserwisser aufgeschrien, wie blöd denn Canon sein könnte. Dabei ist das genau (eine) Lösung für das Videoschnittproblem, MJPEG ist ein FullFrame Codec (d.h. jedes einzelne Bild wird auch voll abgespeichert, nicht nur Differenzen, Vektoren und Vorwärts-Rückwärts-Referenzen), das kostet natürlich satt Speicherplatz (auch wenn natürlich jedes Frame an sich im JPEG Format komprimiert gespeichert wird, aber das reicht dennoch vorne und hinten nicht), aber dafür kann man es direkt in den Videoschnitt laden. Das hat nur von den ganzen Besserwissertölpeln keiner verstanden und deswegen wurde die Kamera auch "übelst" verrissen. Weil sie NICHT "übelst" das Video komprimiert hat. Wie man es macht, man macht es falsch...

Ansonsten kann übrigens auch "hate264" im 10Bit Format rechnen und speichern, das ist u.a. auch im Konverter "handbrake" implementiert.
 
Zuletzt bearbeitet:
h.264 / 265 ist ein Ausgabeformat und auch völlig in Ordnung. Für die Bearbeitung - richtig erkannt - der absolute Alptraum.
Für die Bearbeitung ... ProRes und Konsorten mal eben das vier- bis sechsfache an Speicherplatz, gerne auf schnellen Medien. Irgendwas ist immer. Nix los.
 
Stichwort ist "Erzähltechniken". Es gibt zB triftige Gründe, ein Bild einfach noch stehen zu lassen, wenn zB von einem Tisch ein Gegenstand weggenommen wird. Durchdrehender AF ? Eher schlecht.
Wenn sich jemand vor den Protagonisten schiebt, der aber eigentlich keine dolle Rolle hat - in die Schärfe ? Kontraproduktiv.

Ich habe einen Button mit AF ein/aus belegt. Den drücke ich z.B., um die Schärfe beizubehalten.
j.
 
[...]
Ich habe noch nie in RAW gefilmt, aber fotografiere immer in RAW. Dabei ist es für die Dynamik schon ein großer Unterschied, ob Jpg oder Raw, weil ich Raw in Lightroom bei der Dynamik quasi noch spreizen kann (Lichter- und Tiefen-Regler). Ist das genauso auch bei Video-Raw möglich? Kann auch der Weißabgleich bei BRAW nachträglich ohne Verlust geändert werden?
[...]

Hallo, wie parbleu! schon schrieb sollte der WB manuell gesetzt werden. Im Vergleich zur Fotografie nimmst du keine (statische) Momentaufnahme, sondern verschwenkst eventuell das Bild, was bei automatischem Weißabgleich zu einer Farbänderung führen kann. Sowas bekommt man in der Post kaum mehr zurück. Besser also manuell einen an der Realität nahen WB-Wert annehmen. Besser noch für szenisches oder wenn die Zeit/Wille da ist: kurz eine Farbkarte/Filmklappe reinhalten.
Was die Farbtiefe angeht hilf vielleicht dieser Vergleich: Du fotografierst mit deiner Sony vermutlich RAW, unkomprimiert mit 14bit RGB. Damit stehen deiner Kamera 214x214x214 insgesamt jede Menge Farbkombinationen zur Auswahl zur Abspeicherung. Pro Farbkanal sind es 214 (= ca. 16.000) z.B. Rotabstufungen im R-Kanal. Das ist ja das schöne an RAW, weshalb wir Tiefen hochziehen können und dann in diesem "gestreckten" Tiefenbereich noch so viele Informationen haben. Dort nimmt ja bekanntlich auch das Rauschen zu, also Fehlinformationen werden nun auch verstärkt. Lange Zeit waren 8bit mehr oder weniger Standard, das sind nur 256 Farbabstufen je Kanal. Wenn man jetzt Tiefen hochziehen möchte und danach Hautfarben anpassen mag, kann das extrem haarig werden, weil im schlimmsten Fall nur noch 2-5 Farbtöne das ganze Gesicht darstellen. Das sieht dann schnell kränklich aus. Mit den heutigen Formaten ist man da mit 10 bit besser bedient, 12bit und 14 bit sind ja schon krasser Luxus. Was parbleu! jetzt meinte mit dem richtigen Licht ist, dass du bei korrekt gesetztem Licht, also inszeniert und sauber belichtet (d.h. nicht gleich, dass man dem/der ProtagonistIn die Fr*** ausstrahlt), z.b. mithilfe eines Filling-Lichts auch bei z.B. 8bit genügend Farbwerte pro Gesicht oder was auch immer ahben kann. :top::top:
 
Danke! :)
Würdet ihr bei einer Blackmagic eher mit ProRes oder eher mit BRAW filmen? Ist der qualitative Schritt zum BRAW noch groß? Abgesehen von den 12 Bit beim Raw vs. 10 Bit beim ProRes hat man beim Raw dann ja noch den Headroom, der wohl einiges bringen dürfte, falls die Situation hohen Kontrast hat.
j.
 
Ich behaupte jetzt mal, dass der Unterschied sowieso nicht auffällt, wenn richtig ausgeleuchtet wird (s. Hollywood). Und wenn doch mal hier und da korrigiert wird, merkt man auch kaum Unterschiede dazwischen. BRAW geht auf jeden Fall gut in Resolve und du kannst noch WB, etc. ändern. Da es auch von Datenmengen her leichtere Kost ist, sehe ich keinen Grund für ProRes. Außer vielleicht schlechten Erfahrungen mit deiner Hardware in Bezug auf BRAW oder ProRes oder was auch immer. (y)
 
(y)

[…] falls die Situation hohen Kontrast hat.

Fix. It. In. Production.

Wenn Du on location Kontrastkrampf hast, dann fäll die Entscheidung, was für Deine Handlung wichtig ist und sorg dafür, dass das so perfekt als möglich aufgezeichnet wird. Der Zuschauer wird dem schon folgen. Der entschuldigt ausbrennende Lichter und absaufende Schatten, wenn sie zur Geschichte nichts beitragen und nicht « brüllen ». Macht der. Ist so.
 
Dank euch schon für die Infos.

Ich kenne mich mit Foto-Formaten besser aus als mit Video. Sagt man Video-Raw oder einfach nur Raw? Gibt es neben BRAW noch viele andere Formate? Bei Fotografie ist DNG recht verbreitet, aber dennoch haben Nikon (nef), Canon etc. ihre eigenen RAW-Formate. Ist es bei Video genauso? Was ist besonders verbreitet? Was speichern Arri und RED ab? Können Programme wie Premiere oder Magix ProX verschiedene Video-Raw-Formate schneiden?
j.
 
Super, danke! Also ist es bei Raw im Video-Bereich im Prinzip genauso wie bei Raw im Fotobereich. (y)

Und noch eine Frage zu ProRes und den SLogs: Diese haben gemeinsam, dass sie besonders kontrastarme Gradationskurven haben, um die Dynamik zu schonen, richtig? ProRes ist dabei im PC leichter zu verarbeiten und beide basieren auf mp4?

Filmen Spielfilmproduktionen immer in RAW und wie sieht es z.B. bei Serien wie Rote Rosen oder Lindenstraße aus?
j.
 
Zuletzt bearbeitet:
Na sag doch mal was du mit deinen Aufnahmen vorhast.

Wir drehen Dokus für die öffentlich rechtlichen Sender. Auch mit Systemkameras wie z.B. Lumix S1.

Dreh Format ist meist H 265 mp4 in 10bit und 4:2:2. gerne in V-log oder bei der Sony in S-Log. Im Schnitt läuft das dann in den Avid und wird zu DNXHD 185 oder beim Mac und FCP zu ProRes gewandelt, damit es sich besser schneiden lässt.

Alternativ wenn es nicht so viel Material drehen, gehts auch direkt auf einem Ninja als DNXHD oder als ProRes.

Ist alles eine Frage von Materialmenge und Zeitfaktor. Und wenn du nicht gerade Hochglanzwerbung machen willst, reichen die die heute angesagten und von immer mehr Kameras angebotenen H264/265 Formate möglichst mit 10 Bit und 4:2:2 gut aus.
 
Für mich ist es allgemein interessant zu wissen, wie das mit den Formaten aussieht. Ich habe bisher nur in mp4 gefilmt (Sony A9), z.B. https://www.youtube.com/watch?v=J00cx64IDM4 (ohne Intro). Ich habe da nur gefilmt, nichts geschnitten und Story, Regie etc. haben auch andere gemacht.

Ein Bekannter hat sich eine Blackmagic Pocket 6k geliehen und damit in ProRes gefilmt (2. Folge der Staffel, https://www.youtube.com/watch?v=CKN0uSmxZM4 ). Es sieht anders aus. Ich denke, DSLM und die Pocket 6k haben jeweils ihre Vorteile. Die Sony hat den Bildstabi und das größere Format, sowie die Möglichkeit, mit AF zu filmen, die Pocket bietet dafür das ProRes-Format. Ist technisch ein spannender Vergleich :).
j.
 
ProRes ist dabei im PC leichter zu verarbeiten und beide basieren auf mp4?

mp4 ist erstmal nur ein Containerformat. Da können verschiedene Video und Audiocodecs drin sein. Das Containerformat macht bei der Verarbeitung meistens wenig Unterschied. Viel wichtiger ist ja der Codec der da drin steckt. Und selbst da gibt es große Unterschiede. h264 ist zb für Ausstrahlung bei kleinen Datenmengen mit guter Qualität gedacht. Du hast in der Regel Inter frame Komprimierung, heißt du speicherst ein "volles" Bild und in nachfolgenden Bildern dann nur die Änderungen im gegensatz zu diesem "vollen" Bild. Bis du dann wieder ein neues "volles" Bild hast. (vereinfacht gesagt). Somit musst du halt zb wenn du zu einem bestimmten Zeitpunkt gehst nicht nur ein Bild laden sondern gleich mehrere und das Bild "rekonstruieren". Das ist natürlich ungeschickt beim schneiden. Es gibt aber auch Intra-frame, bei dem nur volle Bilder gespeichert werden, das macht das ganze zwar größer, dafür besser beim Schneiden. Aber da beides unter dem selben Codec passieren kann sind so allgemeine aussagen immer schwer. Es kommt immer stark auf viele Faktoren an.
 
Danke, ok.(y).

Habe noch eine Frage zu S-Log und ProRes: Zu S-Log habe ich jetzt gelesen, dass die Basis-Iso höher ist und damit eine andere Belichtungssteuerung durchgeführt wird. Ist das ein bisschen wie die Dynamik-Optimierer bei Fotos, die partiell aufhellen?
https://www.sony.de/electronics/support/articles/00146206
Also kann man S-Log wohl nicht irgendwie anders erreichen, wie z.B. Kontrast und Farben runterdrehen? Der Dynamikgewinn durch S-Log beträgt nach Grading ca. 1-2 Blendenstufen?

Dynamik bei der Blackmagic sind 13EV, die Sony tummeln sich bei um und bei 14EV.

Eine Blackmagic Pocket 6k kann kein S-Log, soweit ich weiß, aber dafür 10 Bit. Oder hat sie auch ein logarithmisches Farbprofil? Die 14 EV der Sony gelten für die A7 III mit S-Log? Eine A9 erreicht wohl weniger, vielleicht 12 EV?

Stabilisieren muss man bei Blackmagic mit dem Objektiv oder wie realisiert man das? Ein Sensor-Stabi ist nicht vorhanden, denke ich.

Eine Sony A1 dürfte im Video wg. 10 Bit S-Log eine deutlich bessere Bildqualität erreichen als die A9, richtig?
j.

PS: Ich finde dieses Colorgrading super:
https://www.youtube.com/watch?v=vdkb_TeAGrc
Wie weit geht sowas wohl noch mit h.264/8Bit (Sony A9)?
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten