Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Aber geschätzte 2800€ für die GH6 ist schon ne Kröte die es zu Schlucken gilt !
Aber geschätzte 2800€ für die GH6 ist schon ne Kröte die es zu Schlucken gilt !
Bin gespannt was kommende Neuerscheinungen ( Canon R7 / SONY A7IV ... ) für ein ähnliches Preislevel bringen, die Entscheidung für das Geld der GH6 muß dann wohl geziehlt überlegt sein.
Wird denn jemand gezwungen sich eine 4k-Hybridkamera zu kaufen? Ich bin nach wie vor der Meinung, dass für 99 % der Privatanwender FullHD nach wie vor ausreichend sind. Auch bei Nachbearbeitung und Schnitt sind die Anforderungen bei 4k-Material nicht gerade niedrig. Da braucht man eh einen potenten Rechner, insofern ist das nun mal kein billiges Hobby.
Auch bei Nachbearbeitung und Schnitt sind die Anforderungen bei 4k-Material nicht gerade niedrig. Da braucht man eh einen potenten Rechner, insofern ist das nun mal kein billiges Hobby.
Die neuen M1 Macs machen das nebenbei. Auch das iPad.
Die GH5s bekommt ja das Prores Raw Update, die GH6 wird das sicherlich auch so regeln.
Natürlich wird der Formfaktor mit einem Ninja V nicht grade kleiner. Da ist dann fast so eine Kastenkamera wie die BGH1 oder Z Cam die bessere Option. Ausser man will Prores RAW nur Zeitweise bzw nutzt auch viel Fotografie. Wenn man die GH6 dann wirklich ganz nutzen will braucht man auch gleich den Ninja V+, sonst ist man bei 4k 60 und 5.7k 30 am Ende. 2500€ für die Kamera + 1800€ für den Ninja, unter 4500€ wird man da nicht auf dem Laden gehen selbst wenn man schon eventuell Objektive und Speichermedien/Akkus hat.
Und wenn man gleich noch 5 Leica Objektive kauft ist man bei 20.000€.
Was soll denn dieses Vorrechnen?
Etwa die Tatsache dass ein Externer Rekorder teuer ist? Ja welche Überraschung. Sind dir die Dinger zu groß und unpraktisch? Dafür kann ich nichts.
Hat die Software wirklich 6k/8k geschnitten, oder nur eine ausreichend flotte Vorschau genieriert?Hatte eine kurze Zeit einen aktuellen MacMini für 699€ und auf dem ließen sich 6K schneiden wie Butter, 8K aus Testzwecken lief auch einwandfrei.
Die aktuellen Entwicklungen im CPU/GPU Bereich rennen den Auflösungen davon.
und daß Grafikkarten mit 6Pin Stromanschluss nur noch in Abverkaufware zu bekommen ist, spricht Bände.
Der Stromverbrauch der PC ist ja auch entsprechend wieder am Ansteigen, allen Klimabeteuerungen zum trotz. Wobei von 1080p = 2 MiP ==> 4k = 8 MiP ==> 8k = 33MiP dann gerne noch 60p und 10 Bit Farbtiefe....
Hat die Software wirklich 6k/8k geschnitten, oder nur eine ausreichend flotte Vorschau genieriert?
Der Stromverbrauch der PC ist ja auch entsprechend wieder am Ansteigen, allen Klimabeteuerungen zum trotz. Wobei von 1080p = 2 MiP ==> 4k = 8 MiP ==> 8k = 33MiP dann gerne noch 60p und 10 Bit Farbtiefe....
Macht ca. 40 fache Rohdatenmenge, soviel Verbesserungen bei den CPU sehe ich Ryzen Hin oder Her nicht wirklich, und daß Grafikkarten mit 6Pin Stromanschluss nur noch in Abverkaufware zu bekommen ist, spricht Bände.
Ich hoffe, daß mit 5.7k = Doppelte Pixelzahl zu 4k und damit genug Bearbeitungsreserve dann Vernunft in den Markt einkehrt. Und das soll die GH6 dann ja auch anbieten.
Hat auch viel mit Marketing zu tun. Viele der Karten die gleich 2x 8Pin Anschlüsse oder ähnliches haben brauchen den eig gar nicht.
der8auer auf Youtube hat mal bei einer 2080 TI die hälfte der Stecker abgeschnitten und siehe da, es funktioniert. Aber mehr Anschlüsse setzen viele mit besserer Stromversorgung gleich.
Bei selber Visueller Qualität brauch ich bei 10-Bit aber weniger Bitrate, aka weniger Daten. Zumindest bei den gängigen komprimierten Formaten. Du hast weniger Quantisierungsfehler bei 10-bit als bei 8-bit selbst wenn du ein 8-bit Signal als 10-bit enkodierst. Zumal wir ja zb beim Fernseher in der Zeit in der wir von 1080p auf 4k gegangen sind von MPEG-2 auf HEVC gegangen sind. Zwar hat sich auch die Bitrate von ~20Mbps auf ~30 erhöht, aber angesichts der 4x Pixelmenge mit massiv weniger Artefakten ist das erstaunlich wenig.
Auch der Schnitt läuft butterweich. Es kommt immer auf das Dateiformat an. Bei Prores und Blackmagic Raw sind 6k und 8K kein Problem, vermutlich würden sogar 12K laufen mit etwas Anpassung.
Klimabeteuerungen? Ein Macbook Air M1 verbraucht 16watt und mein Windows Rechner im Idle vermutlich 30watt.
Gerade der Bereich hat eben nichts mit Marketing zu tun hat. 99% aller Grafikkarten würden nicht einmal starten wenn ein Kabel nicht ordnungsgemäß eingesteckt ist oder Kabelstränge fehlen.
Vor allem die Grafikkarten-Hersteller sind berühmt für ihre Einsparungen, könnte man sich das anlöten einer weiteren Stromversorgung sparen, wären die Hersteller die ersten die darauf verzichten würden.
Und natürlich sind mehr Anschlüsse gleichzeitig eine bessere Stromversorgung und zwar eine die mehr Sicherheit bietet. Ein PCIe-Stromanschluss darf Maximal 150watt aufnehmen. Sollte eine Karte 150watt brauchen, dann ist es für die Karte und das Netzeil einfach sicherer diese aufzuteilen.
Eine Seilschlinge nutzt man ja auch nicht mit 95% ihrer Bruchlast sondern fügt einfach eine zweite Schlinge hinzu.
Zudem verbietet niemand auch ein 720p-Video in HVEC zu kodieren. Dann kann man eine noch höhere Qualitätsstufe bei derselben Bitrate einstellen, sehr angenehm bei Bewegung im Bild....