• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Neuer PC oder Mac Mini M1

Status
Für weitere Antworten geschlossen.
Die Argumentation für Privatanwender braucht es keinen teuren Mac, kann ich eh nicht nachvollziehen.
Im Beruf (kein kreativer Beruf) finde ich mich ja damit ab, das es Windows sein muss, aber gerade Privat für die kreativen Hobbies bin ich ja froh einen Mac nutzen zu können.

Und gerade der neue M1 Mini hat ja ein sehr gutes Preis-Leistungsverhältnis. Also ich denke damit solltest Du einen massiven Geschwindigkeitsschub haben.
Schonmal viel Spaß mit dem neuen Gerät.
 
Könnte man bitte mal dazu übergehen - generell, nicht nur du - solche Aussagen auch mit Quellen zu unterlegen.

https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/2

Der Apple M1 wird gehyped bis zum geht nicht mehr. Kauft Ihn Euch ruhig. Er mag ein Stromsparer sein, aber im brutalen Einsatz bei stark CPU-lastigen Aufgaben (Handbrake Videocodierer u.ä.) ist er eine DAMPFMASCHINE gegen einen Ryzen 5900X.

Ich habe hier zu Hause einen Lenovo Laptop mit Ryzen 4800U (das ist der Stromsparer von AMD) und schon diese CPU hängt einen Mac Mini beim Videocodieren ab. Laut Benchmark (s.o.) Cinebench Multi-Threaded 9286 (Ryzen) vs. 7833 (Mac Mini M1). Und da reden wir nicht von Ryzen 5950X, der ist laut Passmark CPU Test nochmal beinahe drei mal schon schnell wie ein 4800U (Passmark 4800U: 17300, Passmark 5950X: 46000). Und was die Rechner an Strom verbrauchen, ist doch eh vollkommen wurscht. Und dann gibt es immer noch die Option, die Hardware Encoder aus Grafikkarten einzubinden, das läuft fast alles noch nicht unter M1. Der NVIDIA Encoder für X264 und X265 ist seinerseits nochmal 5 mal so schnell wie die o.g. CPUs, da fliegt einem die Hutkrempe weg. Ich habe unlängst eine DVD von mpeg2 auf h264 mit dem NVENC umcodiert, das geschah mit 1750(!!!!) fps. Das muss man gesehen haben, um es zu begreifen.

Einzig an der Aufstellung vorne aus dem Mindfactory Shop fehlt eine Grafikkarte (ich sehe jedenfalls keine), irgendetwas muss man nehmen, onBoard gibt es da nicht.
 
Zuletzt bearbeitet:
...aber z.B. bei Darktable ist der "profiled Denoise"-Filter extrem rechenintensiv und verfielfacht mal eben die Zeit für den Export, wenn man höhere ISO-Stufen benutzt. ....

Da er nur fertige .jpgs runterrechnet, sollte eigentlich keine weitere Entrauschung stattfinden und folglich sollte das keine Bremse sein.

Ansonsten ja: bei Capture NX-D seh ich mit dem 3570K sehr deutlich dass bei entrauschen mit "hohe Qualität 2013" bei D750 NEFs alles merklich langsamer wird. Egal ob reinzoomen, weitere Anpassungen bei Belichtung, WB usw. oder eben dann beim Export - das läuft schon merklich langsamer im Vergleich zu deaktivierter Entrauschung. Seit dem WE hab ich einen Ryzen 5 3600 an anderer Stelle - den lässt das eher kalt ob mit oder ohne Entrauschung.
 
Ich habe mir jetzt erstmal das M1 bestellt und werde das einfach mal testen.

Aus meiner Sicht eine gute Entscheidung! Ich nutze den M1 jetzt seit ein paar Wochen und bin schwer begeistert.
 
Ich werde euch gerne mitteilen wie das ganze ausgeht. Ob ich begeistert bin oder es doch nur etwas Hype war.
 
Gute Entscheidung!

Du wirst ein bisschen brauchen, Dich dran zu gewöhnen. Es gibt ein paar Dinge, die sind anders. Meiner Ansicht das Verwirrenste, wenn man von Windows kommt, ist die Tatsache, dass die Menüleiste nicht am Programmfenster hängt - die ist immer oben am Bildschirmrand und wechselt, je nach aktivem Programm im Vordergrund.

Die anderen Dinge hat man schnell drauf. Ich war früher Windows-Fuchs, hab mir eigene Rechner zusammen gebaut und so. Ich dachte, dass ich da auch schnell zum Experten beim Mac werde. Bin ich nicht, einfach, weil ich es nie gebraucht habe.

Viel Erfolg!
 
Ich habe unlängst eine DVD von mpeg2 auf h264 mit dem NVENC umcodiert, das geschah mit 1750(!!!!) fps. Das muss man gesehen haben, um es zu begreifen.

Das habe ich noch nie gemacht ... und werde es auch nicht mehr.

Die ganze Video-Recodiererei ist der einzige Benchmark, der a.) MultiCore-lastig ist und b.) irrelevant für diesen Faden, wenn nicht gar für dieses ganze Forum.

Was war noch mal eine DVD?
 
Das habe ich noch nie gemacht ... und werde es auch nicht mehr.

Ein 4k Video würde ich einem M1 gar nicht erst antun wollen.

Wie gesagt, Du kannst gerne Apple Dein Geld hinterherwerfen, aber erzähle doch nicht so einen Mist, dass die CPU auch nur annähernd mit einem Boliden von AMD mithält. Das ist peinlich lächerlich.
 
https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/2

Der Apple M1 wird gehyped bis zum geht nicht mehr. Kauft Ihn Euch ruhig. Er mag ein Stromsparer sein, aber im brutalen Einsatz bei stark CPU-lastigen Aufgaben (Handbrake Videocodierer u.ä.) ist er eine DAMPFMASCHINE gegen einen Ryzen 5900X.

Ein 4k Video würde ich einem M1 gar nicht erst antun wollen.

Wie gesagt, Du kannst gerne Apple Dein Geld hinterherwerfen, aber erzähle doch nicht so einen Mist, dass die CPU auch nur annähernd mit einem Boliden von AMD mithält. Das ist peinlich lächerlich.

Deine Quelle, mit der du die Überlegenheit der AMD CPU belegen willst, ist da aber ganz anderer Meinung:

While AMD’s Zen3 still holds the leads in several workloads, we need to remind ourselves that this comes at a great cost in power consumption in the +49W range while the Apple M1 here is using 7-8W total device active power.
...
The performance of the new M1 in this “maximum performance” design with a small fan is outstandingly good. The M1 undisputedly outperforms the core performance of everything Intel has to offer, and battles it with AMD’s new Zen3, winning some, losing some. And in the mobile space in particular, there doesn’t seem to be an equivalent in either ST or MT performance – at least within the same power budgets.

[...] Apple achieving this in-house with their own design is a paradigm shift, and in the future will allow them to achieve a certain level of software-hardware vertical integration that just hasn’t been seen before and isn’t achieved yet by anybody else.
 
Die ganze Video-Recodiererei ist der einzige Benchmark, der a.) MultiCore-lastig ist

Mindestens LR und DXO PL4 skalieren unter Windows aktuell recht Problemlos bis 12C/24T...von wegen der "einzige Benchmark". ;)

Und wieso die Encoderleistung irrelevant für das Forum an sich ist, wo doch jede neue Systemkamera seit Jahren, unter anderem auch hier, ständig daran gemessen wird ob und wie und wie gut sie 4K kann oder auch nicht find ich dann schon etwas komisch. :angel:

Davon abgesehen hat der M1 eh nen ziemlich guten HW-Encoder.

Deine Quelle, mit der du die Überlegenheit der AMD CPU belegen willst, ist da aber ganz anderer Meinung:

Naja nen bisschen genauer Lesen wäre schon gut...das gilt alles auch nur für 1T Leistung...davon hat der aber nur 4 und dann noch 4 kleine die deutlich schwächer sind.
Nen kaufbarer Zen3 hat nur aktuell gleich bis 16 "big" cores die auf dem gleichen Level wie die Firestorm Cores liegen....plus SMT...also 32T statt 8T. :ugly:

Das ist davon abgesehen doch alles nen Äpfel-Birnen Vergleich.
Es sind ganz andere CPUs für einen ganz anderen Einsatzzweck, weswegen abseits irgendwelcher theoretischer Betrachtungen zu den Kernen selbst ein Vergleich der bislang verfügbaren M1 und Zen3 CPUs eigentlich ziemlich müßig ist.
Grade was auch die Leistungsaufnahme angeht...das IOD und das Infinity Fabric gibts aus energetischer Sicht auf den Desktop Ryzen nicht "umsonst".

Achso...
Hier kannst BTW gerne mal die M1 suchen:

https://docs.google.com/spreadsheets/d/1Yx-3n_8D3OreyVwQLA-RVqiQCAgNdXDkxScpXTur1Gs/edit#gid=0

Und was sieht man...Tada...das Ding liegt auf einem Level mit nem 15W 6C/6T(!) Zen2 (von theoretisch vorhandenen 8C/16T!) in ner Anwendung die sehr gut bis 12C skaliert... (y)
Selbst wenn man nen Rosetta Malus von 1/3 reinrechnet ist der CPU Part in Summe nur halb so beeindruckend wie er streckenweise hochgejubelt wird.

Er ist für ein 15W Chip hervorragend, vor allem die GPU(!), bleibt aber immer noch ein 15W Chip. Egal wie man es dreht und wendet. Dazu kommt dann noch der Fertigungsvorteil.

BTW die 15W Zen3 APUs kommen zudem sowieso erst langsam auf den Markt. Und die haben nicht nur den schnelleren Core sondern auch nicht das fette IOD mit dem MCM Infinity Fabric der Desktop Ryzen das in Summe doch einiges an Strom schluckt, und zusätzlich auch ein stark verbessertes Powermanagement.
Es bleibt jedenfalls erstmal durchaus noch spannend.
 
Zuletzt bearbeitet:
Ein 4k Video würde ich einem M1 gar nicht erst antun wollen.

Wie gesagt, Du kannst gerne Apple Dein Geld hinterherwerfen, aber erzähle doch nicht so einen Mist, dass die CPU auch nur annähernd mit einem Boliden von AMD mithält. Das ist peinlich lächerlich.

Ganz schön viel Mist der da erzählt wird, schon fast peinlich lächerlich :lol:

Mein 1800€ Macbook Pro M1 mit 16GB rendert meine 4K Videos schneller als mein 3000€ Ryzen 3800x System mit 64GB RAM.

Und so ziemlich alle Tests im Internet sagen das selbe...

Sony A7SIII Videos kann ich auf dem Windowssystem nicht mal flüssig bearbeiten, der M1 wird dabei nichtmal warm...
 
Kommt immer alles drauf an - wie so oft :rolleyes:

Nachdem was ich darüber bisher lesen konnte:
Der M1 ist schnell wenn der eingebaute Hardware-Encoder verwendet werden kann. Braucht man einen anderen Encoder muss die Software das erledigen und dann läuft alles auf der CPU - dann wird auch der M1 keine Wunder vollbringen.
Das ist in der PC-Welt natürlich nicht anders - kann ein Hardware-Encoder einer integrierten oder dedizierten Grafikkarte verwendet werden, läuft das weitaus schneller als im Vergleich zu einem Software-Encoder.

Was hast du in deinem System drin, dass du mit einem 3800X auf 3000€ kommst?!?
 
Kommt immer alles drauf an - wie so oft :rolleyes:

Nachdem was ich darüber bisher lesen konnte:
Der M1 ist schnell wenn der eingebaute Hardware-Encoder verwendet werden kann. Braucht man einen anderen Encoder muss die Software das erledigen und dann läuft alles auf der CPU - dann wird auch der M1 keine Wunder vollbringen.
Das ist in der PC-Welt natürlich nicht anders - kann ein Hardware-Encoder einer integrierten oder dedizierten Grafikkarte verwendet werden, läuft das weitaus schneller als im Vergleich zu einem Software-Encoder.

Genauso ist es (y)

Videos aus der A7SIII mit Davinci Resolve Studio zu editieren ist mit meinem Ryzen + RTX 2060 keinerlei Problem, läuft absolut flüssig, von der CPU werden durchschnittlich 1-2 Kerne dabei voll ausgelastet von 8 Kernen.

Voraussetzung ist die richtige Software zu wählen und die Nvidia Studio Treiber, nicht die Gaming Treiber.
 
Wie gesagt, Du kannst gerne Apple Dein Geld hinterherwerfen, aber erzähle doch nicht so einen Mist, dass die CPU auch nur annähernd mit einem Boliden von AMD mithält. Das ist peinlich lächerlich.

https://www.anandtech.com/show/16252/mac-mini-apple-m1-tested/2

Der Apple M1 wird gehyped bis zum geht nicht mehr. Kauft Ihn Euch ruhig. Er mag ein Stromsparer sein, aber im brutalen Einsatz bei stark CPU-lastigen Aufgaben (Handbrake Videocodierer u.ä.) ist er eine DAMPFMASCHINE gegen einen Ryzen 5900X.

Hat den wirklich jemand behauptet das der von Apple vorgestellte LowEnd (!) Chip der für den Einsatz im lüfterlosen (!) LowEnd-Notebook gedacht ist gegen einen HighEnd-Chip mit rund 10-facher Leistungsaufnahme und 3x sovielen Kernen anzutreten? Das diese Aussage, selbst wenn sie denn kam, unsinnig ist muss doch völlig klar sein.

Das ändert freilich nichts daran das die SingleCore-Performance" des M1 den besten Chips von Intel und AMD mehr als ebenbürtig ist. Man wird sehen wie sich das weiter entwickelt wenn Apple den M1 hoch skaliert und irgendwann dieses Jahr dann 8 oder noch mehr "Performance"-Kerne reinpackt statt der jetzigen 4 Kerne.
 
Ganz schön viel Mist der da erzählt wird, schon fast peinlich lächerlich :lol:

Mein 1800€ Macbook Pro M1 mit 16GB rendert meine 4K Videos schneller als mein 3000€ Ryzen 3800x System mit 64GB RAM.

Ja...da hast du recht. :rolleyes:

BTW HW Encoder oder SW Encoder? :ugly:
Äpfel oder Birnen? Was darfs sein?

Ich kann dir garantieren das der M1 mit nem SW Encoder definitiv nicht schneller als ein 3800X ist. :angel:
Und HW Encoder sollte man dann auch schon direkt vergleichen. Und nicht einfach alles wild durcheinander mischen nur weil Apple solche Details in ihren Marketingfolien gerne mal verschweigt.

Man wird sehen wie sich das weiter entwickelt wenn Apple den M1 hoch skaliert und irgendwann dieses Jahr dann 8 oder noch mehr "Performance"-Kerne reinpackt statt der jetzigen 4 Kerne.

Wird man sehen müssen...dann wird die CPU aber freilich auch nicht mehr "nur" 15W ziehen, sondern bei der 4 fachen Kernzahl auch locker mindestens 4 mal so viel unter Volllast. :)

Wenn die den Rest der CPU noch anpassen müssen (eine entsprechend Anzahl Kerne zu füttern ist mittlerweile aus energetischer Sicht mit das größte Problem, u.a. deswegen sind die Desktop Ryzen vom Grundverbrauch auch soviel hungriger als alleine schon die Zen APUs!) würde ich eher vermuten, dass die bei nem 16+4C auch rund bei 70-90W landen könnten...und dann ist das immer noch "nur" eine 20T CPU.
Und wie hoch die Kerne im Takt überhaupt gehen ohne das der Verbrauch hoch geht muss man auch noch sehen, bisher gibt es das ganze Apple Silicon ja nur als Low-Power Variante.

(Ein Zen3 Core selbst skaliert btw. bis rund 15W+...abzüglich des ganzen IOD und IF Kladderradatsches! ;))
 
Zuletzt bearbeitet:
Ja...da hast du recht. :rolleyes:

BTW HW Encoder oder SW Encoder? :ugly:
Äpfel oder Birnen? Was darfs sein?

Ich kann dir garantieren das der M1 mit nem SW Encoder definitiv nicht schneller als ein 3800X ist. :angel:
Und HW Encoder sollte man dann auch schon direkt vergleichen. Und nicht einfach wild nur weil man ein Apple Marketingopfer ist alles wild durcheinander mischen.
Was genau willst du denn damit sagen? Wenn der M1 für verschiedene, sehr häufig auftretende Aufgaben passende Hardware En/De-Coder mitbringt ist das für den Endanwender doch optimal. Zu argumentieren das er dieselbe Aufgabe in Software ja viel langsamer erledigen würde (wie in dem Fall der Ryzen 3800) macht 0,0 Sinn.
 
Zu argumentieren das er dieselbe Aufgabe in Software ja viel langsamer erledigen würde (wie in dem Fall der Ryzen 3800) macht 0,0 Sinn.

Ein System mit HW Encoder testen...das andere aber nicht macht auch 0,0 Sinn. :rolleyes: Du testest da nicht die CPU, sondern irgendwelche ASICs/SIPs und separate Funktionsblöcke.
Jede GPU hat sowas BTW seit locker 10 Jahren an Board und ein Ryzen System das ohne GPU läuft würd ich gerne mal sehen...
Das muss man dann halt auch nur mal nutzen und nicht einfach absurde Quervergleiche anstellen.

NVENC, QuickSync und VCE etc. sind jetzt auch keine neue Erfindung.

Das Apple in ihrem Ökosystem und insbesondere mit ihrer eigenen Software generell voll auf Spezialeinheiten setzt, vor allem bei Apple Silicon, wo man das woanders tw. explizit auswählen muss sollte langsam eigentlich mal bekannt sein.
Aber wenn man halt nur auf die Apple Vergleiche schaut die sowas gerne mal unterschlagen um ihr Marketing Bullshitbingo vollzumachen, ist es kein Wunder wenn man auf so schräge vergleiche kommt.

Davon abgesehen das die Qualität der SW Encoder bei gleicher Bitrate tw. signifikant höher und Plattformübergreifend zudem deutlich konsistenter ist! Was für eine Vergleichbarkeit eigentlich schonmal eine ziemliche Grundvoraussetzung ist.
Am Ende vergleicht man dann einfach nur Irgendwas mit Irgendwas, was halt zufällig was ähnliches macht.
Das kann man j4f gerne tun, sollte sich aber schon bewusst sein das man dann einfach Äpfel mit Birnen vergleicht.
 
Zuletzt bearbeitet:
Ein System mit HW Encoder testen...das andere aber nicht macht auch 0,0 Sinn. :rolleyes: Du testes da nicht die CPU, sondern irgendwelche ASICs und separate Funktionsblöcke.
Jede GPU hat sowas BTW seit locker 10 Jahren an Board und ein Ryzen System das ohne GPU läuft würd ich gerne mal sehen...

Das würde bedeuten eine schlanke, stromsparende und teilweise lüfterlos betreibbare CPU nicht nur gegen eine CPU mit der vielfachen Stromaufnahme zu testen, sondern dort ZUSÄTZLICH noch eine Grafikkarte mit dreistelliger Watt-Zahl obendrauf zu packen. Und dieser Vergleich ist dann nicht schief sondern irgendwie realistisch?

Nochmal: Der M1 in seiner jetzigen Form ist eine LowEnd-Lösung für die kleinsten und billigsten Rechner die Apple herstellt. Da drunter wird's, nach allem was man bisher weis, nix geben. Das hier die ganze Zeit diskutiert wird wie und auf welche Art und Weise man mit den HighEnd-Desktop CPUs der anderen Hersteller vergleichen kann spricht doch Bände.
 
Und dieser Vergleich ist dann nicht schief sondern irgendwie realistisch?

Ist er.
Weil du so dann nicht die CPU testest sondern einen extra Funktionsblock...der hat mit dem CPU Teil absolut nix zu tun, außer das er zufällig im selben Die sitzt.
Ein SoC ist keine CPU sondern ein System on a Chip. Mit Betonung auf System.
Schief wird es vor allem dann wenn du dann ne CPU ohne gesonderte FF HW mit nem extra SIP vergleichst und das einfach alles in einen Topf wirfst nur weils grade irgendwie genehm ist.

Nenne mir zudem bitte mal eine einzige CPU die generell ohne GPU funktioniert. :rolleyes:
Jede GPU-IP hat sowas mittlerweile eigentlich integriert...egal welche.

Diese HW Encoder sind zudem immer extra Funktionsblöcke denen es egal ist wo sie sitzen.
Da takten die meisten GPUs BTW nichtmal wirklich für hoch wenn man die nutzt weil das genau wie bei Apple Silicon einfach gesonderte Spezialeinheiten sind. :ugly: (bei meiner 300W Karte nimmt der max. 10W wenn der läuft)

Zudem weichen die Qualitativ auch noch extremst stark voneinander und von SW Encodern ab, da es halt separate und spezialisierte FF Einheiten sind. Was Quervergleiche insbesondere vs. SW Encoder generell sehr sehr schwierig macht.

Und nur weil das eine ein SIP in nem SoC ist ist er ein "guter" und auf separatem Silizium in Form einer GPU oder sonstigen Extrakarte dann was "unrealistisches"?! (PS: Apple hat da sogar nen extra Beschleuniger für ProRES im Angebot! https://www.apple.com/de/shop/product/MW682ZM/A/apple-afterburner-karte :lol:)
QuickSync ist BTW sogar ausschließlich Bestandteil eines (beinahe) SoCs... AMDs VCE gibt es auch als 1:1 Kopie auch in den APUs (die sogar vollwertige SoCs sind)...sind die dann plötzlich wieder genehm auch wenn es vorallem letzteren als quasi Copy-Paste Bestandteil auch in ner Extra GPU gibt?

Das hier die ganze Zeit diskutiert wird wie und auf welche Art und Weise man mit den HighEnd-Desktop CPUs der anderen Hersteller vergleichen kann spricht doch Bände.

Ja das spricht wirklich Bände...wie sehr manche dem Apple Marketing hörig sind ohne das auch nur ansatzweise mal technisch zu hinterfragen.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten