• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Mai 2024.
    Thema: "Diagonale"

    Nur noch bis zum 31.05.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Der große Capture One Infothread

Ich bitte darum meine Texte genau zu lesen und nicht zu interpretieren. Ich habe NICHT die Behauptung aufgestellt, dass 4GB oder mehr nötig wären. Ich habe lediglich gesagt, dass 4GB mittlerweile der Standard sind und in nahezu jeder neuen Consumerkarte verbaut werden.

Das ist falsch, schau dir mal gängige Notebooks und Desktops von Apple, Lenovo und HP an. Der Trend geht zur Onboard Grafik, und die reicht ja auch mehr als dicke für Aperture, Capture One etc. Grad mal über die MBP und Lenovo T und X Serie gescannt, kein einziges Modell mit 4 GB. Entweder Intel HD Grafik oder 1-2 GB Karte.

Back to Topic:

Hat jemand einen iMac 5k mit Capture in Betrieb?

Ich lese ziemliche Horrorgeschichten was die Performance angeht und habe kein Statement seitens Capture One dazu gefunden. Übertriebes Forum Gelaber oder praxisrelevantes Problem?

mfg
cane
 
Häh :confused:, sehe ich das dann richtig, dass die AMD Radeon R9 M370X aus dem aktuellen MacBook Pro 15" nicht von CaptureOne 8 hinsichtlich OpenCL unterstützt wird?
 
Danke für den Link! Na toll, habe eine nicht unterstützte im Rechner, Geforce GTX 560Ti. Aber nur für CO werde ich sicher nicht tauschen, bleibt Open CL eben deaktiviert, wie bisher!:lol:
 
Ich würde evtl. mal direkt den Support von PO anschreiben. Die Liste wird die Modelle zeigen, welche wohl von PO explizit getestet wurden. Das hei0t nicht automatisch, dass alle nicht aufgeführten Karten nicht funktionieren.
 
Thema im C1-Forum folgt, sollte eine ATI/AMD Karte nochmal mehr Performance bringen.

Ja ist richtig, weil die AMD inzwischen deutlich besser sind was OpenCL angeht.
U.a deswegen sind jetzt etliche Lightroom User "traurig" weil Lightroom OpenGL nutzt und hier hat nVidia die Nase vorn.

Das ist falsch, schau dir mal gängige Notebooks und Desktops von Apple, Lenovo und HP an.

ich glaube an der Stelle verwechselst Du aber "professionelles" Arbeiten wo sich kleine 10 Sec (Ist einfach so eine Zahl) pro Bild Mal Anzahl der Bilder die Man ver und bearbeiten muss mit deinem geklimpe zu Hause. (Hier die letzte Worte bitte nicht auf die Goldwaage legen - mir geht es um die Darstellung, dass zu Hause man eben "Zeit ohne Ende hat").
Übrigens ich wusste kein einziges Studio welches die Bilder mit irgendwelchen Laptops bearbeitet. Die mobile Technik ist dafür eh immer zu schwach.

Und wenn es so wäre wie Du es darstellen willst, dann frage ich mich warum selbst Apple immer von einem Mac mini abgeraten hat wenn es um Aperture ging. Weil die Intel GPU einfach eine "0" ist.
Das hatte ich hier vor einiger Zeit mit Zahlen belegt und man muss nicht jeden überzeugen. Wenn Du ohne oder mit Intel GPU glücklich bist - perfekt :D
 
ich glaube an der Stelle verwechselst Du aber "professionelles" Arbeiten wo sich kleine 10 Sec (Ist einfach so eine Zahl) pro Bild Mal Anzahl der Bilder die Man ver und bearbeiten muss mit deinem geklimpe zu Hause. (Hier die letzte Worte bitte nicht auf die Goldwaage legen - mir geht es um die Darstellung, dass zu Hause man eben "Zeit ohne Ende hat").

Du hast es noch immer nicht verstanden:

Der Speicher wird von C1 schlicht nicht genutzt. Es ist egal ob Du 1 GB oder 8 GB hast. Punkt.


mfg
cane
 
Du hast es noch immer nicht verstanden:

Der Speicher wird von C1 schlicht nicht genutzt. Es ist egal ob Du 1 GB oder 8 GB hast. Punkt.

An sich ist mir das inzwischen einfach zu blöd.
Entweder reden wir von unterschiedlichen Sachen oder ich weiß es nicht mehr.

- Ich rede immer noch davon, dass eine gute GPU Performancegewinnend ist wenn die Anwendungen es auch nutzen
Ob jetzt 4GB wirklich "Standard" sind, weiß ich nicht. so nach einem simplen Blick hier wurde ich sagen, die meisten Karten haben zwischen 2-4GB RAM.

Das es keine Unterschiede gibt zwischen 1-8 GB ist falsch. Oder anders ausgedruckt - Du kannst ja gerne auch mit C1 sprechen. Die sagen nämlich "wir bewegen uns so fern es geht bis ~2GB". Das heißt, lässt Du noch eine 2-te oder 3-te Anwendung laufen die etwas mit Deinen Bildern macht, schon brauchst Du liebend gerne 4GB. Und wie ich schon vorher schrieb, als ich mit C1 angefangen habe, waren die 512MB meiner nVidia in meinem MBP ausreichend. Ja heute nicht mehr, weil Phase One sagt - unter 1GB fangen wir gar nicht an, auch wenn der Chip an sich unterstützt wird.
Man kann selbstverständlich immer so tun und darstellen, als ob auf einem Rechner gerade nur eine einzige Anwendung laufen wurde oder aber an der Realität nah wo man weiß es laufen einfach noch andere Sachen.

Damit ist für mich dieses Thema beendet (y)
 
In der Realität der meisten Anwender laufen aber eben nur ein oder zwei Programme die _gleichzeitig_ GPU Memory allokieren, fast alle Usecases sind theoretisch und praxisirrelevant.

Daher reicht ein schnödes MBA oder MBP mit SSD, da Capture One nichtmal die 1536 MB einer Intel HD Graphics 6000 zur Hälfte ausnutzt wenn man Bilder exportiert bis der Arzt kommt, guck die die Peaks mal an:

Bildschirmfoto 2015-10-30 um 13.07.02

Ja, für Spezialanforderungen kann viel GPU Speicher relevant sein, für den Otto Normal Capture One Benutzer aber definitiv nicht und der sollte sein Geld daher viel besser in schnellere CPU und mehr SSD anlegen, davon hat er einen realen und ständigen Vorteil in fast allen Situationen.

Damit sind wir uns dann denke ich einig.

mfg
cane
 
und warum schreibt Phaseone sowas? Das sind doch Karten mit mehr VRam. Ist das vllt. in die Zukunft gedacht?

Das Thema Imac mit 5K würde mich auch interessieren.
 

Anhänge

  • Bildschirmfoto 2015-10-30 um 13.55.28.png
    Exif-Daten
    Bildschirmfoto 2015-10-30 um 13.55.28.png
    26 KB · Aufrufe: 19
und warum schreibt Phaseone sowas? Das sind doch Karten mit mehr VRam. Ist das vllt. in die Zukunft gedacht?

Guten Frage Lutz. Die Empfehlung von Phase One geht aus meiner Sicht komplett an der Realität vorbei, denn die NVIDIA Karten sind insgesamt bei OpenCL Anwendungen deutlich weniger performant als die Pendants von AMD. Auch beim VRAM kann ich nur den Kopf schütteln, mit noch keinem Anwendungsszenario konnte ich C1 dazu bringen, mehr als 1 Gb in Anspruch zu nehmen. Aber insgesamt empfehlen Hersteller ja immer die maximale Ausbaustufe aller Komponenten, denn damit fällt die eigene schwache Performance und schlechte Skalierung nicht so sehr auf.

Viele Grüße,
Jörg
 
und warum schreibt Phaseone sowas? Das sind doch Karten mit mehr VRam. Ist das vllt. in die Zukunft gedacht?

Ihr geht hier in Eurer Diskussion irrtümlicherweise davon aus, dass die Größe des RAM auf der Grafikkarte deren Leistungsfähigkeit unter C1 entscheidend beeinflusst. das ist aber offensichtlich nicht der Fall, wie bereits gezeigt wurde. Entscheidend ist vielmehr - soweit ich das recherchieren konnte - die Anzahl der Recheneinheiten auf der Grafikkarte.
 
Ihr geht hier in Eurer Diskussion irrtümlicherweise davon aus, dass die Größe des RAM auf der Grafikkarte deren Leistungsfähigkeit unter C1 entscheidend beeinflusst. das ist aber offensichtlich nicht der Fall, wie bereits gezeigt wurde. Entscheidend ist vielmehr - soweit ich das recherchieren konnte - die Anzahl der Recheneinheiten auf der Grafikkarte.

Das ist korrekt. So ab 1-2 GiB VRAM profitiert C1 8 nicht von mehr VRAM; je größer die Raw-Dateien, desto mehr VRAM braucht’s. Aber 2 GiB reichen in der Regel auch für IQ3-Dateien aus.

Es hängt allerdings auch davon ab, wie gut die OpenCL-Unterstützung des OS/Treibers ausgefallen ist. Manche sind da »sparsamer«, andere »verschwenderischer«, was sich dann direkt auf den OpenCL-Kernel für C1 sowie die Stabilität (Bildfehler? Abstürze?) auswirkt.

Aber: je mehr Shader/Recheneinheiten eine GPU anbietet, desto besser. Zumindest dann, wenn der Videospeicher schon mal »groß genug« ist.

Cheers,
-Sascha
 
Hallo Sascha,

wie gut ist denn deiner Einschätzung nach der OpenCL-Benchmark, den C1 vor dem Programmstart berechnet, dazu geeignet, die gefühlte Schwuppdizität des Programms auf dem jeweiligen System abzuschätzen?
 
Es ist zu erwarten, daß sie bei dem Bench der auf der GPU und dann der CPU läuft, dem Benutzer keine gewonnene auch nur 1 Sekunde durch Fehleinschätzung verwehren werden.
Davon ab kann die CPU während des Imports auch mal bussiger sein. Die GPU eher nicht, da man selten kurz 3D-zockt oder in Cheetah3D bastelt, während C1 100 Bilder importiert...

Oder, anders ausgedrückt, die PhaseOne Coder das schlechter drauf haben als DxO.
 
Es ist zu erwarten, daß sie bei dem Bench der auf der GPU und dann der CPU läuft, dem Benutzer keine gewonnene auch nur 1 Sekunde durch Fehleinschätzung verwehren werden.
Davon ab kann die CPU während des Imports auch mal bussiger sein. Die GPU eher nicht, da man selten kurz 3D-zockt oder in Cheetah3D bastelt, während C1 100 Bilder importiert...

Oder, anders ausgedrückt, die PhaseOne Coder das schlechter drauf haben als DxO.

und was bedeutet das auf Hochdeutsch? Vor allem für die, die weder 3d zocken noch mit Cheetah (wer od. was?) was zu tun haben
 
Danke für Deine Antwort, PGP. Sie geht aber an meiner Frage vorbei.

Meines Wissens dient der OpenCL-Benchmark von C1 dazu, über die Nutzung von OpenCL zu entscheiden (die Einstellungen sind ja Auto/Off). OpenCL wird nur genutzt, wenn die GPU schnell genug ist. Bei dieser Berechnung wird auch ein Benchmark ausgeworfen, und den Wert finde ich sehr interessant.

Meine Frage ist, was diese Zahl über die "Schwuppdizität" von C1 auf dem jeweiligen System aussagt. Welche praktische Bedeutung hat dieser Wert? Hat er überhaupt eine solche Bedeutung? Wenn ja, in welchen Bereichen des Programms?
 
Es ist zu erwarten, daß sie bei dem Bench der auf der GPU und dann der CPU läuft, dem Benutzer keine gewonnene auch nur 1 Sekunde durch Fehleinschätzung verwehren werden.
Davon ab kann die CPU während des Imports auch mal bussiger sein. Die GPU eher nicht, da man selten kurz 3D-zockt oder in Cheetah3D bastelt, während C1 100 Bilder importiert...

Oder, anders ausgedrückt, die PhaseOne Coder das schlechter drauf haben als DxO.

Was möchtest Du uns mitteilen? :confused:

mfg
cane
 
WERBUNG
Zurück
Oben Unten