• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Neuer Grafikrechner - Hilfe bei Komponentenauswahl

Proprietäre... ZAHLEN! (y)

Die Quelle ist erste Sahne-> ich :cool:
Falls es irgendein Problem mit dem Faktor gibt, ruhig sachlich vortragen warum man mit dem Faktor etwas falsch machen könnte.
 
Falls es irgendein Problem mit dem Faktor gibt, ruhig sachlich vortragen warum man mit dem Faktor etwas falsch machen könnte.

Naja, das eine ist 3D-Rendering in OpenGL (und nicht OpenCL) und wird in fps gemessen und das andere ein unbekannter CPU-Index.

Warum sollte ich das irgendwie sinnvoll verrechnen können?
Da sehe ich keinen Grund für.

Wenn das von Dir ist, kannst Du Deine Herleitung ja erklären.
 
Naja, das eine ist 3D-Rendering in OpenGL (und nicht OpenCL) und wird in fps gemessen und das andere ein unbekannter CPU-Index.
Behauptest du damit, daß es spezielle OpenCL-Einheiten auf der GPU gibt die nicht genutzt werden, wenn OpenGL-Rendering stattfindet? Oder wie meinst du das?

Wenn das von Dir ist, kannst Du Deine Herleitung ja erklären.
Zigfache Vergleichs- und Gegenvergleichswerte, Vergleiche mit der (sehr groben) internen Berechnung in DxO (was meckert, wenn man Beispielweise auf einem 4.5Ghz 2500k OpenCL aktiviert und "nur" eine HD7770 verbaut ist, nur ein Beispiel von etlichen die ich aufgesammelt habe) und dazu noch Gegenvergleiche mit eben heerscharren von Cinebench R15 Ergebnissen im Netz.

Kleiner darf dieser Faktor natürlich immer werden ;) Beim größeren Wert dürfte sich die GPU kaum spürbar auswirken.
 
Oder wie meinst du das?

OpenCL ist schlicht eine komplett andere API als OpenGL und die Architekturen verhalten sich je nach Workload auch komplett anders!! :ugly:

Das eine ist eigentlich eine reine API zur 3D Beschleunigung von Inhalten (in Programmen wie LR/PS dient OGL eher ausschließlich der Beschleunigung des GUI!), das andere ist ein GPGPU Framework für heterogene Systemarchitekturen...das läuft evtl. sogar auf der gleichen Hardware, es sind im Endeffekt aber dennoch zwei komplett unterschiedliche Dinge.
Wenn du wissen willst wie schnell eine GPU unter OpenCL rechnet, musst du schon passende OpenCL Workloads benchmarken und dir nicht einfach irgendwelchen Stuss anhand willkürlich zusammengerechneter Pseudoindizies zurechtlegen die überhaupt nichts mit dem zu tun haben was dort wirklich passiert. :rolleyes:

Hier ist bspw. mal ein echter RealWorld OpenCL Benchmark...in diesem Fall sogar mit tatsächlicher Relevanz für Fotografische Belange:
http://www.pcgameshardware.de/Grafi...liste-GPU-Grafikchip-Benchmark-1174201/2/#a22
(Die GPUs sind da übrigens alle deutlich schneller als selbst die dickste CPU!)

PS: sowas wie ein CPU Limit gibt es bei OpenCL Workloads normalerweise nicht.
 
Zuletzt bearbeitet:
OpenCL ist schlicht eine komplett andere API als OpenGL
Nein?? Wow :ugly:

und die Architekturen verhalten sich je nach Workload auch komplett anders!! :ugly:
Das ist heute egal. Wer baut sich jetzt eine Workstation und nimmt eine VLIW-Karte dafür? Gibt es sowas überhaupt noch irgendwo? Sowas dürfte bei AMD seit spätestens 2013 nicht mehr angeboten werden und Nvidia war damit noch Stückchen eher dran.

Wenn du wissen willst wie schnell eine GPU unter OpenCL rechnet, musst du schon passen OpenCL Workloads Benchmarken und dir nicht einfach irgendwelchen Stuss anhand willkürlich zusammengerechneter Pseudoindizies zurechtlegen die überhaupt nichts mit dem zu tun haben was dort wirklich passiert. :rolleyes:
Weil du sowas gut beurteilen kannst? :lol:
Dann mach das mal. Verlgieche es mit dem PGP-Faktor ergo den priopriäteren :) Cinebench R15 Zahlen und Beweise damit das Gegenteil.

Hier ist bspw. mal ein RealWorld OpenCL Benchmark...
Aha... Wasn das für Schwachsinn? Es ging um das Finden von sinnvollen Paarungen und nicht darum welche Karte unter einem 6800K @4.4 GHz und 3.6Ghz Ring-Cache am meisten anschiebt.

Oder meinst du etwa, immer wenn eine Soft OpenCL anwirft, die CPU-Last auf unter 15% sinkt? Du hast wirklich so richtig Ahnung oder? :ugly:
 
Zuletzt bearbeitet:
Oder meinst du etwa, immer wenn eine Soft OpenCL anwirft, die CPU-Last auf unter 15% sinkt? Du hast wirklich so richtig Ahnung oder? :ugly:

Nochmal.
OpenCL ist ein GPGPU Framework...hast du verstanden was das ist und wofür das eigentlich benutzt wird?!!?!?!

und nimmt eine VLIW-Karte dafür?

Was hat das jetzt damit zu tun?!
Eine µArch ist durch wesentlich mehr definiert als das Befehlsformat!

Die AMD GPUs sind komplett anders aufgebaut als die von nV oder die von intel und auch zwischen den Generationen und auch zwischen den einzelnen GPUs der selben Generation der jeweiligen Hersteller gibt es teilweise extrem signifikante Unterschiede in der Auslegung.

Aha... Wasn das für Schwachsinn?

Dir ist schon klar das bei dem verlinkten OpenCL C1 Benchmark die CPU eine ziemlich untergeordnete Rolle spielt?!
Mit dem 6800K hat das überhaupt nix zu tun....du kannst auch einen älteren i5 nehmen und an dem Ergebnis wird sich nicht signifikant etwas ändern.

https://blog.phaseone.com/processing-speedup-using-opencl-in-capture-one-pro-7/

Weil du sowas gut beurteilen kannst? :lol:
Dann mach das mal. Verlgieche es mit dem PGP-Faktor ergo den priopriäteren :)

Wie wäre es wenn du erstmal belegst das dein "PGP-Bullshit-Faktor" irgendwas aussagt! :ugly:
Du bist hier derjenige der sich hier hinstellt und komplett aus der Luft gegriffenes Zeug behauptet.

Kannst ja mal schauen ob du das hiermit mal ansatzweise deckungsgleich bekommst.
https://phodograf.com/capture-one-benchmarks/

Mir ist sowieso immer noch nicht ganz klar was du hier überhaupt mit Cinebench willst...das hat mit OpenCL bisher halt mal einfach so garnix am Hut.
Wenn du schon irgendwie die generelle OpenCL tauglichkeit ableiten willst dann nehm wenigstens LuxMark oder Handbrake mit aktivem OpenCL!
 
Zuletzt bearbeitet:
Ich erkenne,daß ich für deinen Geschmack das Thema viel zu wenig fachidiotiscj angehe.
Allerdings wird das den Faktor nicht daran hindern zu funktionieren. Sorry.

Ich hab schonmal einen funktionierenden Shader programmiert. Du brauchst dich nicht noch und nöcher aufzuplustern. Ich hab das für Leute geschrieben deren Lebensinhalt nicht daraus besteht meterlange Balkendiagramme zu studieren. Leg dich wieder hin.
 
Allerdings wird das den Faktor nicht daran hindern zu funktionieren..

Bei höheren Werten bremst die Aktivierung von OpenCL das System eher ab -> Die CPU hätte es alleine schneller erledigt.

Wirklich?!

https://www.heise.de/ct/zcontent/14...40544/contentimages/LuxMark_OpenCL_jgo_IG.jpg

Beim 5960X+750Ti liegt dein "Faktor" so um die 14
Beim FX-8350+750Ti irgendwo in der Größenordnung um 7
Beim i7-4960K mit IGP gar irgendwo bei >16

http://cbscores.com/index.php?sort=cpu
 
Zuletzt bearbeitet:
Ja, wirklich. Sonst wäre, von mir mal selbst getestet, ein 2500k @4.5ghz nicht schneller ohne OpenCL, als mit auf einer HD7770. ANWENDUNG. Keine Testsoft. Dem wiedersprechen natürlich fachidiotische Tests, um diese geht es hier aber auch nicht.

Es fehlt einfach das Verständnis dafür, daß die Programme die wir hier nutzen bei Umstellung/Aktivierung von OpenCL noch lange nicht einfach die allermeisten Operationen über die GPU fahren, sondern nur die, welche die Entwickler für am sinnvollsten halten (ergo welche die CPU mit ihrer Software am meisten aufhalten).

Wenn man also genug Grips hat eine Monitoringsoft die das hierzu wichtigste anzeigt, zu beobachten, während eine Bildbearbeitung eine mehr als nur 2sekündige Operation ohne Interaktion mit dem Benutzer ausführt...

...stellt man fest, daß die CPU-Kerne quasi durchgehend voll fahren, während die GPU-Auslastung eher einem Sägezahn ähnelt.

Daher taugt LuxMark für uns genausoviel wie 3DMark dafür um zu beurteilen wie gut diese oder jene Graka im Lieblingsspiel abgeht.
Komm mit sowas klar. Willkommen im Leben.
 
Zuletzt bearbeitet:
ANWENDUNG. Keine Testsoft.
JDem wiedersprechen natürlich fachidiotische Tests, um diese geht es hier aber auch nicht.

Ich hatte weiter vorne extra schon einen Anwendungs Benchmark gepostet...aber rechnest ja doch lieber mit deinen komischen Faktoren irgendwas aus....ja was denn eigentlich nun?!

J
...stellt man fest, daß die CPU-Kerne quasi durchgehend voll fahren, während die GPU-Auslastung eher einem Sägezahn ähnelt.

http://www.jd-photography.de/beschl...ch-den-einsatz-einer-dedizierten-grafikkarte/

"Der GPU Load hingegen steigt bei mir auf 100%, was bedeutet, dass Capture One die volle zur Verfügung stehende Leistung der Grafikkarte abruft. Diese ist, wie weiter oben schon geschrieben, bei dem von mir verwendeten Modell nur begrenzt vorhanden. Es liegt also die Vermutung nahe, dass eine schnellere Grafikkarte zu einer weiteren Steigerung der Konvertierungsgeschwindigkeit führen kann."

Wir reden hier von einer alten C1 Version auf einer alten krüppeligen GTS 450 (!) auf einem i7 2700K und trotzdem schon nen zugewinn(!) von ~80%!

J
Daher taugt LuxMark für uns genausoviel wie 3DMark dafür um zu beurteilen wie gut diese oder jene Graka im Lieblingsspiel abgeht.
Komm mit sowas klar. Willkommen im Leben.

Deine Rechnerei mit irgendwelchen Cinebench (!) Ergebnissen, welche noch nichtmal ansatzweise irgendeinen OpenCL Workload enthalten(!), taugen aber zu irgendeiner wie auch immer gearteten Beurteilung einer RealWorld OpenCL (in welcher Anwendung überhaupt!?!?) Leistung?! :ugly:

Tragisch wäre nur wenn das jemand unbedarftes hier auch noch für bare Münze nimmt.
Um das benchen konkreter Anwendungsfälle kommst du leider nicht drum rum bei GPGPU Workloads...dafür ist das viel zu spezifisch!

Mehr gibt`s dazu auch wirklich nicht mehr zu sagen.
 
Zuletzt bearbeitet:
http://www.jd-photography.de/beschl...ch-den-einsatz-einer-dedizierten-grafikkarte/

"GPU Load liegt während der Konvertierung bei über 90% (steigt bis auf 100% an) und fällt nur nach Abschluss einer Konvertierung kurz auf 50% ab"
Der passt! Gilt. Erste brauchbare Info (y) Allerdings deckt sich das leider nicht mit meinen Tests mit der 10er :( sollte mein Workload so daneben gewesen sein? Gibt es sowa süberhaupt, wie falsche Workloads? :) Wenig vom bestimmten Filter genutzt? ODER, hab ich was genutzt was ich nicht sollte? -> "Konvertierung von 50 raw Files (ohne Bearbeitung)"

Die haben also den Tif-Encoder (oder den Debayer?) schick in OpenCL gecodet und das wars mit Testen? Oder wie? Gilt dann genau das gleiche für OpenCL-Gepinsel mit Lr7? Für DxO?

Tragisch wäre nur wenn das jemand unbedarftes hier auch noch für bare Münze nimmt.
Dein Problem wäre dann, es wird trotzdem funktionieren. "Tragisch" wäre das dann wohl nur für dich, wenn wer auftaucht und erzählt, daß es funktioniert hat :)
 
Zuletzt bearbeitet:
Erste brauchbare Info

Oh welch Ironie! :ugly:

Dein Problem wäre dann, es wird trotzdem funktionieren.

Nur das es jetzt schon nicht "funktioniert"! ;)

Die Kombo in dem Test kommt in deinem BS Rating sicher so auf >10...also muss "die GPU die CPU ausbremsen"...tut sie aber dann irgendwie wohl doch nicht. Strange!

So und was passiert nun bei einer CPU mit mehr und mehr Kernen?! Richtig...der CPU Score in Cinebench steigt recht linear mit der Kernzahl...der OpenGL Score stagniert nur ab nem gewissen Punkt weil derartiges 3D Rendering halt irgendwo durch einen Mainthread und die IPC der Cores limitiert wird!
Heißt das jetzt, dass ein X1950 16 Kerner durch eine GTX 980 TI, 1070 oder 1080 "ausgebremst "wird nur weil dein BS "Rating" dort schnell mal bei locker >30 liegt? :ugly:
Das möchte ich sehen...
 
Zuletzt bearbeitet:
Die Kombo in dem Test kommt in deinem BS Rating sicher so auf >10...
Jep. Und auf wieviel, wenn man die Bilder auch wirklich bearbeitet? Hast du schon wieder überlesen? Wie oft denn noch?

Na dan grab mal einen Entwicklertest raus, wo eine 1060 einen dicken Ryzen verhaut. Nein, nicht Geekbench & Co.

Mit dir kann man Sachen nur lang und schn´merzvoll durchsprechen. Da fällt mir nun nicht nur die Lust, sondern auch die Zeit zu.

Und bis die ersten Beschwerden eintrudeln ;) kannst du bestimmt noch einiges dazu schreiben.
 
WERBUNG
Zurück
Oben Unten