• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Pest & Cholera tun sich zusammen (aka Skylum & Photolemur)

Gast_488374

Guest
Zuletzt bearbeitet:
AW: Pest & Cholera zun sich zusammen (aka Skylum & Photolemur)

Welch toller Thread Titel. :(

Hast Du ausser diesem Titel irgend welche sachlichen Informationen die Du uns mitteilen möchtest?
 
AW: Pest & Cholera zun sich zusammen (aka Skylum & Photolemur)

Hm, die Buzzwords aus dem Bullshit Bingo deuten typischerweise darauf hin, dass die Prozessierung (Bildanalyse der eigenen Fotos) auf den Rechnern des Anbieters läuft, nachdem lokal Eigenschaften festgestellt wurden, die dann übertragen werden.


Der Titel scheint mir für solche Big Brother Szenarien eher schwach gewählt.


Mal abgesehen davon, dass das im Zusammenahng mit "solve their biggest frustrations with the complicated software" nach dem Ziel "grüner Modus" für die ganz simplen Naturen riecht.
Tolle Sache für einen Rawkonverter. :ugly:



Skylum und Photlemur wollen also den Konzertflügel mit "einer Taste für alles" bauen. Das löst auch die größten Frustrationen mit komplizierten Instrumenten. :lol:
 
Was für ein selten dämlicher Titel! Ich nutze neben LR CC, PS CC, On1, DxO Photolab und Exposure 3 auch mal die Skylum Software. Als Plug-in für PS finde ich es gar nicht schlecht. Ich habe auch keine der hier oft genannten Probleme.
Photolemur habe ich mir aus Blödsinn für nen 20er gekauft. Die Software WILL gar kein Programm zur RAW Entwicklung, oder ein Editor sein! Das ist eine ganz simple 1-Klick Lösung für Leute, die mal eben schnell (!) ein Bild aufbrezeln wollen. Und diesen Job macht Photolemur ziemlich gut. Die einzige Möglichkeit zum Eingriff bietet ein Regler, welcher die Intensität der Bildmanipulation regelt. Dass das Ding dabei auch RAW Dateien entwickeln kann ist nur ein Nebeneffekt. Erstaunlicherweise kann Photolemur auch mit den RAF Dateien meiner Fuji x100f umgehen! Nimm das, Photolab! :lol:
Für die Zielgruppe ist es sicherlich ein nettes Programm.
Was mir allerdings auf den Nerv geht, ist der ab und zu hier auftauchende arrogante, abwertende Ton einiger "Spezialisten", die meinen, nur die von ihnen genutzte Software würde höchsten Ansprüchen genügen! :mad:
Beste Grüße
Stefan

@Beholder3 Die Behauptung, dass Photolemur die Bildanalyse auf den Rechnern des Anbieters durchführt ist Blödsinn! Das Programm funktioniert auch offline!
 
Zuletzt bearbeitet:
@Beholder3 Die Behauptung, dass Photolemur die Bildanalyse auf den Rechnern des Anbieters durchführt ist Blödsinn! Das Programm funktioniert auch offline!


Man muss halt auch schon mal den Links folgen, bevor man sich zu einem Urteil wie "Blödsinn" hinreißen lässt:

We’re also planning to make a cloud solution for Photolemur app. The goal is to help high-volume users enhance images as a batch process. To date, the Skylum AI Lab is testing the following solution which are going to be implemented:

und

The new realization of the app is going to be a cloud solution

sind doch wohl ziemlich deutlich. Und zeigen mir, dass meine recht frisch gekaufte Skylum-Version auch gleich die letzte war und dass ich keine weitere Zeit investieren werde, mich mit dem Programm auseinanderzusetzen.
Cloud und Mieten sind für mich jeweils ein KO-Kriterium.
 
Wä? :ugly: Steht eine Preisexplosion für Computerkomponenten bevor oder wird demnächst Bildbearbeitung via Internet und künstlicher Inkompetenz Intelligenz verpflichtend?
 
Es ist ein Verzicht auf Bildbearbeitung, wenn man ein bestimmtes Programm nicht verwendet?
Ist das nicht sehr weit hergeholt?
 
Das kann aber nun prinzipiell auch alles lokal laufen...dann macht ne große GPU als Co-Prozessor dann auch in dem Umfeld mal richtig Sinn. :p

Schon für knapp über 500€ bekommt man ja durchaus heute schon >10 Single-Precision TFlops(!) die bisher halt in Bildbearbeitungsprogrammen nahezu komplett brach liegen...zumal die Chips (neben dem normalen Rasterizing) für solche Dinge eigentlich grade zu prädestiniert sind! (deswegen setzt sich GPGPU im Professionellen Umfeld ja auch immer mehr durch...das läuft in der Cloud ja auch meistens auf GPU Clustern)

Wenn überhaupt ist der Trend solche Berechnungen in der Cloud laufen zu lassen in der Beziehung das reine bestreben einen Walled-Garden zu schaffen und den Konsumenten da defakto drin einzusperren.
 
Zuletzt bearbeitet:
Das kann aber nun prinzipiell auch alles lokal laufen...dann macht ne große GPU als Co-Prozessor dann auch in dem Umfeld mal richtig Sinn. :p

Schon für knapp über 500€ bekommt man ja durchaus >10 Single-Precision TFlops die bisher halt in Bildbearbeitungsprogrammen weitgehend brach liegen...zumal die Chips (neben dem normalen Rasterizing) für solche Dinge eigentlich gradezu prädestiniert sind! (deswegen setzt sich GPGPU im Professionellen Umfeld ja auch immer mehr durch...das läuft in der Cloud ja auch meistens auf GPU Clustern)

Der Teil, dass es noch dauert, bis man die notwendige Rechenleistung (billig) lokal verfuegbar hat, steht durchaus absichtlich so da. Ja, man braucht nur die Inference und kann das lernen in der Cloud machen. Trotzdem.

Wenn überhaupt ist der Trend solche Berechnungen in der Cloud laufen zu lassen in der Beziehung das reine bestreben einen Walled-Garden zu schaffen und den Konsumenten da defakto drin einzusperren.

Nein, es geht derzeit (und in absehbarer Zeit) wirklich nicht anders.
 
Nein, es geht derzeit (und in absehbarer Zeit) wirklich nicht anders.

Natürlich ginge es auch anders. Als Endkunde will ich doch eh kein komplett grundlegendes anlernen eines Neuronalen Netzes betreiben, sondern eine definierte Funktion nutzen...und die steht ja eh ganz am Ende.

Ob ich jetzt das Zeug dann auf einer Instinct laufen lasse oder einer normalen Vega ist doch erstmal relativ wurscht. Und im Zweifel ginge selbst das...es bräuchte halt nur etwas länger.

Du kannst mir doch nicht erzählen wollen, dass das bisschen AI, dass man für die üblichen Bildbearbeitungsspielereien bräuchte, unbedingt auf nen kompletten HPC Cluster laufen lassen muss.
Denn dann verstehe ich nicht wieso es diese ganzen AI Frameworks wie TensorFlow usw auch für Mobile SoCs mit ihrem komplett limitierten Powerbudget überhaupt gibt...die kommen nämlich bei weitem nicht auf die Leistung eines modernen Desktops. Wie gesagt...wir sind ja nun langsam in Zeiten der Mainstream 8 Kern CPUs und GPUs mit mehreren TFlops Half- und Single-Precision bieten angekommen, wovon außer in Spielen(!) idR bei normaler Endkundensoftware nur ein absoluter Bruchteil genutzt wird.

Zumal sich in der "Cloud" da ja dann auch wieder X Kunden die selbe Infrastruktur teilen.
Der einzige Vorteil einer kompletten Cloud Lösung besteht doch am Ende nur darin, nen Thin-Client zu nutzen können und das nicht (in Summe teure) Hardware überall verteilt rumsteht die zu 99% nur rum-idled....dafür gibt man halt komplett die Hoheit über seine Daten ab und belastet das IP-Netz noch stärker als eh schon.
 
Zuletzt bearbeitet:
Ich kann durchaus verstehen, dass ihr euch mit eurer Fachsimpelei von einem zum nächsten Höhepunkt schaukelt, aber warum es in den nächsten Jahren
lokal nicht genug Rechenleistung für Bildbearbeitung geben soll habt ihr immer noch nicht erklärt.
 
Natürlich ginge es auch anders. Als Endkunde will ich doch eh kein komplett grundlegendes anlernen eines Neuronalen Netzes betreiben, sondern eine definierte Funktion nutzen...und die steht ja eh ganz am Ende.

Ja, wie schon geschrieben reicht meist die 'Inference', also das anwenden des 'gelernten'. Wofuer man zwar weniger Rechenpower braucht, dafuer aber dauernden Datenaustausch mit 'der Cloud', die trainiert wird. Da ist es i.A. sinnvoller (und schneller), nur die Bilder und dann die Ergebnisse hin- und herzuschicken.

Ob ich jetzt das Zeug dann auf einer Instinct laufen lasse oder einer normalen Vega ist doch erstmal relativ wurscht. Und im Zweifel ginge selbst das...es bräuchte halt nur etwas länger.

Und genau um 'braucht es etwas laenger' geht es eben, das akzeptieren die Leute nunmal nicht wenn sie bisher (annaehernd ;) Echtzeit gewohnt sind.

Du kannst mir doch nicht erzählen wollen, dass das bisschen AI, dass man für die üblichen Bildbearbeitungsspielereien bräuchte, unbedingt auf nen kompletten HPC Cluster laufen lassen muss.

Der wichtigste Einsatzzweck fuer eine AI waere ein hinreichend genaues automatisches Tagging, also um Groessenordnungen mehr als die 1000 Klassen beim ILSVRC. Und Personenerkennung, wobei man zuerst mal ueberhaupt die Gesichtserkennung machen muss (ein naechster Schritt waere dann eine Personenerkennung ohne 'Gesicht'), was ein Teilbereich des Taggings ist.


Der einzige Vorteil einer kompletten Cloud Lösung besteht doch am Ende nur darin, nen Thin-Client zu nutzen können und das nicht (in Summe teure) Hardware überall verteilt rumsteht die zu 99% nur rum-idled....dafür gibt man halt komplett die Hoheit über seine Daten ab und belastet das IP-Netz noch stärker als eh schon.

Ja. Aendert alles nichts daran, dass es _tatsaechlich_ bei interessanten Anwendungen ohne Cloud/Cluster in absehbarer Zeit nicht (hinreichend schnell) geht.
 
Ja. Aendert alles nichts daran, dass es _tatsaechlich_ bei interessanten Anwendungen ohne Cloud/Cluster in absehbarer Zeit nicht (hinreichend schnell) geht.

Das ist aber eben doch auch nur solange so wie du einen einzelnen Datensatz exklusiv auf nen Cluster Z mit n-GPUs verteilst!

Wenn du aber n-Datensätze von mehreren Kunden auf einen naturgemäß endlichen Cluster verteilst hast du doch irgendwann wieder die gleiche Ausgangslage, als wenn du lokal mit einer Teilrechenleistung eines solchen Clusters arbeiten würdest. :ugly:
Angenommen du hast nen Cluster mit 8 GPUs in der Cloud...und dann 8 Kunden die zufällig irgendwas gleichzeitig machen wollen, ist die Leistung ja auch wieder ge-achtelt.

Nur weil das in der Cloud läuft hast du ja nicht immer exklusiven Zugriff auf eine definierte Menge Ressourcen oder gar immer einen kompletten Cluster, außer du zahlst entsprechend dafür!

Wie gesagt...es wird (für Endanwender!) weder billiger, noch ist es notwendig...es ist nur eine Verlagerung des Rechenaufwands in einen virtualisierten Rechnerverbund der sich komplett der Kontrolle des Anwenders entzieht.
Das ist primär bequem für die beteiligten Unternehmen (Kundenbindung ahoi)...und Anwender die lieber Rechenleistung leasen als alle paar Monate/Jahre eine entsprechende Investition zu tätigen. :)
 
Zuletzt bearbeitet:
Das ist aber eben doch auch nur solange so wie du einen einzelnen Datensatz exklusiv auf nen Cluster Z mit n-GPUs verteilst! Wenn du aber n-Datensätze von mehreren Kunden auf einen naturgemäß endlichen Cluster verteilst hast du doch irgendwann wieder die gleiche Ausgangslage, als wenn du lokal mit einer Teilrechenleistung eines solchen Clusters arbeiten würdest.

Ja, weswegen der Cluster hinreichend gross dimensioniert werden muss, weshalb es fuer kleinere Anbieter schwer wird (bzw. die sich bei groesseren wie Amazon oder Google einmieten muessen).

Nur weil das in der Cloud läuft hast du ja nicht immer exklusiven Zugriff auf eine definierte Menge Ressourcen, außer du zahlst entsprechend dafür!

Ja, gratis wird das nicht werden, genauso wie man auch jetzt schon fuer 'die Cloud' (z.B. als Datenspeicher) zahlen muss.

Wie gesagt...es wird (für Endanwender!) weder billiger, noch ist es notwendig...

Voellig egal, wie oft du es wiederholst: es _ist_ notwendig (wenn man das Ergebnis 'schnell genug' haben will). Und selbstverstaendlich hat das deutliche Nachteile.

Das ist primär bequem für die beteiligten Unternehmen (Kundenbindung ahoi)...und Anwender die lieber Rechenleistung leasen als alle paar Monate/Jahre eine entsprechende Investition zu tätigen.

Wieviele Leute kennst du denn, die ihren Rechner mal fuer ein paar Wochen (eher Monate) unter Vollast laufen lassen wuerden, damit man danach seine Bilder und Personen taggen kann? Also sind wir uns wohl einig, dass das Training in 'der Cloud' laufen muss, oder?
 
WERBUNG
Zurück
Oben Unten