• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Pest & Cholera tun sich zusammen (aka Skylum & Photolemur)

Von Höhepunkt zu Höhepunkt, muss das schön sein ...
 
Von Höhepunkt zu Höhepunkt, muss das schön sein ...

Ich fuerchte ich muss dich enttaeuschen, das duempelt in Wahrheit ganz flach an der Oberflaeche dahin. Insbesondere, wenn man das mit den Posts in den anderen Foren hier vergleicht :devilish:.

Oh, Pardon, deine Frage von vorne nicht beantwortet: es geht darum, dass KI _sehr_ viel Rechenzeit verbraucht (vor allem beim 'lernen', da geht's mindestens um Stunden, auf 'normaler' Hardware und praktisch brauchbaren Loesungen eher um Wochen).
 
Zuletzt bearbeitet:
Man muss halt auch schon mal den Links folgen, bevor man sich zu einem Urteil wie "Blödsinn" hinreißen lässt:

Und? Wenn ich meine Rechner vom Netz nehme (offline!) funktioniert die aktuelle Version Photolemur trotzdem! Demnach kann keine Bearbeitung der Bilder auf den Servern des Anbieters erfolgen. Da hilft dann auch der erwähnte Link nicht mehr! Folglich bleibt die Aussage von Beholder3 substanzlos. Was in der Zukunft passiert ist für mich ohne Relevanz und zum JETZIGEN Zeitpunkt erfolgt die Korrektur auf dem heimischen Rechner. Die Glaskugel interessiert mich wenig!
 
Zuletzt bearbeitet:
Und? Wenn ich meine Rechner vom Netz nehme (offline!) funktioniert die aktuelle Version Photolemur trotzdem! Demnach kann keine Bearbeitung der Bilder auf den Servern des Anbieters erfolgen.

100% Zustimmung, Photolemur läuft klaglos ohne Netz. Und es macht , a apropos Pest & Cholera, seinen Job ganz gut.
 
Was in der Zukunft passiert ist für mich ohne Relevanz

Man kann halt alles zur Religion machen, auch Kurzsichtigkeit. ;-)

Und ich habe nicht geschrieben, dass die JETZIGEN Versionen nicht mehr benutzbar wären, sondern (für mich) eine mit Cloud-Zwang.

Was für mich aber auch zur Folge hat, dass ein Hersteller, der mir heute sagt "in der nächsten Version machen wir alles nur noch mit Cloud!" für mich auch sein jetziges Produkt uninteressant macht, denn warum sollte ich mich in selbiges einarbeiten, wenn das für mich eh eine Sackgasse ist?

@RC: Ich wüsste wirklich nicht, wofür ich persönlich beim Konvertieren von Raws KI bräuchte. Allerdings bin ich bislang auch gut ohne das Taggen von Bildern ausgekommen.
Und um "das Gelernte" auf den lokalen PC zu übertragen braucht man sicherlich nicht annähernd so viel Transfervolumen wie wenn man umgekehrt seine Urlaubsbilder von 3 Wochen (oder das Hochzeitsshooting usw) in eine Cloud hochladen würde.
 
@RC: Ich wüsste wirklich nicht, wofür ich persönlich beim Konvertieren von Raws KI bräuchte.

Solange niemand ein Programm fuer dich (oder mich ;) persoenlich schreibt, ist es realtiv egal, was du willst.
Wir beide wollen ja auch z.B. keine Mietsoftware.

Allerdings bin ich bislang auch gut ohne das Taggen von Bildern ausgekommen.

Das wird dir wenig helfen, wenn es keine Software ohne das Feature gibt.

Und um "das Gelernte" auf den lokalen PC zu übertragen braucht man sicherlich nicht annähernd so viel Transfervolumen wie wenn man umgekehrt seine Urlaubsbilder von 3 Wochen (oder das Hochzeitsshooting usw) in eine Cloud hochladen würde.

Oh doch (um Groessenordnungen mehr), zumindest wenn das Taggen hinreichend genau sein soll (also ueberhaupt Sinn macht). Wir reden hier von Dingen, die heute so noch gar nicht moeglich sind.
 
Nix für ungut, selten über so viel Schwachsinn gelacht...

Dann informier' mich mal, wie schnell dein Netz die etwa 11,000 Keywords des 'Controlled Vocabularies' (http://www.controlledvocabulary.com/products/index.html) fuer eine Erkennungsrate von >95% (nicht nur auf dem Testdatenset ;) auf einem ueblichen Rechner (ruhig mit 1080er GPU) lernt. Personenerkennung lassen wir da einfach mal weg. Wobei man ein bisschen aufpassen muss, weil das keine 11,000 Klassen sind, also mehrere Keywords pro Bild zugewiesen werden koennen.

Vor einem Jahr haben IBM und Facebook mit einem 256 GPU Cluster noch knapp eine Stunde fuer 1000 Klassen (Keywords) gebraucht, sagen wir, dass der Cluster so skaliert, dass das etwa 100 Stunden auf einer GPU (wir ignorieren mal, dass das bei IBM wohl Teslas waren) braucht. Sagen wir weiter, das Problem wuerde linear skalieren (tut es nicht), dann waeren wir bei 1000 Stunden, also 41 Tagen.
Verdoppelt man die Anzahl an Layern von 50 auf 101 (vereinfacht gesagt, Schritte, die das Programm durchfuehrt), dann ist man bei 7 Stunden mit 256 GPUs.
https://techcrunch.com/2017/08/07/i...-training-time-for-visual-recognition-models/
 
Und um "das Gelernte" auf den lokalen PC zu übertragen braucht man sicherlich nicht annähernd so viel Transfervolumen wie wenn man umgekehrt seine Urlaubsbilder von 3 Wochen (oder das Hochzeitsshooting usw) in eine Cloud hochladen würde.

Oh doch (um Groessenordnungen mehr), zumindest wenn das Taggen hinreichend genau sein soll (also ueberhaupt Sinn macht). Wir reden hier von Dingen, die heute so noch gar nicht moeglich sind.

Der Satz ist nicht nachvollziehbar. Erläutere den doch bitte.
Warum soll die Übertragung der optimierten Parameter aus dem NN auf den Client Transfervolumen im Petabyte-Bereich benötigen? Hier werden doch keine Trainings-Datensätze verschickt sondern nur die Ergebnisse aus dem fertig trainierten NN.
 
Warum soll die Übertragung der optimierten Parameter aus dem NN auf den Client Transfervolumen im Petabyte-Bereich benötigen? Hier werden doch keine Trainings-Datensätze verschickt sondern nur die Ergebnisse aus dem fertig trainierten NN.

Du hast zwei Moeglichkeiten: die ladest die Bilder 'in die Cloud' um das trainierte Netz darauf 'loszulassen' und erhaeltst dann das Ergebnis (du musst die Bilder also jedesmal neu raufladen, da man sie ja nicht 'in der Cloud' haben will), oder du laedst des (aktuelle) trainierte Modell 'aus der Cloud' auf deinen Rechner runter und laesst das auf die Bilder los.
Ein Model fuer die oben erwaehnten hat zwischen 140 MB (30% Fehlerrate) bis 500MB (20% Fehlerrate) - fuer 1000 Klassen (Keywords).
https://github.com/facebook/fb.resnet.torch/blob/master/pretrained/README.md
 
Btw. wer sehen will wie (wenig ;) weit Autotagging in der Cloud heutzutage ist, der kann seine Photos auf 'Amazon Prime Photos' hochladen, dort kann man die Ergebnisse direkt sehen (bei Adobe muss man nach den jeweiligem Keyword suchen).
 
Danke für die Erklärung!
Auch wenn das NN einige Gigabyte groß ist erscheint mir das Transfervolumen nicht als unüberwindbares Problem für local deployment. Einerseits muss das fertig trainierte NN nur einmal geladen werden. Andererseits ist diverse Software heute schon viele Gigabyte groß. Es wird ja auch fleißig daran gearbeitet die NNs kleiner zu bekommen.
Außerdem bezieht sich die übliche angegeben Größe auf NNs während des Betriebs. Wahrscheinlich lassen die sich zum Transfer komprimieren.
Als Flaschenhals könnte ich mir eher den Bedarf an lokalem Ram (CPU oder GPU) vorstellen. Das Problem gibts aber im Rechenzentrum bei gleicher Anzahl Nutzer auch.

Zum Thema "lustiges Autotagging" bietet 500px auch einige Kostproben wenn man ein Bild hoch lädt. Da kann man bei aktuellen Bildern die Tag-Verwirrung anschauen, falls der Fotograf das automatische Tagging nicht entfernt hat.
 
Danke für die Erklärung!
Auch wenn das NN einige Gigabyte groß ist erscheint mir das Transfervolumen nicht als unüberwindbares Problem für local deployment.

Kein unueberwindbares Problem, aber eben i.A. mehr Daten, als beim uebertragen der Bilder.

Einerseits muss das fertig trainierte NN nur einmal geladen werden.

Das wird eben nicht der Fall sein, weil die Netze ja (zumidnest die ersten paar Jahre) zusaetzlich mit den (haendischen) Eingaben der Nutzer gefuettert werden werden, es also wohl regelmaessige Updates geben wird (etwa einmal im Monat/alle 60 Tage).

Andererseits ist diverse Software heute schon viele Gigabyte groß. Es wird ja auch fleißig daran gearbeitet die NNs kleiner zu bekommen.
Außerdem bezieht sich die übliche angegeben Größe auf NNs während des Betriebs. Wahrscheinlich lassen die sich zum Transfer komprimieren.

Was man macht, ist die Modelle 'vereinfachen', was aber auch wieder Auswirkungen auf die Treffergenauigkeit hat (durchaus auch positive).

Als Flaschenhals könnte ich mir eher den Bedarf an lokalem Ram (CPU oder GPU) vorstellen. Das Problem gibts aber im Rechenzentrum bei gleicher Anzahl Nutzer auch.

Das sowieso, bei der Groesse der Netze. Im Cluster ist das ja insofern egal, weil man das Modell nur einmal laden muss.

Zum Thema "lustiges Autotagging" bietet 500px auch einige Kostproben wenn man ein Bild hoch lädt.

Ja, auch. Aber die Variante von Amazon ist AFAIK State-Of-The-Art (mit Google, IBM und Facebook), bei 500px weiss ich das nicht.
 
WERBUNG
Zurück
Oben Unten