• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Juni 2024.
    Thema: "Wiederholung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Juni-Wettbewerb hier!
WERBUNG

Generatives Füllen in Photoshop (Beta) (2. Versuch)

Status
Für weitere Antworten geschlossen.
Etwas entfernen finde ich schon gut, aber das ist jetzt nicht so mein Ding. Abgesehen davon ist die Auflösung von 1024 Pixel auch nicht so dolle. Mehr lässt Adobe zurzeit nicht zu.
 
Das, was Adobe dazu rechnet, hat nur 1024 Pixel x 1024 Pixel. Nimm ein Landschaftsfoto, mache noch mehr Landschaft dazu. Da kann man das sehr gut erkennen, wenn man hinein Zoomt.
Gibt auch Videos darüber, die das belegen.
 
Das, was Adobe dazu rechnet, hat nur 1024 Pixel x 1024 Pixel. Nimm ein Landschaftsfoto, mache noch mehr Landschaft dazu. Da kann man das sehr gut erkennen, wenn man hinein Zoomt.
Gibt auch Videos darüber, die das belegen.
Oh ja, du hast recht das ist mir noch gar nicht aufgefallen ... egal ich bin mir sicher in absehbarer Zeit wird das auch mit voller Auflösung arbeiten, ist halt noch Beta-Stadium
 
Das wird man sehen, aber die Rechenzeit wird dann sicherlich länger sein. Je nachdem, was man selber für eine Auflösung hat.
 
Das wird dann aber schon davon abhängen, ob die Motivteile nur konstruiert sind, bspw. abgeleitet von bestehenden Bildteilen, oder ob da aufs Adobe-Archiv zurück gegriffen wird und so die Auflösung der neuen Teile auch abhängig ist von der Auflösung dieser Quelldateien, von denen ich mir vorstellen kann, daß da vieles keine 40 MP hat und somit auch mit Interpolation öfters Grenzen erreicht werden.
 
Kann sein, dass ich mich irre, aber Generative KI greift auf keine Adobe-Datenbank zurück - sie funktioniert ja auch offline.
Generative KI ist so trainiert, dass sie mit einer normalen Grafikkarte mit 2 GB zeitnah (bei weniger dauert es länger) mit der Aufgabe klar kommt.
Sie funktioniert sogar auf einem Smartphone.
Sie schnüffelt nicht mehr in hunderte Terabyte-großen Daten...( siehe 14:00 min) und bedarf keiner Cloud-Dienste.
Bildlich gesprochen komprimiert generative KI die Strecke "Erde-Mond" (380.000 km) auf "Fernsehturm-Brandenburger Tor" (2,5 km)

Hier ein Video-Ausschnitt zu dem Thema...
 
Zuletzt bearbeitet:
Kann sein, dass ich mich irre, aber Generative KI greift auf keine Adobe-Datenbank zurück - sie funktioniert ja auch offline. [...]

In dem Vortrag redet er über Stable Diffusion, was Open Source-Software ist, die man sich tatsächlich herunterladen und lokal auf seinem Rechner laufen lassen kann.

Adobe verwendet für das generative Füllen ihr eigenes Firefly (das Pendant zu Stable Diffusion), was mit den Bildern aus der Adobe Stock-Fotosammlung trainiert wurde und natürlich nicht Open Source ist. In der Beta kann man das generative Füllen nur per Cloud nutzen (und ich könnte mir vorstellen, dass das auch in Zukunft so bleiben wird, allein schon damit Adobe die Kontrolle über ihr Modell behält).
 
Ich meine gelesen zu haben, dass Adobe sich in erster Linie am eigenen Adobe Stock bedient und da nur an den Lizenzfreien. Geplant ist aber wohl, später die Uploader prozentual zu beteiligen.
 
Die generative Füllung wurde zwar mit Adobe Bildern trainiert, aber sie benutzt weder diese Bilder, noch Teile davon, in Photoshop. Alle Bildelemente werden von der K.I. neu generiert.
 
Die generative Füllung wurde zwar mit Adobe Bildern trainiert, aber sie benutzt weder diese Bilder, noch Teile davon, in Photoshop. Alle Bildelemente werden von der K.I. neu generiert.

Woher hast du diese Information? Für andere Modelle wurde schon nachgewiesen, dass diese z.T. auch gesamte Trainingsbilder einfach auswendig lernen und bei entsprechender Texteingabe diese wieder nahezu unverändert ausgeben (Details dazu hier).

So ist es. KI Generieren beginnt immer mit Rauschen,

Ja schon, aber die Information aus den Trainingsbildern ist in den Gewichten enthalten und ersetzt am Ende ja das anfängliche Rauschen.
 
Manchmal ist es schon witzig, was die KI da einem vorschlägt.
War gestern auf einem Haltepunkt für eine Oldtimerfahrt in NRW. Und dann standen die tollen Modelle da, aber manchmal störten die Zuschauer schon.

Gestern Abend wollte ich sie dann entfernen, aber dann wurden die Leute durch andere dubiose Figuren ersetzt. 🤣
 
Also ich habe bisher noch nicht herausgefunden wann die KI Personen durch z.B. den Hintergrund ersetzt bzw. wann die Personen durch andere Figuren ersetzt werden. Irgendwie erscheint mir das noch willkürlich - der Befehl "remove person" funktioniert bei mir nicht wirklich.
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten