• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb August 2025.
    Thema: "Kurven"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum August-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Generatives Füllen in Photoshop (Beta) (2. Versuch)

Status
Für weitere Antworten geschlossen.
Etwas entfernen finde ich schon gut, aber das ist jetzt nicht so mein Ding. Abgesehen davon ist die Auflösung von 1024 Pixel auch nicht so dolle. Mehr lässt Adobe zurzeit nicht zu.
 
Das, was Adobe dazu rechnet, hat nur 1024 Pixel x 1024 Pixel. Nimm ein Landschaftsfoto, mache noch mehr Landschaft dazu. Da kann man das sehr gut erkennen, wenn man hinein Zoomt.
Gibt auch Videos darüber, die das belegen.
 
Das, was Adobe dazu rechnet, hat nur 1024 Pixel x 1024 Pixel. Nimm ein Landschaftsfoto, mache noch mehr Landschaft dazu. Da kann man das sehr gut erkennen, wenn man hinein Zoomt.
Gibt auch Videos darüber, die das belegen.
Oh ja, du hast recht das ist mir noch gar nicht aufgefallen ... egal ich bin mir sicher in absehbarer Zeit wird das auch mit voller Auflösung arbeiten, ist halt noch Beta-Stadium
 
Das wird man sehen, aber die Rechenzeit wird dann sicherlich länger sein. Je nachdem, was man selber für eine Auflösung hat.
 
Das wird dann aber schon davon abhängen, ob die Motivteile nur konstruiert sind, bspw. abgeleitet von bestehenden Bildteilen, oder ob da aufs Adobe-Archiv zurück gegriffen wird und so die Auflösung der neuen Teile auch abhängig ist von der Auflösung dieser Quelldateien, von denen ich mir vorstellen kann, daß da vieles keine 40 MP hat und somit auch mit Interpolation öfters Grenzen erreicht werden.
 
Kann sein, dass ich mich irre, aber Generative KI greift auf keine Adobe-Datenbank zurück - sie funktioniert ja auch offline.
Generative KI ist so trainiert, dass sie mit einer normalen Grafikkarte mit 2 GB zeitnah (bei weniger dauert es länger) mit der Aufgabe klar kommt.
Sie funktioniert sogar auf einem Smartphone.
Sie schnüffelt nicht mehr in hunderte Terabyte-großen Daten...( siehe 14:00 min) und bedarf keiner Cloud-Dienste.
Bildlich gesprochen komprimiert generative KI die Strecke "Erde-Mond" (380.000 km) auf "Fernsehturm-Brandenburger Tor" (2,5 km)

Hier ein Video-Ausschnitt zu dem Thema...
 
Zuletzt bearbeitet:
Kann sein, dass ich mich irre, aber Generative KI greift auf keine Adobe-Datenbank zurück - sie funktioniert ja auch offline. [...]

In dem Vortrag redet er über Stable Diffusion, was Open Source-Software ist, die man sich tatsächlich herunterladen und lokal auf seinem Rechner laufen lassen kann.

Adobe verwendet für das generative Füllen ihr eigenes Firefly (das Pendant zu Stable Diffusion), was mit den Bildern aus der Adobe Stock-Fotosammlung trainiert wurde und natürlich nicht Open Source ist. In der Beta kann man das generative Füllen nur per Cloud nutzen (und ich könnte mir vorstellen, dass das auch in Zukunft so bleiben wird, allein schon damit Adobe die Kontrolle über ihr Modell behält).
 
Ich meine gelesen zu haben, dass Adobe sich in erster Linie am eigenen Adobe Stock bedient und da nur an den Lizenzfreien. Geplant ist aber wohl, später die Uploader prozentual zu beteiligen.
 
Die generative Füllung wurde zwar mit Adobe Bildern trainiert, aber sie benutzt weder diese Bilder, noch Teile davon, in Photoshop. Alle Bildelemente werden von der K.I. neu generiert.
 
Die generative Füllung wurde zwar mit Adobe Bildern trainiert, aber sie benutzt weder diese Bilder, noch Teile davon, in Photoshop. Alle Bildelemente werden von der K.I. neu generiert.

Woher hast du diese Information? Für andere Modelle wurde schon nachgewiesen, dass diese z.T. auch gesamte Trainingsbilder einfach auswendig lernen und bei entsprechender Texteingabe diese wieder nahezu unverändert ausgeben (Details dazu hier).

So ist es. KI Generieren beginnt immer mit Rauschen,

Ja schon, aber die Information aus den Trainingsbildern ist in den Gewichten enthalten und ersetzt am Ende ja das anfängliche Rauschen.
 
Manchmal ist es schon witzig, was die KI da einem vorschlägt.
War gestern auf einem Haltepunkt für eine Oldtimerfahrt in NRW. Und dann standen die tollen Modelle da, aber manchmal störten die Zuschauer schon.

Gestern Abend wollte ich sie dann entfernen, aber dann wurden die Leute durch andere dubiose Figuren ersetzt. 🤣
 
Also ich habe bisher noch nicht herausgefunden wann die KI Personen durch z.B. den Hintergrund ersetzt bzw. wann die Personen durch andere Figuren ersetzt werden. Irgendwie erscheint mir das noch willkürlich - der Befehl "remove person" funktioniert bei mir nicht wirklich.
 
Status
Für weitere Antworten geschlossen.
WERBUNG
Zurück
Oben Unten