• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2024.
    Thema: "Diagonale"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
WERBUNG

Bilder "professionell" verkleinern

DIGIC-III

Themenersteller
Mich würde mal interessieren, wie ich Bilder am besten verkleinern kann, um die beste natürliche Schärfe zu erhalten. Jetzt dachte ich, es wäre von Vorteil, die Pixelzahl (Länge und Höhe) durch eine Natürliche Zahl wie 2, 3 oder 4 zu teilen, dann könnten immer gleich viele Pixel zusammengefasst werden und es müsste weniger neu berechnet werden. (Bsp: Bild mit 4000 * 3000 wird zu 1000 * 750)

Frage 1: Stimmt meine Idee soweit?
Frage 2 (falls Frage 1 zutrifft): Wie kann ich das umsetzen? Verkleinert Photoshop nach "meiner" Methode, muss ich etwas besonderes einstellen oder brauche ich ein Spezialprogramm?
 
An sich reicht es aus, sich in Photoshop ein passendes Makro zu basteln.

Grüße
 
Hallo

Photoshop:
für Web&Geräte speichern
gegebenenfalls Nachschärfen
bei Web-veröffentlichung auf Farbraum (sRGB) achten

VG Chris
 
dachte ich, es wäre von Vorteil, die Pixelzahl (Länge und Höhe) durch eine Natürliche Zahl wie 2, 3 oder 4 zu teilen, dann könnten immer gleich viele Pixel zusammengefasst werden und es müsste weniger neu berechnet werden. (Bsp: Bild mit 4000 * 3000 wird zu 1000 * 750)

Frage 1: Stimmt meine Idee soweit?

Nein, das wird bei Fotos nur selten brauchbar funktionieren. Alle im Fotobereich üblichen Algorithmen arbeiten mit mehr oder minder aufwendiger Interpolation. Eine nette und leicht "durchspielbare" Sammlung an Algorithmen (viel mehr als Photoshop!) hat Irfanview implentiert, guck Dir das mal an. Und aufpassen, daß Du die Bilder immer in 100%-Ansicht anschaust (oder 200% bzw. 400% für genauere Beurteilung, wobei die meisten Programme einfach Pixel vervielfachen), sonst wird alles durch eine weitere Skalierung verfälscht.

Für scharfe Verkleinerungen wird normalerweise anschließend noch nachgeschärft. Das kann Irfanview leider nur sehr schlicht.
 
Zuletzt bearbeitet:
Ich mache immer folgendes (zwar in Gimp aber das dürfte überall machbar sein):

Die Ausgangsauflösung beträgt bei mir meistens 4282x2844 und ich will, dass das Bild am Ende z.B. 1000 Pixel in der Breite hat. Dann skaliere ich das zunächst auf 2000 Pixel und dann nochmal auf die Hälfte (die Algorithmen funktieren besser, wenn halbiert wird und die Rechnung genau aufgeht), also 1000 Pixel und dann schärfe ich nach Bedarf mit unscharf maskieren oder sowas nach.

Dann kann man ja noch die Algorithmen zur Skalierung auswählen. Teilweise sind dann die Endresultate mit 2x Sinc Lanzcos3 schon überschärft und ich nehme z.B. kubisch und gucke mir das an.
 
:ugly: eine ähnliche Latrinenparole geistert seit Anbeginn der www-Zeitrechnung auch für Photoshop durch die Foren und ist nicht totzukriegen, weils fast monatlich wieder einer entdeckt. :rolleyes: Verkleinern in mehreren Schritten ist schlichtweg Unfug und bringt nur Zeitverlust aber nie Bildqualität.


siehe auch diese Ausführung von 10dency
 
In der Theorie ist dem wohl so aber in der Praxis wird das Bild so zweimal geschärft durch den Skalierungsalgorithmus. Natürlich kann man gleich auf die Endauflösung gehen.

Aber mach das mal und vergleich die Ergebnisse. Natürlich gehen Bildinformationen verloren aber die Algorithmen sind ja gerade darauf programmiert die Kontraste zu erhalten. Viele Wege führen nach Rom... Ich komm so gut klar.
 
Frage 1: Stimmt meine Idee soweit?
Im Prinzip schon, hat man vor 25 Jahren am C64 sehr drauf geachtet :D.

Wenn man das einfachste Interpolationsverfahren (nächster Nachbar) verwendet, werden bei glattem Teiler nicht "gleich viele Pixel" zusammengefasst, aber Pixel im gleichen Abstand ausgewählt. Das macht sich vor allem bei Schrift oder anderen künstlichen Bildelementen bemerkbar, weil es sonst zu komischen Jitter-Effekten kommt. Was "Schärfe" angeht, ist das Verfahren gar nicht übel, da werden keine Pixel verrechnet, Rauschen und Kanten bleiben unverändert, aber es gibt halt komische Aliasing-und Treppen-Effekte...

Bei allen besseren Verfahren stellt man sich besser ein feines Gitter mit den Mittelpunkten der neuen Pixel vor, das über das alte Bild gelegt wird. Die alten Pixel werden dann gewichtet in die neuen Pixel umgerechnet, und das Gewicht hängt vom Abstand zum neuen Pixel und einer Funktion ab. Hier hätte ein glatter Teiler dann den Effekt, daß die Gewichte der Nachbarpixel alle gleich sind.

Bei den besseren Methoden wird es interessanter, wie gut höhere Frequenzen ausgefiltert und somit Aliasing-Effekte unterdrückt werden, oder ob sie z.B. Ringing produzieren. Da mag ein glatter Teiler vielleicht noch zu "schöneren" Bildfehlern führen, aber eine optische Verbesserung sehe ich schon beim einfachen bilinearen Verfahren auch bei Schrift nicht mehr, nur noch bei künstlich für den Zweck angelegten Streifenmustern.

Wikipedia gibt auch noch ein bisschen was her. Und vor langer Zeit hat mal jemand ein kleines Progrämmchen zum Skalieren ausgegraben, das die Gewichtungsfunktion hübsch darstellt. Einfach mal auf die Kurve des Screenshots starren und eine Weile wirken lassen.

Vom mehrfachen Verkleinern oder Vergrößern halte auch ich nichts. Fehler summieren sich. Das könnte man (als Programmierer) umgehen, indem man eine Gewichtungsfunktion berechnet, die den gleichen Effekt hätte. Das dürfte dann eine eher platte und Flache Kurve sein, die viel mehr Nachbarpixel mit einbezieht, und ich glaube nicht so recht, daß das nützlich ist.
 
:ugly: eine ähnliche Latrinenparole geistert seit Anbeginn der www-Zeitrechnung auch für Photoshop durch die Foren und ist nicht totzukriegen, weils fast monatlich wieder einer entdeckt. :rolleyes: Verkleinern in mehreren Schritten ist schlichtweg Unfug und bringt nur Zeitverlust aber nie Bildqualität.

Ursprünglich wurde diese Methode nur fürs Vergrößern empfohlen. Dafür mag sich auch etwas bringen, ich hatte daran nie Bedarf.
Erst Jahre später wurde das auch fürs Verkleinern propagiert, was ich auch nicht nachvollziehen kann.

Empfehlen kann ich bei höheren Ansprüchen nur, den Algorithmus an das Ausgangsmaterial anzupassen und ggf. auch ein wenig mit Entrauschen oder Schärfen des Originalbildes vor der Skalierung zu tüfteln. Unscharfe oder verrauschte Bilder wollen anders behandelt werden als "glatte" oder knackscharfe, feine Strukturen anders als gröbere etc.
 
Mich würde mal interessieren, wie ich Bilder am besten verkleinern kann, um die beste natürliche Schärfe zu erhalten. Jetzt dachte ich, es wäre von Vorteil, die Pixelzahl (Länge und Höhe) durch eine Natürliche Zahl wie 2, 3 oder 4 zu teilen,
Frage 1: Stimmt meine Idee soweit?

ich glaube nicht, wenn dein Sensor ein Bayersensor ist hat er sowieso RGGB SubPixel die zu RGB Pixel hochinterpoliert werden

eine 16 Mpix Cam hat nur echte 4 M, nun überlege selber ob Cam Pix / 4 oder RGB Pix / 3 die bessere Wahl ist ;)

Ursprünglich wurde diese Methode nur fürs Vergrößern empfohlen. Dafür mag sich auch etwas bringen, ich hatte daran nie Bedarf.
Erst Jahre später wurde das auch fürs Verkleinern propagiert, was ich auch nicht nachvollziehen kann.

ich auch nicht, übrigens auch das kann ich nicht nachvollziehen:
https://www.dslr-forum.de/showpost.php?p=10130046&postcount=8
 
Der Thread ist zwar schon sehr alt, bin aber gerade erst darauf gestoßen.
Ich bin zwar nicht der experte, aber es gibt für Photoshop ein Skript, das nennt sich "web sharpener". Dieses Skript verkleinert Fotos in mehreren Zwischenschritten mit zusätzlicher Nachbearbeitung. Das Ergebnis sind mehrere Ebenen, deren Anteil am Endresultat durch die Einstellung der Transparenz auf die eigenen Bedürfnisse angepasst werden kann.

Ich finde die Ergebnisse auf alle Fälle besser, wie bei jeder anderen, mir bekannten Methode.
 
Wenigstens zeigt Andreas Rentsch gleich ein abschreckendes Ergebnis des web sharpeners. ;)
Mit den Augen scheint es sich nicht viel anders als mit dem musikalischen Gehör zu verhalten,
wer falsche Töne nicht raushört den stöhren sie auch nicht.
 
Zuletzt bearbeitet:
Dieses Skript verkleinert Fotos in mehreren Zwischenschritten mit zusätzlicher Nachbearbeitung. Das Ergebnis sind mehrere Ebenen, deren Anteil am Endresultat durch die Einstellung der Transparenz auf die eigenen Bedürfnisse angepasst werden kann.

Und? Wie meint erst jüngst ein Kollege hier so richtig: Interpolationsverlust + Interpolationsverlust + Interpolationsverlust = Qualitätsverlust. Jedesmal muss alles neu berechnet wedeln. Sollte bei etwas Nachdenken jedem klar werden. Wenn der Schmarren funktionieren würde, würden es Photoshoptrainer auch so lehren!

Und Ps hätte die Funktion als festinstallierte Funktion an Bord
 
@ second - gezeigte Vergleiche. Da bleibt außer unruhiger Verpixelung vom Motiv und dessen Struktur nicht mehr viel über.
Die wiederholte Schärfung nach jeder stufenweise Verkleinerung richtet wahrscheinlich noch den größten Schaden an,
da so die Säume ja fast schon absaufen/ausbrennen müssen. Die Rettungsversuche per Kontrast- und Sättigungsausgleich
biegen das auch nicht mehr hin. Positiv ist hingegen die Trennung von Tiefen/Lichter

Falsch im Sinne von schräg/daneben
 
Der Thread ist zwar schon sehr alt, bin aber gerade erst darauf gestoßen.
Ich bin zwar nicht der experte, aber es gibt für Photoshop ein Skript, das nennt sich "web sharpener". Dieses Skript verkleinert Fotos in mehreren Zwischenschritten mit zusätzlicher Nachbearbeitung. Das Ergebnis sind mehrere Ebenen, deren Anteil am Endresultat durch die Einstellung der Transparenz auf die eigenen Bedürfnisse angepasst werden kann.

Ich finde die Ergebnisse auf alle Fälle besser, wie bei jeder anderen, mir bekannten Methode.

Hallo, ich habe das gerade mal ausprobiert, mit web-sharpener.
Ein jpg-Bild, dateigröße 1,8MB
das Ergebnis waren 5,3MB Dateigröße... was mache ich da falsch, zumal man da nix einstellen kann.
 
@ second - gezeigte Vergleiche. Da bleibt außer unruhiger Verpixelung vom Motiv und dessen Struktur nicht mehr viel über.
Die wiederholte Schärfung nach jeder stufenweise Verkleinerung richtet wahrscheinlich noch den größten Schaden an,
da so die Säume ja fast schon absaufen/ausbrennen müssen.
Ich sehe da weder Säume noch absaufende oder ausbrennende Stellen (insbesondere bei der Größe der Beispielbilder), stattdessen eine hervorragend detaillierte Feinzeichnung, wie ich sie selbst in meinen Bildern gerne hätte.

Wo siehst Du denn diese Defizite in den gezeigten Beispielen?
 
WERBUNG
Zurück
Oben Unten