• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Mai 2024.
    Thema: "Diagonale"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Mai-Wettbewerb hier!
WERBUNG

Bildverkleinerung

Woody_23

Themenersteller
Hallo,

beim Verkleinern von Bildern stelle ich mir immer wieder die Frage, ob es sinnvol ist, die Bilder um gerade Faktoren zu verkleinern. Wenn ich ein Bild von einer Breite von 2000 auf 50% = 1000 verkleinere, ist es ja recht simpel je 2*2 Pixel zu einem neuen Pixel zusammen zu rechnen. Bei 2000 auf 40% = 800 Pixel werden immer 2,5 * 2,5 zusammengefügt. Ein Pixel wird also halb und halb auf 2 Nachbarpixel verteilt.


Als Extrembeispiel eine Zeile mit abwechselnd hell(5) und Dunkel(0) in je 2 Pixel Breite:
5500550055
wird auf 50%: 50505
1.Pixel ist (5+5)/2=5; 2.Pixel ist (0+0)/2=0; usw.

Bei 40%: 4224
1.Pixel ist (5+5+0/2)/2,5=4; 2.Pixel ist (0/2+0+5)/2,5=2; 3.Pixel ist (5+0+0/2)/2,5=2; 4.Pixel ist (0/2+5+5)/2,5=4

Bei 40% weniger Details übrig haben, als bei 50% der Ausgangsgröße ist ja klar, aber hier geht es von kontrastreichen Linien mit Helligkeitswerten von 0 - 5 zu einem schwammigen Etwas mit Helligkeit von 2 - 4.
Ich denke das Problem entsteht einfach dabei, wenn man einzelne Pixel durch Verkleinerung auf zwei benachbarte Pixel aufteilt, und man mehr Details und Kontrast bewahren kann, wenn man die Bilder passend zum Ausgabemedium beschneidet und evtl. verkleinert.

In meinem konkretem Fall heißt das, ich nehme Bilder aus der Kamera mit 2448 Pixeln Höhe, beschneide die auf 2160 Pixel, damit die bei Full HD mit 50% angezeigt werden können. Bringt diese Pixel und Faktorgenauigkeit optisch etwas, oder renne ich hier nur einer fixen Theorie hinterher?
 
Die Frage ist doch eher welcher Algorithmus zur Verkleinerung benutzt wird.

B-Spline, Lanczos-3/4/x, Bicubic smoother, sharper etc, Hermite, Bell usw

Darauf aufbauend sollten deine Überlegungen dann weitergehen.
 
Bringt diese Pixel und Faktorgenauigkeit optisch etwas, oder renne ich hier nur einer fixen Theorie hinterher?

Vorab, ich werde Dir keine wisenschaftliche Erklärung für oder wider deine Theorie liefern (können).
Hast Du es denn mal einfach ausprobiert?
Nimm doch das Originalbild und das skalierte Bild und schau Dir an, ob Du einen Unterschied siehst, der diese Überlegungen und den Aufwand rechtfertigt.
Das wäre mein Ansatz bei dieser Thematik.
 
saw0s Antwort und Perry3Ds Link zu wikipedia sagen es ja schon. Es kommt vor allem auf die Methode an.
Ich verwende "Bikubisch" ohne schärfer, weil ich lieber selber Schärfe.

Bei 50% kann es genau so vorkommen das z.B. ein weißes und ein schwarzes Pixel miteinander verrechnet werden und ein Grau ergeben.
Jede Größenänderung und sei es nur ein Pixel zieht eine Interpolation nach sich, die bei den üblichen Methoden Kanten "zermatschen" kann.
Mit der Freeware "Image Analyzer" oder Filtern wie "Topaz InFocus" kannst du aber "echte" Schärfe wieder herstellen.
Dabei muss man jedoch aufpassen das es bei Diagonalen nicht zu Treppchenbildung kommt,
sonst sieht es so pixelig aus wie bei der Methode Pixelwiederholung.
Am schlimmsten sind die Methoden schrittweiser Verkleinerungen mit zwischenschärfung.
 
Ich verwende auch möglichst immer ganzzahlige (nicht unbedingt gerade) Faktoren. Ja, durch Interpolation kann das ganze etwas abgemildert werden, daß eben nicht die tollsten Skalierungsartefakte entstehen - aber ich denke trotzdem, daß ein ganzzahliger Faktor besser sein wird, als 2,37192. Das Ergebnis bei 2,37 wird mit dem richtigen Algorithmus auch gut aussehen - ohne Frage, aber besser als ein Ergebnis von 2? Da lasse ich mich aber gern eines besseren belehren, falls dem doch so sein sollte.
 
Beim Faktor 2 sind die Interpolation am gleichmäßigsten verteilt (so lange das Pixelmaß eine runde Zahl ist).
Wenn man nur 1 px verkleinert wird es zur Mitte hin am "matschigsten" bei 2 px bei einem- und zweidritteln...
Wie "gerade" der Faktor ist spielt keine Rolle.
Manchmal trifft der "Teiler" genau ne Kante, dann bleibt sie scharf und manchmal eben nicht.
Das ist dann reiner Zufall wie eine Kante verläuft.
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten