• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Qualitätsverlust: 100% JPEG mehrfach abspeichern

Sorry, aber das hat mit dem Thema doch gar nichts zu tun. Du kannst 1000 x das jeweils letzte JPG wieder neu als jpg speichern, und das Bild ist (bei dieser Ansichtsgröße) immer noch gleich gut!

Unsinn. Die Bildgröße spielt keine Rolle, der kleine Ausschnitt wurde nur verwendet, weil man hier keine x MP in bester JPG-Qualität hochladen kann. Für die Beurteilung der Unterschiede für mehrere Generationen ist es irrelevant.

Im übrigen wird das Bild jedes Mal neu kodiert, das sieht man schon an den unterschiedlichen Dateigrößen, die wie schon erwähnt bei den unterschiedlichen Programmen um gute 10% divergieren.

Wie gesagt, meine Untersuchung erhebt keinen wissenschaftlichen Anspruch - wer zu anderen Schlüssen kommt, kann gerne seine anders lautenden Ergebnisse hier hochladen.

-Immer die gleiche Quantisierungstabelle (also gleiches Programm, gleiche Qualität)

Es war keineswegs "immer das gleiche Programm".

Auf deinen für diesen Zweck eher ungeeigneten Bildern sieht man sowas natürlich nicht.

Dann zeig das bitte mal. Ich habe das mit verschiedenen Fotos durchgespielt (wenn auch nicht mit allen bis zur 10. Generation) ich konnte keine sichtbaren Effekte provozieren. Das bedeutet natürlich nicht, dass es keine gibt, ich bin im Gegenteil sehr gespannt, bei welcher Art von Fotos man diese sehen kann.

cv
 
Zuletzt bearbeitet:
JPEG speichern: RGB -> YUV, Rundung auf Ganzzahl
JPEG öffnen: YUV -> RGB, Rundung auf Ganzzahl
 
Der theoretische Aspekt sagt, dass auch die höchste Qualitätsstufe prinzipiell nicht verlustlos speichert, mal also aus theoretischen Erwägungen ein verlustlos komprimierendes Format (wie z.B. TIFF) vorziehen sollte.

ich glaube mich zu erinnern, dass JPEG in der best möglichen Qualität, schon einen Algorythmus hat, der verlustlos speichert. Komprimierung hat ja nicht umbedingt mit Verlust zu tun.
Wenn ich mich recht erinnere, werden da nur gleichfarbige pixel über eine Formel verbunden, was ja auch zu einer Komprimierung führt, natürlich abhängig vom Bildinhalt.

Weißt Du genau, das JPEG IMMER verlustbehaftet ist, oder darf ich den Algorythmus wieder einmal aufarbeiten. Ist leider schon ewig > 10J her.

Die Frage ist eher was verwendet das Programm bei bester Qualität für einen JPEG Algorythmus, oder? Das wird ja niergends beschrieben.
 
Zuletzt bearbeitet:
ich glaube mich zu erinnern, dass JPEG in der best möglichen Qualität, schon einen Algorythmus hat, der verlustlos speichert.

Das erinnerst Du falsch. Ich hatte das aber auch schon entsprechend gegenteilig erwähnt, das hast Du vermutlich überlesen.

Komprimierung hat ja nicht umbedingt mit Verlust zu tun.

Prinzipiell richtig, aber eben nicht für JPG. Ohne jetzt auf die Feinheiten des Algorithmus eingehen zu wollen (die habe ich auch nicht vollständig verstanden), kannst Du das jederzeit selbst probieren. Nimm z.B. das erste Foto aus meinem Beispiel. Als JPG hat es 320 kB, als BMP sind es knappe 500 kB. Wenn ich das BMP durch 7-Zip jage, komme ich auf eine komprimierte Datei von 390 kB. Die kann ich verlustfrei wieder entpacken, d.h. das Ergebnis ist Bit für Bit identisch mit der ursprünglichen Datei (das muss auch so sein, denn wenn ich damit z.B. Programme komprimiere, wäre schon ein verändertes Bit ziemlich bitter). Als JPG ist die Dateigröße signifikant kleiner, das lässt schon vermuten, dass es eben nicht verlustlos ist. Diese Vermutung kannst Du einfach erhärten, in dem Du aus dem JPG wieder ein BMP erzeugst und das Byteweise mit dem Original vergleichst (z.B. mit dem Total-Commander) - Du kannst aus dem JPG nicht mehr das Original zurückholen!

Trotzdem sind die Unterschiede so gering, dass man es mit einer vernünftigen Zahl von Generationen nicht sieht.

cv
 
Zuletzt bearbeitet:
Unsinn. Die Bildgröße spielt keine Rolle, der kleine Ausschnitt wurde nur verwendet, weil man hier keine x MP in bester JPG-Qualität hochladen kann. Für die Beurteilung der Unterschiede für mehrere Generationen ist es irrelevant.
Ack.
Es war keineswegs "immer das gleiche Programm".
Dann hast Du auch Generationenverluste, die Du sichtbar machen kannst, indem Du die beiden Bilder übereinanderlegst, Differenz einstellst und eine TWK drüberlegst.

Daß der Unterschied bei höchster Qualität ziemlich lange braucht, um ohne Hilfsmittel sichtbar zu werden, ist klar.
 
ich glaube mich zu erinnern, dass JPEG in der best möglichen Qualität, schon einen Algorythmus hat, der verlustlos speichert. Komprimierung hat ja nicht umbedingt mit Verlust zu tun.
Wenn ich mich recht erinnere, werden da nur gleichfarbige pixel über eine Formel verbunden, was ja auch zu einer Komprimierung führt, natürlich abhängig vom Bildinhalt.
Es gibt bei JPEG einen speziellen Modus "Lossless JPEG" – der benutzt allerdings ein komplett anderes Kompressionsverfahren, nur der Container bleibt gleich. Ist allerdings – wie auch JPEG mit 12 Bit Farbtiefe – selten und wird nicht von allen Programmen gelesen und von noch weniger Programmen erzeugt. Wenn es einen Qualitätsregler gibt, kann man davon ausgehen, dass es sich um das normale "lossy JPEG" handelt. (Genauso gibt es übrigens verlustbehaftete TIFFs – die speichern JPEG-Daten in einem TIFF-Container :D).

L.G.

Burkhard.
 
Man sollte sich noch mal die Ausgangsfrage des TO ansehen. Der entwickelt aus einem RAW ein jpg und nimmt dann unterschiedliche Programme umd zu seinem Endprodukt zu kommen. Er fragt dann ob über diese Kette seine Bilder an QUalität verlieren wenn er als Transport-Medium jpg benutzt.

Daraus ergibt sich, dass er jedesmal mit einem neuen Algorythmus eine modifiziertes Bild speichert, somit ist der worst case gegeben. Man kann davon ausgehen das es Bilder geben wird, die auch bei jeweiliger Ausgabe in bester jpg Qualität am Ende sichtbar fehlerbehaftet sein werden. Es wird nicht jedes Bild treffen, sehr warscheinlich sogar nur einige.

Aus meiner Sicht kann er den Problemen aus dem Weg gehen, bei sogar besseren Ergebnissen im dem er nach TIFF 16 entwickelt und in der Kette bis zum letzten Programm dabei bleibt und nur abschließend das Bild in der gewünschten jpg Qualität speichert, ich würde dazu das letzte TIFF (vielleicht gezippt) aufheben genauso wie ich das RAW aufhebe.

Wenn er anstelle TFF 16 eine TIFF8 / bmp / png nimmt ist er etwas ''schlechter'' dran (16-Bit -> 8 Bit) aber immer noch besser als mit der Kette in jpg. Für den Workflow macht es keinen Unterschied be verbesserter Leistung
 
Bei der wiederholten Öffnung und Speicherung von JPEG werden die Farben auf jene Tupel reduziert, die im chaotischen System o.a. Rundungen Zentren darstellen, d.h. die bei Rundung(RGB_zu_YUV(Rundung(YUV_zu_RGB))) ident bleiben.
 
Man sollte sich noch mal die Ausgangsfrage des TO ansehen. Der entwickelt aus einem RAW ein jpg und nimmt dann unterschiedliche Programme umd zu seinem Endprodukt zu kommen. Er fragt dann ob über diese Kette seine Bilder an QUalität verlieren wenn er als Transport-Medium jpg benutzt.

Du darfst davon ausgehen, dass die Mehrheit in diesem Forum des Lesens fähig ist. :cool: Okay, manchmal bin ich mir da auch nicht sicher... :evil:

Meine Antwort darauf war: Sofern immer max. Qualität gewählt wird und sofern die Zahl der Bearbeitungen mit anschließendem Speichern zumindest nicht zweistellig ist, ergeben sich keine sichtbaren Unterschiede.

Das ist jedenfalls das Ergebnis meiner ensprechenden Experimente. Ich bin aber gerne bereit, diese rein empirische Erkenntnis zu korrigieren - dazu würde ich mir dann gerne ein Gegenbeispiel anschauen. Das hat aber bislang keiner geliefert, insofern bleibe ich mal vorläufig bei meiner These

cv
 
Damit man mal sieht, was nach "echten" Bearbeitungen passiert, noch folgender Vergleich.

Ein quadratischer Ausschnitt des zuvor schon gezeigten Fotos wurde folgenden Veränderungen unterworfen - und zwar einmal als JPG und ein zweites Mal als 8bit TIFF:

1. Auto-Farbkorrektur in PSE 10
2. Abspeichern
3. 90° Rotation nach Rechts in IrfanView
4. Abspeichern
5. "Verblasste Farben korrigieren", Korrekturgrad 50 in PaintShop X4
6. Abspeichern
7. 90° Rotation nach Links in FastStone Image-Viewer
8. Abspeichern
9. Unscharf maskieren (50%, Radius 1 Px, Schw.wert 0) in PSE 10
10. Abspeichern

Alle Speichervorgänge des JPG mit den verschiedenen Programmen wurden in der vom jeweiligen Programm angegebenen besten Qualitätsstufe vorgenommen, die TIFFs wurden verlusfrei gespeichert. Im letzten Schritt wurde dann aus dem letzten TIFF mit PSE wieder ein JPG gemacht.

Die Ergebnisse liegen bei, das erste Bild ist das JPG, das zweite das TIFF. Und ja - die sind auf Grund der vielen Schritte und Speichervorgänge nicht identisch, wie ein Differenzbild mit CS 5.1 zeigt. Aber sichtbar ist das dennoch nicht.

cv
 
Es gibt bei JPEG einen speziellen Modus "Lossless JPEG" – der benutzt allerdings ein komplett anderes Kompressionsverfahren, nur der Container bleibt gleich.

Danke, dann wars wohl das. Nach dem was da steht, ist aber scheinbar meine Annahme falsch, dass zB Fotoshop oder Irfanview automatisch diesen Algorythmus verwendet, wenn man auf die höchste Qualität stellt. Mal schauen ob es dazu was zu finden gibt.
 
Danke, dann wars wohl das. Nach dem was da steht, ist aber scheinbar meine Annahme falsch, dass zB Fotoshop oder Irfanview automatisch diesen Algorythmus verwendet, wenn man auf die höchste Qualität stellt. Mal schauen ob es dazu was zu finden gibt.

Du brauchst nicht schauen, frag einfach. IrfanView kann per Plugin Lossless-JPG schreiben und lesen, Photoshop kann damit nichts anfangen (ggf. gibts dafür auch ein Plugin, entzieht sich meiner Kenntnis). Generell wird Lossless-JPG von kaum einem Programm unterstützt, ich kenne auch keinen Browser, der das anzeigen könnte. Von der Verwendung kann nur abgeraten werden, zumal die Vorteile gegenüber dem gängigen TIFF praktisch nicht vorhanden sind.

cv
 
Danke für die zahlreichen und interessanten Ausführungen zum Thema.

Ich habe mich danach für die zukünftige Bearbeitung im Tiff-16Bit-Format mit abschließender Speicherung als JPG entschieden.

Nach dem Abspeichern einer Testdatei habe ich festgestellt, dass das 100er JPG ca. 4MB klein und das unkomprimierte 16Bit Tiff 50MB groß wird.

Das ist natürlich ein Größenunterschied, der nicht ganz unerheblich ist.

Das Bild lässt sich auch noch als Zip-komprimiertes 16Bit-Tiff mit einer Größe von 6MB abspeichern. Öffnet und speichert man es anschließend mit Photoshop als Tiff, erreicht es wieder die 50MB.

Ist die Zip-Komprimierung also verlustlos oder sollte das Bild für verlustfreies Arbeiten unkomprimiert ( und riesengroß ) abgespeichert werden ?

Grüße,

Tasnal
 
Ist die Zip-Komprimierung also verlustlos oder sollte das Bild für verlustfreies Arbeiten unkomprimiert ( und riesengroß ) abgespeichert werden ?

Das zip_format ist vom Design her auf verlustfrei Kompression ausgelegt. DSu kannst aber bei den einzelnen Komprimierungsprogrammen auch noch angeben wie stark verlustfrei komprimiert werden soll. Die meisten Default werde sind auf mittlere Komprimierung gesetzt, damit es schnell geht. Gedacht ist es für Programme und Daten. Damit ist es genauso gut für Bilder geeignet, ich meine es gibt sogar ein Tiff format mit innerer Zip-Komprimierung - das ist allerdings ein Exot , das nicht jedes Programm verarbeiten kann.

siehe auch hier
http://de.wikipedia.org/wiki/ZIP-Dateiformat
 
WERBUNG
Zurück
Oben Unten