Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
Ja, und? Der Algorithmus dahinter ist gleich oder ähnlich. Homogene Flächen lassen sich stärker komprimieren als feine Strukturen. Wie bei Binärwerten auch.
Richtig.Ein solcher Kompressions-Algorithmus bezieht sich ja rein auf die binären Zahlen, egal welchen Inhalts.
Jetzt sehe ich, wo dein Mißverständnis liegt – du glaubst, damit das Kompressionsergebnis vom Bildinhalt abhängt, müsse der Kompressor den Bildinhalt "verstehen". Nun, das ist ein Irrtum. Kein Kompressionsverfahren analysiert den Bildinhalt. Dennoch liefern viele Kompressionsverfahren ein vom Bildinhalt abhängiges Ergebnis – aber nicht, weil der Algorithmus "wüßte", was im Bilde zu sehen ist. Es wird einfach die den Binärdaten innewohnende Redundanz reduziert, weiter nichts. Die Daten, die gleichmäßige Flächen codieren, enthalten nun einmal mehr Redundanz als solche für Strukturen; eine Bildanalyse ist dafür nicht erforderlich (auch nicht beim JPEG-Verfahren).Eine bildinhaltliche Kompression berücksichtigt doch, ähnlich zur JPEG-Kompression, zusätzlich den Inhalt des Bildes, also gleichmäßige Flächen werden anders komprimiert wie feine Strukturen.
So ein Unsinn. Zwar existieren solche Verfahren – aber das heißt noch lange nicht, daß das für alle Verfahren gelte, oder gar, daß eine aufwendige Datenanalyse ein Wesensmerkmal der verlustbehafteten Kompression sei. Im Gegenteil – gerade für das DNG-Format gibt es ein verlustbehaftetes Kompressionsverfahren (das nicht nur für DNG funktionieren würde), welches unabhängig (!) von Bildinhalt glatte 50 % Speicherplatz einspart und dabei nach einem so simplen Algorithmus vorgeht, daß die dafür benötigte Rechenzeit auf einem schmalbrüstigen kamerainternen Bildprozessor nicht größer ist als die durch die reduzierte Datenmenge eingesparte Zeit zum Schreiben der Daten auf die Speicherkarte. Da wird überhaupt nichts analysiert. Dennoch ist der Datenverlust rein akademisch; es ist bisher noch keinem Anwender gelungen, einen sichtbaren Unterschied zwischen unkomprimierten und verlustbehaftet komprimierten DNG-Daten nachzuweisen.Bei den verlustbehafteten sieht das etwas anders aus. Die analysieren die Daten im Bezug auf die eigentliche Verwendung hin z. B. als Bild oder als Musik ...
Jetzt sehe ich, wo dein Mißverständnis liegt – du glaubst, damit das Kompressionsergebnis vom Bildinhalt abhängt, müsse der Kompressor den Bildinhalt "verstehen". Nun, das ist ein Irrtum. Kein Kompressionsverfahren analysiert den Bildinhalt. Dennoch liefern viele Kompressionsverfahren ein vom Bildinhalt abhängiges Ergebnis – aber nicht, weil der Algorithmus "wüßte", was im Bilde zu sehen ist. Es wird einfach die den Binärdaten innewohnende Redundanz reduziert, weiter nichts. Die Daten, die gleichmäßige Flächen codieren, enthalten nun einmal mehr Redundanz als solche für Strukturen; eine Bildanalyse ist dafür nicht erforderlich (auch nicht beim JPEG-Verfahren).
eine Bildanalyse ist dafür nicht erforderlich (auch nicht beim JPEG-Verfahren).
Nein. Da wird nichts "analysiert", sondern es wird einfach ein Algorithmus auf die vorhandenen Daten angewandt.Da wir doch durchaus eine Bildanalyse durchgeführt.
Nein. Da wird nichts "analysiert", sondern es wird einfach ein Algorithmus auf die vorhandenen Daten angewandt.
Herrschaftszeiten – warum ist es so schwer, einen Holzweg zu verlassen? Muß man dich wirklich erst an die Hand nehmen und mit Gewalt davon herunterzerren?Dann lass es mich so ausdrücken, es wird der Inhalt des Bildes und die menschliche Wahrnehmung berücksichtigt.
... aber eben nicht nur auf Grund der Redundanz der Binärzahlen, sondern auch aufgrund des Inhalts des Bildes.
Der Algorithmus ist natürlich immer gleich, aber je nach Bildinhalt ist die Kompression unterschiedlich, aber eben nicht nur auf Grund der Redundanz der Binärzahlen, sondern auch auf Grund des Inhalts des Bildes. Es ist halt ein Kompressionsalgorithmus, der je nach Bildinhalt unterschiedlich stark wirken kann.
Gott sei Dank!Ich geb's auf.
Hey,
seit geraumer Zeit stelle ich mir folgende Frage: Wieso unterscheidet sich immer wieder die Dateigröße meiner Raw Bilder (in meinem Fall Samsung NX300)? Da hier keine Kompression angewendet wird
pentuwe, wovon du redest, sind die wie vorher schon erwähnt die verlustbehafteten Kompressionsverfahren, dort werden tatsächlich (z.B. bei Jpg) Informationen weggelassen/zusammengefasst, weil man sie bei der Verwendung der Datei (z.B. feine Farbabstufungen) nicht benötigt.
Aber bei Raw, und darum ging ja der ursprüngliche Thread, geht es normalerweise um verlustfreie Kompressionsverfahren. Und da liegen 01af und die anderen richtig, da ist der Art der Information egal, es findet keine Inhaltsalanlyse statt.
Und ob man jetzt die verlustbehafteten Verfahren mit "verstehen den Bildanhalt" interpretiert oder mit "ist auch ein fester Algorithmus, der einfach 3 ähnliche Farbenwerte immer zusammenfasst bei einer bestimmten Kompressionsstufe" ist IMHO nur ein Unterschied in der Begriffsauslegung aber nicht im Inhalt.
Das ist aber bei der JPEG-Kompression nicht so. Der Algorithmus, der abläuft, ist bei gleicher Kompressionsstufe immer derselbe.So ist es.
Und das bedeutet für mich, dass der Bildinhalt bei der Kompression eine Rolle spielt.
Eben. Weil der Algorithmus immer derselbe ist und eben nicht das Bild analysiert, funktioniert er je nach Bildtyp unterschiedlich gut.Siehe Wikipedia Artikel:
(Zitat: "Die Qualität hängt aber neben der Kompressionsrate noch von der Art der Bilder ab.").
(Zitat: "Die JPEG-Kompression ist für natürliche (Raster-)Bilder entwickelt worden, wie man sie in der Fotografie......vorfindet.")
Eben. Weil der Algorithmus immer derselbe ist und eben nicht das Bild analysiert, funktioniert er je nach Bildtyp unterschiedlich gut.
Die Verlustfreien interessieren nur die nackten Binärwerte ob diese z.B. aufeinanderfolgend identisch sind, sie wiederholende Binärfolgen enthalten usw. Denen ist es in der Regel auch völlig wurscht was das für Daten sind die sie Komprimieren sollen.
Jedes Kompressionsverfahren wendet "einfach nur einen Algorithmus" an - da sitzt kein kleiner Japaner drin, der nach Bauchgefühl oder Wetterlage entscheidet.
Falsch (s.o.) es gibt eben durchaus kontextorientierte verlustfreie Kompressionsalgorhithmen, die nicht nur einen Algorithmus anwenden, sondern auch kontextspezifische Kenntnisse. Stichwort "FLAC" (Audio Kompression).
Endlich jemand, der es versteht......, wobei es bei den kontextorientierten Kompressionsalgorithmen eben sowohl verlustfreie als auch verlustbehaftete Verfahren geben kann.