• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

D200 NEFs?

@Bernie: Woher diese extreme Ablehnung von Lossy Compression? Eigentlich alle modernen Codecs (jpg, jpeg2k, mpeg, h264, mp3, aac, Vorbis und noch viele mehr) setzen darauf - Mit guten Grund: Es macht ABSOLUT GARNICHTS aus wenn überflüssige Informationen verworfen werden, solange die wichtigen erhalten bleiben und das bleiben sie bei compressed NEF jawohl eindeutig - Sonst hätte ja mal jemand ein Beispielbild für die mieße Qualität liefern können...
 
@ Bernie,
gibt es also deiner Erfahrung bzw. Kenntnis nach eine verlustlose RAW-Komprimierung ??

Das die D70 immer die verlustbehaftete RAW-Komprimierung anwendet, wußte ich vor diesem Thread nicht (ich habe mit der D200 auch erst meine erste DSLR, und da ist es eben anders). Und zu Zeiten, als die D70/D70S ganz neu waren, war Speicherkartengröße sicherlich ein größeres Thema als heute (habe gerade eine sehr schnelle 4GB-Karte für 116 Euro inkl. Versand bestellt !!!!).

Aber mal abgesehen von RAW: JPG ist ständig in Benutzung und ist für eigentlich Jedermann nachvollziehbar beliebig stark verlustbehaftet. Und hat sich so voll etabliert und durchgesetzt (wer kennt noch JPG2000 mit besserer Komprimierung?).
 
MREX schrieb:
kann mir einer von Euch sagen, wo man ein paar NEFs aus einer Nikon D200 findet, oder mir per PM ein 1 oder 2 zur Verfügung stellen. Bitte plus Angabe des Objektives.
läuft das ganze hier nicht gar off topic?
ich würde mich übrigens schon auch sehr für ein paar links zu nefs von der d200 freuen... ;)
 
Maximum an Qualität... ;) Wo denn? Am Bildschirm? Die Wahrheit liegt auf dem Papier und da machen die geringen Unterschiede rein gar nix aus.

Wird Zeit das man endlich Monitore ins Album kleben kann, da kann man dann auch gerne mal auf 200% vergrössern und sich über angeblich supergrosse minimalste Unterschiede aufregen die eine "lossy" Kompression hervorruft.

Bis dahin bleibt es einfach Pixelpeeperbohei. :ugly:
 
Kosmo gut gesagt. Ich hab eine total verrauschte 1600er Aufnahme. Im Print sieht man kaum was davon. Eine entsprechender Film hätte viel schlimmer ausgesehen. Aber die Leute achten nichtmehr auf Ergebnis 8(
 
Ich hätte auch sehr gern 1-2 NEFs einer D200. Würde mich mal interessieren.
Wenn es an Webspace oder Traffic mangelt, mich anfunken.
 
@Fantasizer und Nasan

Ich weiß nicht, warum und was Ihr da dauernd von JPEG usw. daherschwafelt.

Daß die verlustbehaftete Komprimierung von NEF zu unterschiedlichen Bildresultaten führt, hat ein Nikon Fotograf im Netz bereits zur Genüge bewiesen. Daß diese Resultate nur in Extremfällen zu Einbußen führen, ist unbestritten. Ebenso ist unbestritten, daß JPEG zu wesentlich größeren Verlusten führt und trotzdem ein anerkanntes Dateiformat ist.

Darum geht es hier überhaupt nicht.

Nikon komprimiert im Gegensatz zu allen anderen Herstellern die NEF nicht verlustfrei. Diese Entscheidung ist eine Fehlentscheiden, da sie finanziell keinen Unterschied in der Entwicklung macht (beide Algorithmen sind ähnlich komplex zu implementieren). Es hätte auch überhaupt keinen Unterschied gemacht, die NEF verlustfrei zu komprimieren.

Warum muß man das hier immer krampfhaft relativieren? Das ist eine Fehlentscheidung von Nikon - nicht mehr und nicht weniger. Wer von Euch keinen Unterschied sieht oder lieber mit JPEG arbeitet, möge das tun und glücklich werden.

Ich sehe zwar i.d.R. keine Unterschiede (Gott behüte, dann würde ich noch ganz anders schimpfen), aber mich stören solche Nachlässigkeiten. Es wäre nicht notwendig gewesen.


Zurück zum OP. NEF Bilder.
Da hat mich vor zwei Wochen einmal hier ein User wg. NEF Bildern einer bestimmten D200 und Nikkor Kombination angesudert. Ich habe ihm die dann auch wunschgemäß gemacht und geschickt, was bitteschön ein gewisser Aufwand in meiner ohnehin knapp bemessenen Freizeit war. Der User hat sich weder bedankt noch sonstwie gemeldet. D.h. von mir gibt es dieses Entgegenkommen nicht mehr und so wirds wohl vielen anderen auch gehen.
 
Ok, dir geht es also nur darum das compressed NEF schlecht ist. Gut wenn Leute nicht bereit sind Argumente anzunehmen kann ich mich ausklinken und den Thread wieder mehr ot gehen lassen.
 
Vorweg, ich bin Canon Knipser ;)
Ob es eine Fehlentscheidung war, würde ich so mal nicht unterschreiben, ohne die Rahmenbedingungen zu kennen.
Folgendes Gegenargument: ZIP-artige Codierungen sind zwar schön platzsparend, haben aber ein hohes Risiko: ein einziges gekipptes Bit kann das gesammte Bild kompromitieren. Wenn nun Nikon ein anderes Verfahren gewählt hat, dann kann es auch diesen Hintergrund gehabt haben. Ich würde mich auf jeden Fall ziemlich ärgern, wenn ich wegen eines gekippten Bits mein Bild nicht mehr aufmachen kann. Im unkomprimierten, bzw "anders" komprimierten Verfahren stört mich ein gekipptes Bit eigentlich gar nicht, ich werde es mit höchster Wahrscheinlichkeit nicht einmal bemerken.
Wie gesagt, ich will das nur zu bedenken geben, ich denke, dass Nikon diese Art der Komprimierung nicht ohne Überlegung gewählt hat.
 
mrdigital schrieb:
Folgendes Gegenargument: ZIP-artige Codierungen sind zwar schön platzsparend, haben aber ein hohes Risiko: ein einziges gekipptes Bit kann das gesammte Bild kompromitieren.

Stichwort CRC

Deine Bedenken stimmen schon grundsätzlich, sind aber nicht neu.
 
BernieF schrieb:
Stichwort CRC

Deine Bedenken stimmen schon grundsätzlich, sind aber nicht neu.
Und? Mit der CRC weiss ich dass mein Bild kaputt ist, kann es aber auch nicht mehr wiederherstellen. Wenn die CRC aber so gebildet wird, dass ich wieder 1 Bit Fehler korrigieren kann, dann ist mein Vorteil der Komprimierung wieder flöten (vor allem will ich bei 120 Millionen Bits vielleicht mehr als nur einen 1 Bit Fehler korrigieren können. Das macht dann eben eine so große CRC nötig, dass es widersinnig wird.
Ich will damit nur sagen, dass die Entscheidung nicht "die dümmste und bescheuertste" aller Zeiten ist ;) Ohne die weiteren Argumente von Nikon zu kennen, würd ich das so auf jeden Fall nicht sagen :)
 
mrdigital schrieb:
Und? Mit der CRC weiss ich dass mein Bild kaputt ist, kann es aber auch nicht mehr wiederherstellen. Wenn die CRC aber so gebildet wird, dass ich wieder 1 Bit Fehler korrigieren kann, dann ist mein Vorteil der Komprimierung wieder flöten (vor allem will ich bei 120 Millionen Bits vielleicht mehr als nur einen 1 Bit Fehler korrigieren können. Das macht dann eben eine so große CRC nötig, dass es widersinnig wird.

mit einem einzigen Parity Bit kannst Du ein umgefallenes Bit pro Byte korrigieren usw. Auch das ist nicht neu und ich mach jetzt aber keinen Grundkurs Algorithmen und Datenstrukturen hier im Fotoforum.

Der Rest ist außerdem eine Frage der Wahrscheinlichkeit (ob mehr als ein Bit umfällt). Läßt sich ebenfalls berechnen und auch dafür ist das Wissen schon Jahrzehnte alt.


mrdigital schrieb:
Ich will damit nur sagen, dass die Entscheidung nicht "die dümmste und bescheuertste" aller Zeiten ist ;) Ohne die weiteren Argumente von Nikon zu kennen, würd ich das so auf jeden Fall nicht sagen :)

Ist es schon, weil es alle anderen auch können und deswegen trotzdem keine Probleme haben. Solltest Du ja als Canon Shooter wissen!

Also okay, es ist nur relativ gesehen eine Fehlentscheidung - einverstanden?
:)
 
BernieF schrieb:
...
Ist es schon, weil es alle anderen auch können und deswegen trotzdem keine Probleme haben. Solltest Du ja als Canon Shooter wissen!

Also okay, es ist nur relativ gesehen eine Fehlentscheidung - einverstanden?
:)
Naja ob und wie die Canons das Problem gelöst haben, weiss ich nicht, aber wenn sie "nur" gezippt haben, haben sie das Risiko des Datenverlustes offensichtlich anders bewertet als Nikon (aber damit haben sie das Problem ja nicht "gelöst").
Aber was mach ich hier, ich will hier nicht als glühender Verfechter von Nikons Dateiformaten gelten, im Gegenteil, ich finde es eher sogar eine Frechheit, dass die darüber Nachdenken, die RAWs zu verschlüsseln (sind nicht die Weissabgleichinfos bei der D2X schon verschlüsselt?)
 
BernieF schrieb:
mit einem einzigen Parity Bit kannst Du ein umgefallenes Bit pro Byte korrigieren usw. Auch das ist nicht neu und ich mach jetzt aber keinen Grundkurs Algorithmen und Datenstrukturen hier im Fotoforum.

Das waren noch Zeiten *träum* Algorithmen im Grundstudium, aber die obige Aussage ist so nicht richtig. Du brauchst "horizontal" und "vertikal" ein Parity Bit. Mit einem ganz Du nur sagen: das Byte ist falsch. (CRC und ECC ist nicht das gleiche)
Das heißt zum Beispiel: Für 64Bits bräuchtest du 16Bits parity und kannst damit einen Fehler pro 8 Bit korrigieren.

Aber das tut zum eigentlichen Thema absolut nichts zur Sache.

Gruss: Olli
 
Ich wollte ja nix mehr schreiben, aber das war doch etwas zu falsch um es unkommentiert stehen lassen zu können...

BernieF schrieb:
mit einem einzigen Parity Bit kannst Du ein umgefallenes Bit pro Byte korrigieren usw. Auch das ist nicht neu und ich mach jetzt aber keinen Grundkurs Algorithmen und Datenstrukturen hier im Fotoforum.

Mit einem Paritybit kannst du GARNICHTS korrigieren. Du weißt nur das irgendwo in deinem Datenwort eventuell ein Bitfehler ist. Dies ist nichtmal sicher, da bei gerader Anzahl an Bidrehern das Parity STIMMT. Wenn man Fehler korrigieren können möchte muß man zu recht Platzteuren Codings wie Reed-Solomon greifen (typisch 15% mehr an benötigtem Platz um 16 Fehler in einem 223 Byte-Block korrigieren zu können).
 
Nasan schrieb:
IMit einem Paritybit kannst du GARNICHTS korrigieren.

Ach Gott, Nasan meldet sich doch wieder zu Wort...

Aber er hat Recht - muß man ihm neidlos zugestehen. Ollima war aber schneller.
 
WERBUNG
Zurück
Oben Unten