Das Originalbild einer Digitalkamera ist unscharf, und muss es leider sein. Vor dem Sensor liegt ein Antialisingfilter (oder so), das zu einer leichten Streuung führt. Dieses ist nötig, weil sonst - anders als beim Film - wegen der regelmässigen Anordnung der Sensoren starkes Moiré auftreten kann. Nikon verwendet bei der D70 ein schwächeres Filter und ist deshalb schärfer als andere 6MP-Kameras, aber auch deutlich anfälliger auf Moiré. Bei Mode- und Architekturaufnahmen kann das u.U. sehr störend werden.
Ein zweiter Grund ist, dass ein einzelner Sensor nur Rot, nur Grün oder nur Blau "sieht". Das ist das, was in der RAW-Datei enthalten ist. Für das endgültige Bild werden für jeden Pixel die Helligkeiten der jeweils anderen Farben aus den benachbarten Pixeln errechnet (RAW-Konvertierung). Ein einzelner Pixel enthält also Informationen aus mehreren Pixeln, und das Bild kann so nicht ganz scharf werden. Aber so wie die NASA unscharfe Bilder "knackig" macht, kann man das auch auf dem heimischen PC (oder auch kameraintern). Das Problem besteht darin, die für das betreffende Bild optimalen Parameter zu finden.
Die Ausnahme sind die Foveon-Sensoren in den Sigma-Kameras. Bei denen besteht jeder Pixel aus drei in der Tiefe gestafelten Sensoren, mit denen für jeden Bildpunkt direkt die entsprechenden Rot-, Grün- und Blauwerte bestimmt werden. Sie haben zwar bisher nur knapp über 3MP, sind aber Pixel für Pixel gesehen deutlich besser als die andern.
Ein anderer limitierender Faktor beim "Knackeffekt" ist der maximal erfassbare Kontrast. Hier sind die Super-CCD-Sensoren von Fuji (Modelle S2 und S3, mit Nikon-AF-Bajonett) den andern mess- und sichtbar überlegen (1 bis 1.5 Blendenstufen). Jeder Bildpunkt hat einen grossen Sensor für den unteren und mittleren Helligkeitsbereich und einen kleinen für die Lichter. Diese Kameras werden wegen der besten Hauttonwiedergabe gerne von Porträtfotografen verwendet.
Mal schauen, was in Zukunft noch so kommt!
Gruss
Martin