• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Sigma 3-D look

hmm, und wo bleibt jetzt noch Platz für den unglaublichen 3-D Look? :)
Man muss sich ja nicht gleich wieder ironisch über andere lustig machen. Fakt scheint, dass der Foveon Sensor wohl für bessere Kantenschärfe bei geringeren Schärfeartefakten sorgt, und somit Objekte gegenüber dem Hintergrund besser freistellt. Nicht umsonst nutzt man in der Bildbearbeitung Unschärfe/Blur um übereinander gestapelte Motive miteinander zu verbinden.

Zusätzlich ist es gut vorstellbar, dass die höhere Auflösung für blaue und rote Farben den räumlichen/plastischen Eindruck der Bilder verstärkt. Bayer-Sensoren sind gerade auch bei letzterem bei der Darstellung feiner Strukturen eingeschränkt, da sie immer aus den umliegenden Pixeln interpolieren müssen, diese sind aber meistens Grün.

Ich bin ja noch nicht lange in diesem Forum unterwegs, aber der Tonfall macht hier keine besonders harmonische Musik.
 
Man muss sich ja nicht gleich wieder ironisch über andere lustig machen. Fakt scheint, dass der Foveon Sensor wohl für bessere Kantenschärfe bei geringeren Schärfeartefakten sorgt, und somit Objekte gegenüber dem Hintergrund besser freistellt. Nicht umsonst nutzt man in der Bildbearbeitung Unschärfe/Blur um übereinander gestapelte Motive miteinander zu verbinden.

Zusätzlich ist es gut vorstellbar, dass die höhere Auflösung für blaue und rote Farben den räumlichen/plastischen Eindruck der Bilder verstärkt. Bayer-Sensoren sind gerade auch bei letzterem bei der Darstellung feiner Strukturen eingeschränkt, da sie immer aus den umliegenden Pixeln interpolieren müssen, diese sind aber meistens Grün.

Ich bin ja noch nicht lange in diesem Forum unterwegs, aber der Tonfall macht hier keine besonders harmonische Musik.
Mutmassungen helfen aber auch nicht weiter :D
Eine kleine Prise Ironie hier und da hat noch keiner Diskussion geschadet und ganz offensichtlich kann feuervogel damit gut umgehen.

Grüße Ingo
 
ingo: na dann, kompliment! ;-) aber zwischen einem hingesagtem "ja" und echter erfahrung liegt möglicherweise eine grauzone, die du nicht ganz einschätzt.
Naja, was erwartest du? Ich kann ja schlechterdings den Standpunkt vertreten, der Sensortyp wäre egal und dann sagen, man könne irgendwelche Fotos nur mit dem Foveon machen :ugly: :D

Grüße Ingo
 
Damit hast Du den Sigmavorteil eliminiert...zumindest, wenn man den Argumenten der Sigmaleute im Thread glauben darf:

1. entzerrung führt zu Interpolation...damit ist die relative Interpolationsfreiheit der Sigmadaten dahin

2. nachschärfen erzeugt die Halos, die ja beim Foveon im Vergleich zum Bayer sehr gering sind.
Zu
1. Zu meinen ein Sigma-RAW sei das, was der Sensor aufzeichnet, ist eine verbreitete Meinung, aber im Detail nicht haltbar. Wenn ich mir RAWs der Sd9 ansehe, die mit unterschiedlichen ISO aufgezeichnet wurden, kann man erkennen, dass eine gewisse Weichzeichnung/Rauschunterdrückung bei höheren ISO anscheinend schon in der Kamera stattfindet. Der Effekt läß0t sich unabhängig vom Konverter beobachten.
Grundsätzlich ist ein RAW immer ein Rohmaterial, dem sich ein komplexer Workflow anschließt. Zumindest ist das so, wenn man ein optimales Bildergebnis erwartet. Dazu gehört auch Objektivfehler zu vermindern.
2. Was meinst du, was für hübsche Artefakte beim Schärfen mit SPP entstehen? Schärfe "0" in SPP heißt lange nicht, dass nicht geschärft wird.
Smartsharpen in CS2 ist m.M. eine sehr geeignete Methode um feine Details halofrei herauszuarbeiten -- überhaupt nicht mit USM zu vergleichen.

M.M. nach hat der Foveon einen Vorteil durch den geringeren Pixelpitch. Dadurch erzielt man auch mit weniger hochwertigen Objektiven Bilder mit hohen Mikrokontrasten. Ähnlich wie das beim Vergleich 5D--400D auffällt. Nach meinem Gefühl ist auch die Eingangsdynamik besser -- jedenfalls muß ich bei der D80 viel sorgfältiger auf die Lichter achtgeben damit ich bspw. an Wolken oder leuchtenden Blumen keine ausgefressenen Bereiche habe.

Zu dem besonderen "Pop" oder "3D-Effekt" der Bilder trägt aber auch SPP entscheidend bei -- konvertiert man die X3Fs mit ACR sehen sie deutlich flacher aus, was m.M. mit einer steilen Tonwertkurve im Bereich der Lichter zusammenhängt (SPP).

Nach meinen bisherigen Erfahrungen mit der D80 kann ich jedenfalls mindestens ebenso scharfe und detailreiche Bilder wie mit der SD9 machen. Und die Farbwidergabe ist eine andere Klasse.

VG Eberhard
 
Mutmassungen helfen aber auch nicht weiter :D
Solange wir hier keine wissenschaftlichen Untersuchungen anstellen, mit konkret vergleichbarem Material, bleibt mir wohl nur übrig im Konjunktiv zuschreiben. Die Diskussion ist hier im Forum ja ausdrücklich gewünscht worden. Ich kann sowohl der Argumentation des Herstellers, als auch dem physikalisch-theoretischem Hintergrund folgen, und halte diese für schlüssig. Inwieweit das konkrete Auswirkungen auf ausgedruckte Fotos hat, lasse ich dahingestellt (vor allem wenn man Randlosdruck/Interpolation am eigenen Tintenstrahler nutzt). In den hier veröffentlichten Bildern sind die Unterschiede aber bei genauer Betrachtung (Pixelpeeping) durchaus erkennbar. Und es ist nicht grundsätzlich von der Hand zu weisen, dass diese - vielleicht eher subtil als bewusst - auch bei normaler Betrachtungsweise der Bilder von Augen und Hirn als plastischer wahrgenommen werden.

Auf der anderen Seite zeigen auch die Sigma Bilder Schärfungsartefakte, teils jedoch in anderer Form (weniger diffus). Und es ist ebenso möglich, dass bei normaler Betrachtungsweise doch nicht mehr so viel vom Effekt übrig bleibt, wie propagiert. Schon garnicht nach extensiver Bildbearbeitung, wenngleich besseres Ausgangsmaterial auch zu besserer Verarbeitung führt. Der propagierte 3D-Effekt ist nicht alleine auf Bokeh zurüchzuführen, sondern auf ein Zusammenspiel aus sowohl Licht und Bokeh, als auch spezielle Sensorverarbeitung mit gegenüber Bayer-Sensoren anderer Farb- und Linienaufteilung.

Eine kleine Prise Ironie hier und da hat noch keiner Diskussion geschadet und ganz offensichtlich kann feuervogel damit gut umgehen.
Auf jeden Fall, aber soweit ich bisher mitgelesen habe, wurde in dieser Diskussion bereits mehr als einmal mehr mit Schrot als mit Ironie geschossen. Vor allem wurde immer wieder versucht die Seite der Foveon/Sigma-Befürworter als inkompetente Foto-Noobs darzustellen, welche die technisch durchaus überlegene Foveon-Technik nur als "Mein Auto ist schöner als Dein Auto" Ersatz bräuchten.

Ich kenne die Grenze der Wahrnehmung von Auge und Gehirn in diesem Bereich nicht, aber die Grenze von kumpelhafter Ironie und beleidigender Diffamierung ist in diesem Forum leider oft fließend. Es hat nur wenige Tage Mitgliedschaft gebraucht, um das deutlich mitzubekommen. Insgesamt sollten alle mal ein wenig den Ball flachhalten, und sich nicht ständig gegens Schienbein treten. :ugly: :cool:
 
M.M. nach hat der Foveon einen Vorteil durch den geringeren Pixelpitch. Dadurch erzielt man auch mit weniger hochwertigen Objektiven Bilder mit hohen Mikrokontrasten.
Im Zusammenhang ist auf einen Punkt noch garnicht eingegangen worden, der z.B. bei der Cleartype Technik unter Windows zum Einsatz kommt. Jede Aneinanderreihung von Rot, Grün und Blau ergibt Weiß bzw. Grau, unabhängig von der Reihenfolge. Das bedeutet das bei entsprechender Verarbeitung noch wesentlich mehr Informationen aus den Subpixeln extrahiert werden können bzw. die Kanten nicht nur an vollen Pixelgrenzen, sondern auch an Subpixelgrenzen dargestellt werden können.

Das heißt anhand eines Beispieles (eine 1 Pixel breite diagonale Linie):

Kante an Pixelgrenze:
Code:
RGBRGBRGB
---------
XXX   
XXX   
   XXX   
   XXX   
      XXX
      XXX
Kanten an Subpixelgrenze:
Code:
RGBRGBRGB
---------
XXX   
 XXX   
  XXX   
   XXX   
    XXX
     XXX
      XXX
 
Wohl wahr. Speziell in Diskussionen, wo es mehr um Glauben, als um Fakten geht (und vieles deswegen im Konjunktiv geschrieben werden muss).

Grüße Ingo
Gruß zurück!

Wir sind hier (fast) alle keine Physikwissenschaftler, und müssen uns unser theoretisches Wissen fast ausschließlich aus dem Internet und Popularwissenschaftlichen Werken bzw. Anleitungen herausextrahieren, plus eine Portion Denkschmalz, die selbst in der hohen theoretischen Physik schon so manche Wahrheit zutage getragen hat. Niemand wird gezwungen an solchen Diskussionen teilzunehmen. Zumindest von mir wurde versucht einigermaßen fundierte Beobachtungen und Schlussfolgerungen zu ziehen, die sich unabhängig vom "Glauben" kritisch mit beiden Seiten auseinandersetzt. Als vernünftiger Mensch, der keine hohlen Glaubenskriege ausfechten will, hätte man nun Gelegenheit sich kritisch und durchdacht mit der angebotenen Argumentation auseinanderzusetzen. Letztendlich könnte man mir übrigens vor allem vorwerfen, dass ich noch nicht mal eine DSLR besitze. Aber vielleicht macht mich das auch neutraler in der Diskussion, ich habe nämlich nichts zu verlieren ("Wie, die reden mir jetzt mein teures Spielzeug schlecht? Saubande!")

Wenn es aber tatsächlich so sein sollte, dass es hier garnicht um eine kritische Auseinandersetzung mit einer interessanten Technik, sondern nur um Glaubensbekenntnisse geht, dann überlasse ich das Feld lieber wieder den Predigern. Hab ja noch anderes zu tun, als nur die Meute zu unterhalten... :cool:
 
... die Kanten nicht nur an vollen Pixelgrenzen, sondern auch an Subpixelgrenzen dargestellt werden können.
Und wie stellst du deinen "Subpixel" dar?

Übrigens sind die Bayer-Filter ja keine steilflankigen, engbandigen Filter -- dann hätte man viel zu hohe Licht- und Empfindlichkleitsverluste. Die Filter sind flach und erst durch komplexe Verrechnung enstehen RGB-Werte. Die Luminanz-Auflösung ist deutlich höher als die Auflösung der einzelenen Farbkanäle.

Beim Foveon ist das ähnlich, auch dort ist die Farbseparation in der Hardware eher schwach und wird erst durch die Software vollendet und an die Ausgabe-Farbräume angepasst. Das berüchtigte großskalige Farbrauschen kommt zum guten Teil erst durch Probleme bei der Software-Farbseparation zu stande (und wohl durch zu geringe Belichtung der "Blau"-Sensoren bei schwachem und eher langwelligem Licht), wobei SPP 3 die Aufgabe deutlich besser meistert als SPP 2.1.

VG Eberhard
 
Und wie stellst du deinen "Subpixel" dar?
Das hängt vom Ausgabeformat ab bzw. dessen Auflösung. Aber auf Pixelebene funktioniert das so mit dem Beispiel von oben:

Code:
RGBRGBRGB
---------
XXX       <- entspricht einem weißen Pixel, mit zwei schwarzen Pixeln
 XXX      <- entspricht einem türkisen Pixel, mit einem roten und einem schwarzen
  XXX     <- entspricht einem blauen Pixel, mit einem gelben Pixel und einem schwarzen
   XXX    <- entspricht einem schwarzen Pixel, mit einem weißen und einem schwarz
    XXX   <- usw...
     XXX
      XXX
Für das Auge ergibt die Aneinandereihung mehrerer Subpixel einfach Weiß/Grau. Auch folgendes Beispiel wäre ein durchgehender weißer Pixel, nur breiter und nicht an Pixelgrenzen, sondern Subpixelgrenzen beginnend/endend:

Code:
RGBRGBRGB
---------
  XXXX
Bei der Monitordarstellung mit Cleartype ergibt sich dabei das Problem, dass rote und blaue Kanten gegenüber Schwarz und Weiß ausfransen können. Das entsteht hauptsächlich dadurch, dass bei TFTs zwischen jedem blauen und rotem Subpixel ein größerer Abstand ist, als zwischen den anderen.
 
Zuletzt bearbeitet:
Ich hab hier jedenfalls noch nicht ein einziges Beispiel gesehen, wo der Sensortyp dazu beigetragen hätte, ein Bild plastischer oder "3D-mäßiger" wirken zu lassen.

Ich denke das ist hier im Forum auch unmöglich (Upload 500kB, 0,8 MPx und Komprimierung). Ich finde überhaupt die Beschreibung 3-D-Look nicht zutreffend. Ich habe heute ein Foto meines Onkels ausgedruckt (A3) welches mein Bruder mit einer SD10 aufgenommen hat. Nun das Bild ist so plastisch -WOW. Hier zeigen geht aber schlecht.

Es hat auch wenig Sinn eine physikalische Erklärung zu suchen und seitenlang darüber zu diskutieren. Wer es nicht sehen will - sieht es nicht. Für mich ist es aber der entscheidende Unterschied! Trotzdem bin ich auch von der R1 begeistert. Sie gleicht viele Dinge aus, die die Sigma nicht kann. Und ich kann sogar sehr gut nachvollziehen, dass einige Sigma den Rücken kehren, weil sie z.B. bei available Light fotografieren. Ich fotografiere gern Landschaft und Portrait. Und da kann ich aus Erfahrung sagen macht Foveon einen sichtbaren Unterschied!
 
Zu
1. Zu meinen ein Sigma-RAW sei das, was der Sensor aufzeichnet, ist eine verbreitete Meinung, aber im Detail nicht haltbar. Wenn ich mir RAWs der Sd9 ansehe, die mit unterschiedlichen ISO aufgezeichnet wurden, kann man erkennen, dass eine gewisse Weichzeichnung/Rauschunterdrückung bei höheren ISO anscheinend schon in der Kamera stattfindet. Der Effekt läß0t sich unabhängig vom Konverter beobachten.
Grundsätzlich ist ein RAW immer ein Rohmaterial, dem sich ein komplexer Workflow anschließt. Zumindest ist das so, wenn man ein optimales Bildergebnis erwartet. Dazu gehört auch Objektivfehler zu vermindern.
2. Was meinst du, was für hübsche Artefakte beim Schärfen mit SPP entstehen? Schärfe "0" in SPP heißt lange nicht, dass nicht geschärft wird.
Smartsharpen in CS2 ist m.M. eine sehr geeignete Methode um feine Details halofrei herauszuarbeiten -- überhaupt nicht mit USM zu vergleichen.

M.M. nach hat der Foveon einen Vorteil durch den geringeren Pixelpitch. Dadurch erzielt man auch mit weniger hochwertigen Objektiven Bilder mit hohen Mikrokontrasten. Ähnlich wie das beim Vergleich 5D--400D auffällt. Nach meinem Gefühl ist auch die Eingangsdynamik besser -- jedenfalls muß ich bei der D80 viel sorgfältiger auf die Lichter achtgeben damit ich bspw. an Wolken oder leuchtenden Blumen keine ausgefressenen Bereiche habe.

Zu dem besonderen "Pop" oder "3D-Effekt" der Bilder trägt aber auch SPP entscheidend bei -- konvertiert man die X3Fs mit ACR sehen sie deutlich flacher aus, was m.M. mit einer steilen Tonwertkurve im Bereich der Lichter zusammenhängt (SPP).

Nach meinen bisherigen Erfahrungen mit der D80 kann ich jedenfalls mindestens ebenso scharfe und detailreiche Bilder wie mit der SD9 machen. Und die Farbwidergabe ist eine andere Klasse.

VG Eberhard

Ich finde Dein SD9 Bild einfach qualitativ schlecht und als Beispiel nicht geeignet. Es lag zweifellos am Objektiv.

Wenn der Schärferegler in SPP auf -0,7 steht, dann findet keine Schärfung statt. In der Regel sehen dann SD9 Bilder in 100% immer noch top aus.
 
Was die Leute so alles unter "Foveon" verstehen - ts, ts, tsss :lol:
Wenn das eine Belehrung sein soll, dann fehlt die Erläuterung, die das Prinzip des Foveon-Sensors gegenüber meiner angeblich falschen Analogie korrigiert, statt mich für meine Bemühungen auszulachen. Bleibt mal'n bischen sachlich, Jungs! :cool:

Zur Verdeutlichung des Foveon-Prinzips bzw. des Aufbau Sensoraufbaus dürfte folgendes Bild von Foveon beitragen. Sie verdeutlicht auch gleich, warum Bayer-Sensoren pro Pixel nur eine (1!) Grundfarben-Information enthalten, und den Rest der Chrominanz-Darstellung aus den umliegenden Pixeln interpolieren müssen. Dabei werden die Luminanz-Informationen zwar tatsächlich aus jedem Pixel einzeln gewonnen, die Grünen Pixel tragen aber meines Wissens nach den Hauptanteil der späteren Lichtberechnung. Grob gesagt wird dabei - wie z.B. auch bei der Videokodierung (YUV422 etc.) -berücksichtigt, dass das menschliche Auge für Grüntöne wesentlich empfindlicher ist als für Blau und Rot. Deshalb befinden sich auch doppelt soviele Grünpixel auf dem Bayer-Sensor (und deshalb wird auch beim Anheben der Farbintensivität an modernen Fernsehern und TFT i.d.R. der Grünanteil am wenigsten angehoben, und der Blauanteil am stärksten).

Bei Schwarz/Weiß Bildern ist die Auflösung des Bayer-Sensors übrigens größer als die des Foveon-Sensors, da hierbei die Luminanz-Informationen aller Pixel genutzt werden können, unabhängig von deren Chrominanz-Information. Das Ergebnis hängt natürlich auch wieder vom genutzten Umrechnungsalgorithmus ab, aber alle Kameras und RAW-Konverter sollten damit eigentlich keine Probleme haben, sofern sie nicht erst das bereits interpolierte Farbbild, sondern direkt die Sensor-Informationen umrechnen.

PixelLocation.gif


Wie man dort gut erkennen kann, wird das Licht durch drei Filterschichten geleitet, und so pro Lichtpunkt/Pixel ein RGB-Triplet erzeugt. Im Gegensatz zum TFT liegen die Filterschichten auf dem Sensor zwar nicht nebeneinander sondern übereinander, am PC werden sie vom Monitor jedoch nebeneinander dargestellt (bei Deinem CRT in Dreiecksforms, siehe unten). Zur Veranschaulichung habe ich mir die Mühe gemacht, das obere Bild um 90 Grad zu drehen (siehe Bildanhang). Oh Wunder der mordernen Technik! :top:

Und so sieht es aus wenn ein CRT "immer interpoliert" ?
Tatsächlich, so sieht es aus! Hier zwei Bilder, die Dir nochmal verdeutlichen, was Du da überhaupt auf Deinem Monitor siehst. Ich weiß nicht ob CRT das Bild durch tatsächlich berechnete Interpolation auf die Lochmaske verteilen. Evtl. schießen sie einfach den Kathodenstrahl Richtung Leuchtschicht, und die erledigt den Rest. Der Smiley ist exakt 15 Pixel breit, auf Deinem CRT wird er aber durch 23 Triplets (RGB-Subpixel) dargestellt. Zudem sind die Triplets dreieckig angeordnet, während Pixel eigentlich quadratisch sind. Wie man deutlich erkennt, hat der CRT deshalb Probleme die eigentlich tiefscharzen Bereiche richtig darzustellen, da er von 15 auf 23 Pixel "interpolieren" muss, und mit seiner dreieckig angeordneten Lochmaske keine exakten Pixelreihen darstellen kann. Entsprechend werden nur Näherungswerte erreicht, das Bild ist nicht scharf!

Die Anordnung ist auch der Grund, warum Cleartype an CRTs nicht richtig funktioniert, die Technik geht von einer horizontalen Anordnung der Subpixel aus. Bei Deinem CRT entspräche ein Pixel aber einem Dreieck (siehe unten), sofern man die Auflösung des CRT überhaupt genau treffen könnte. Faktisch ist das aber unmöglich, da kein CRT eine perfekte Geometrie (exakt gerade Linienführung über die gesamte Bildfläche) erreicht, und die Ausgabe der Grafikkarte eben von quadratischen Pixeln ausgeht. Ganz abgesehen davon, dass die Pixelabstände der Lochmaske am Randbereich in der Regel größer sind als in der Bildmitte.

Was ist Interpolation ? Hab´ da wohl mal was Falsches gelernt...
Bei der Bilddarstellung spricht man meiner Erfahrung nach immer dann von Interpolation, wenn pixelbasiertes/gerastertes Bildmaterial von seiner Orginalgröße/Auflösung auf kleinere oder größere umgerechnet werden muss. Im einfachsten Fall nutzt man Pixeldoppelung (wie ich zur Vergößerung der Smileys), das geht aber eigentlich nur bei ganzzahligen Teilern/Multiplikatoren ohne Verzerrungen. Photoshop bietet daneben verschiedene bilineare und bikubische Algorithmen an. Das kann aber auch mal gehörig daneben gehen, wie man am Ergebnis des "zerflossenen Smiley" unten sieht. Die Schärfe Deines Monitorbildes ordne ich zwischen exaktem und zerflossenem Smiley ein. Der Algorithmus hinter dem Bayer-Sensor arbeitet natürlich wesentlich komplexer.

Wörtlich heißt Interpolation Einschiebung/Erweiterung, und beschreibt somit, dass vor allem bei der Umrechnung von kleinen zu größeren Auflösungen Näherungswerte "eingeschoben" werden. Ein Scannertreiber macht das etwa, wenn man eine höhere Auflösung als die physikalische/native wählt, er rechnet im einfachsten Fall einfach die Mittelwerte zwischen zwei physikalisch tatsächlich eingescannten Pixeln aus, und schiebt diesen dazwischen ein.

So, und jetzt seid Ihr dran, mich brauchbar zu korrigieren! :evil:
 
Zuletzt bearbeitet:
Anhand des Unterschied/Vergleichs von TFT und CRT zeigt sich auch, wie schwer es ist über die Qualität von Bildern zu sprechen, wenn alle Beteiligten verschiedene Ausgabemedien benutzen. Es macht eben einen großen Unterschied an welchem Bildschirm man ein Foto betrachtet, und einen noch größeren Unterschied mit welcher Technik das Bild am Ende auf Papier gebracht wird (vom Papier selbst ganz zu schweigen). Zwischen Inspiration bzw. Motiv bis zum dargestellten Foto liegen eine Menge Schritte, jeder kann das Bild stark verändern.

Vor allem aber gehen bei jedem Zwischenschritt fast immer Bildinformationen verloren. Ist man bemüht möglichst viel an Details vom Motiv bis zur Darstellung zu erhalten, dann hilft es sehr, wenn der Sensor bereits mehr Informatonen zur Verfügung stellt. Ist jedoch die Darstellung am Ende der Kette (oder die Bearbeitung in der Mitte) so verlustreich/auflösungsschwach, dass man den Unterschied sowieso nicht mehr bemerkt, dann macht der "kleine" (aber feine) Unterschied zwischen den beiden Sensor-Typen den Braten auch nicht mehr fett.

Das sollte man vor allem beim Ausdruck bedenken, da jeder Druckertreiber das Bild nochmal durch seine eigene Berechnung jagt, um die Pixelrasterung der Datei auf seine eigene Punktrasterung der Tintentropfen umzurechnen. Auch bei diesem Schritt wird fleißig interpoliert, erst recht, wenn man das Bild für den "randlosen Druck" vom Treiber strecken/vergrößern lässt. Mir ist bis heute nicht klar, warum die mistigen Treiber das auch dann machen, wenn das Ausgangbild bereits größer/gleich dem Zielformat ist. Faule Programmierer! :grumble:
 
WERBUNG
Zurück
Oben Unten