• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Oktober 2025.
    Thema: "Abendstimmung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Oktober-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Hasselblad "simuliert Foveon" mit 39MP

  • Themenersteller Themenersteller Gast_111412
  • Erstellt am Erstellt am

Oder hier, ein Live-Beispiel mit M9 -- Gesamtbild und 100%-Ausschnitt des Moires.

Ich würde eher befürchten dass der Effekt mit steigender Auflösung des Sensors bei mehr Gelegenheiten auftritt -- und auch überrraschender, bei Gewebe oder Gittern rechnet ja inzwischen jeder damit, bei dem schräg angeschnittenen Windschutz hätt zumindest ich es nicht erwartet.
Leica behauptet nun die Moires per Signalverarbeitung erkennen und automatisiert reduzieren zu können... soviel dazu :).

Wir müssen wohl doch warten bis der Pixel-Pitch unter die Auflösungsgrenze der Objektive fällt, und dann mit Weichzeichnung wg. Beugung ab Blende 2 rechnen :P.
 
ganz so einfach ist es nicht Freunde.
Die gezeigten Foveon links sind sauber vom Marketing quergelesen.

1. Foveon hat härtestes Aliasing im Graustufenbereich, geht es in die sichtbar relevanten Strukturen des Auflösungs Grenzbereichs.
Ich habe unzählige Beispiele gesehen und für mich selber leidvoll erfahren müssen, da ich meine SDs gerne mal bei Produktionen mitlaufen lasse.

Nettes Beispiel:
Fotografiert doch mal die heruntergelasenen Jalousien eines gegenüberliegenden Gebäudes mit WW und schaut Euch die Bilder dann an....
Hier im Beispiel auch sehr gut zu sehen, schaut Euch mal die 6-20er Streifen ziemlich in der Mitte des Bilds in der Vollansicht an.
Da sind komplett ausradierte FLÄCHEN anstatt Streifen zu sehen.

http://a.img-dpreview.com/reviews/samples/rescharts/sigma_sd10.jpg

2. das Moiree im Farbbereich ist niemals so "schlimm" wie bei Bayer Sensoren, da der erste Schritt in der "in cam" Verarbeitung, erst mal das ordentliche Blurren der rauschenden Farbkanäle ist.Das passiert bereit im "RAW", das dann also gar nicht mehr so raw ist.
Einfach zu beobachten bei den SD9/SD10 Kameras, und bei SPP bevor das
entwickelte Bild erscheint.

Was wir sehen ist ordentliches Farbrauschen, und dies wiederum liegt wohl typischerweise der Farbseparation durch schichtauslesen inne.
Ich glaube darüberhinaus heute, daß diese art der Filterung wie ein Sieb wirkt, der Löcher in der jeweil darunterliegenden Schicht bedingt.
Daraus muss man dann natürlich wieder eine geschlossenen Fläche generieren, und wie erreicht man das....;-)
Wir das nun im LB Modus "zwangsbereinigt" ,ist es klar, daß Farbmoiress mit über Bord gehen.
Die Trennschärfe der Farben geht aber mit in die Grütze, was man schön an farbigen Übergängen ab 400ISO und in den Schatten und unterblichteten Foveon Bilder sehen kann.

Beschäftigt Euch mal mit LAB, hierüber gibt es fantastische Bücher, dann versteht Ihr die "Schweinereinen", die Foveon/Sigma hier einsetzt.

Wenn sie seriös wären und nicht alles dem eigenmarketing zuliebe "interpretieren" würden, hätten sie mal Farbmoiree bei in einer leicht farbigen Fläche gezeigt,welche an eine andersfarbige stösst.
Dann würden wir das typische "Foveon bleeding" von einer in die nächste Farbe sehen (Polaroid X530 und SD9 user wissen wovon ich rede),
welches mit dieser hartenn Methode einhergeht, und das bei anderen Kameras erst ab 3200ASA auftritt, weil diese das Ganze, s.o. erst dann einsetzen müssen
wenn ihre Farbflächen durch die Empfindlichkeitsverstärkung das Rauschen beginnen.
Sozusagen bei Foveon bereits fest eingebaut ;-))

Leider.
 
Zuletzt bearbeitet:
1. Foveon hat härtestes Aliasing im Graustufenbereich, geht es in die sichtbar relevanten Strukturen des Auflösungs Grenzbereichs.
Ich habe unzählige Beispiele gesehen und für mich selber leidvoll erfahren müssen, da ich meine SDs gerne mal bei Produktionen mitlaufen lasse.
.
Nettes Beispiel:
Fotografiert doch mal die heruntergelasenen Jalousien eines gegenüberliegenden Gebäudes mit WW und schaut Euch die Bilder dann an....
Hier im Beispiel auch sehr gut zu sehen, schaut Euch mal die 6-20er Streifen ziemlich in der Mitte des Bilds in der Vollansicht an.
Da sind komplett ausradierte FLÄCHEN anstatt Streifen zu sehen.

Was erwartest du von einem Sensor ? In dem Moment, in dem die schwarz-weißen Linien die Frequenz des Sensors übersteigen sollte er grau wiedergeben. Das ist was wir uns wünschen. Dass trotz eines Signales über der Abtastfrequenz Streifen abgebildet werden, das nennt man Aliasing, das wünschen wir uns nicht. Für mich scheint es so als würdest du das gerade vertauschen, du wünschst dir praktisch Aliasing!? anstatt grauer Flächen ?

http://a.img-dpreview.com/reviews/samples/rescharts/sigma_sd10.jpg

2. das Moiree im Farbbereich ist niemals so "schlimm" wie bei Bayer Sensoren, da der erste Schritt in der "in cam" Verarbeitung, erst mal das ordentliche Blurren der rauschenden Farbkanäle ist.Das passiert bereit im "RAW", das dann also gar nicht mehr so raw ist.
Einfach zu beobachten bei den SD9/SD10 Kameras, und bei SPP bevor das
entwickelte Bild erscheint.

Ein Sensor mit nahe 100% Fill Factor für alle Farbkanäle zeigt kein Aliasing. Das ist das Konzept Foveon. An Farbübergängen die die Abtastfrequenz übersteigen sollten Mischfarben zu sehen sein. Ist es das was du mit "Foveon Bleeding" meinst? Das ist gutmütiges verhalten, wie wir es uns wünschen.
Der Foveon Sensor braucht keinen Anti-Aliasing ("blur")-Filter, da die Farbkanäle übereinander liegen und der Fill Factor hoch ist.
Das ist eine Eigenschaft des Sensors die nichts mit Nachbearbeitung zu tun hat.

Um auf das Thema zurückzukommen: Beim Multishot-Verfahren von Hasselblad ist es das gleiche: Man erreicht einen Fill Factor von praktisch 100% für jeden Farbkanal. Dadurch ist Moiree kein Problem, es gibt (praktisch) weder Farb- nocht Luminanz-Aliasing.
 
erst lesen, dann anschauen, dann schreiben....
schon mal mit Lab auseinandergesetzt?

hier mal die uralt CANON der Rest ist selbsterklärend:

http://a.img-dpreview.com/reviews/samples/rescharts/canon_eos10d.jpg

mach doch Deine Livebilder mal auf Foveon:top:
 
Zuletzt bearbeitet:

So, das Canon bild zeigt starkes Aliasing, das Sigma Bild nicht. Was willst du uns damit sagen?

Also nochmal Aliasing für dich:

Schau doch mal auf dem Canon Bild an was passiert, etwa zwischen 18-20 auf dem Auflösungstarget mit den vertikalen Linien. Da siehst du so ein "krisseln", das ist Aliasing. Im Ursprungsbild sind nur vertikale Linien, im Ergebnisbild sind auch in vertikaler Richtung Kontraste vorhanden, eben etwa einzelne Punkt. Für Unbedarfte: Wenn du von oben nach unten den Linien folgst dann sind starke Sprünge in der Helligkeit vorhanden, im Target waren diese nicht, das ist Kontrast - in einer Richtung in der er eben nicht da ist.
Wahrscheinlich handelt es sich hierbei allerdings um ein Artefakt aus der Raw-Konvertierung, das im Raw selbst so nicht vorhanden war. Die Raw-Konverter versuchen ja das Maximum an Detail rauszukratzen, manchmal wird dabei eben auch Detail halluziniert.

Was hat das ganze mit "dem Lab" (ich nehme an CIE- L*a*b* Farbraum?) zu tun ? Du sprichst wahrscheinlich die Farbmatrix an, die hergenommen wird um aus den Signalen auf den unterschiedlichen Layern des Sensors die Farbe zu gewinnen? Die sieht natürlich beim Foveon Sensor ganz anders aus als bei Bayer-Sensoren - ist das eine Schweinerei? Sie hat wohl einige (hohe) negative Komponenten... (hat die jemand zur Hand ?)
 
Ich habe nie eine Kamera mit Foveon besessen und plane auch nicht mir eine zu kaufen. Ich weiß nicht ob ich jetzt Foveon-Blind bin ;) Mir geht es darum die Grundlagen zu verstehen und ggf. richtig zu stellen.

Zur Farbseparation bei Foveon (x3) empfehle ich im Übrigen pacerpdfs.s3.amazonaws.com/HVDUO14M.pdf den Graphen bei Spectral Response mit denjenigen auf DXOMark : www.dxomark.com/../Color-blindness-sensor-quality in Relation zu setzen und die entsprechenden Schlüsse auf das Foveon-System zu übertragen. Meine private Einschätzung daraus ist diejenige, dass Foveon aber sowas von tot ist, vor allem natürlich wenn nicht üppig Licht da ist.
Wenn ein Photon in Ladung gewandelt wird ist die Information über dessen Farbe bzw. Wellenlänge halt doch etwas "unscharf" im Vergleich zu Bayer-Sensoren mit einigermaßenen Filtern. Das heißt man braucht mehr davon um gescheite Farben hinzubekommen. Der Fill-Factor pro Kanal mag zwar höher sein, wenn ich aber mehr als 4 mal so viele Photonen für die gleiche Farbempfindlichkeit brauche dann erübrigt sich das ganze eben wieder. (Hier gilt das Prinzip: je schlechter die Einzelinformation, desto mehr davon brauche ich um auf die der Beobachtung zu Grunde liegenden Fakten zu schließen) Ob die Quanteneffizienz von 48% im Vergleich mit aktuellen Bayer-Kameras gut ist sollte man auch erstmal recherchieren (CCDs können meines Wissens rund 90%, Daten von aktuellen Kameras habe ich nicht).
 
Ich finde in diesem Kontext folgende Aussage interessant, insbesondere den Teil, dass es bei steigender Auflösung der Kameras immer schwieriger wird, Moire zu produzieren:
...
Falls das stimmt (und ich kann das nicht wirklich bewerten), stände das doch irgendwie im krassen Widespruch zur Sinnhaftigkeit des Hasselblad-Multishot, oder?
Jein. Die Alternativmöglichkeiten, die man durch multi-shot im Hinblick auf die Farbinterpolation bekommt, sind schon nicht ganz zu verachten. Gerade bei sehr ungünstigen Chroma-Mustern (Blau-Rot-Abfolgen) ist die höhere Abtastung nochmals von Vorteil.

Prinzipiell stimmt es wohl auch nicht, dass die noch höheren Ortsfrequenzen im Motiv nicht vorkämen. Der Grund, weshalb sie weniger relevant werden, liegt wohl eher darin, dass die Objektive solche höheren Ortsfrequenzen mit mehr oder weniger abschwächten Kontrasten abbilden.

Ein anderer Punkt allerdings: wenn der fill factor der Mikrolinsen noch suboptimal ist, dann erzielt man durch multi-shot nicht nur eine robustere Farbzuweisung, sondern man kann sogar noch die Nutzauflösung ein wenig pushen. Faktisch keinen Sinn ergibt multi-shot freilich dann, wenn ohnehin schon ein antialiasing-Filter verbaut wurde.
 
ein sensor mit nahe 100% fill factor für alle farbkanäle zeigt kein aliasing.

Das glaube ich nicht. Folgendes eindimensionales Beispiel:
Code:
AAABBBCCCDDDEEE
010101010101010
 1  2  1  2  1

Die Sensorfelder sind mit 'A', 'B', 'C' usw. bezeichnet. Darunter ein S/W (0/1) Muster mit 3fs. Darunter die aufgenommenen Intensitäten, die mit fs zwischen 1 und 2 schwanken.

Dass sich durch die Breite des einzelnen Sensors eine Tiefpassfunktion (gegenüber dem "theoretischen" Abtasten an einem Punkt) ergibt, ist klar. Aber "kein Aliasing" scheint mir nicht zu stimmen.

Gruß
Thomas
 
Zuletzt bearbeitet von einem Moderator:
Exakt.

Und genau DAS sieht man bei den Dpreview testfeldern.
Obwohl die eigentliche Auflöungsgrenze bei ~18-20 stattfindet, z.T.
sogar darüber hinaus "simuliert" wird, bricht bereits ab 14 schweres Aliasing ein, anders als bei der Canon, die zwar nicht so hoch auflöst, aber bis zur Grenze sauber durchläuft.
 
... hier geht´s um Moiré, das kommt durch zwei sich überlagernde Raster zustande und das tritt bei digitaler Fotografie immer auf.

"Aliasing" entsteht bei der Interpolation nebeneinander liegender Pixel (Bayer-Filter Prinzip), wenn für die in der jeweiligen Farbe fehlende Information (z.B. Rot auf dem blauen oder grünen Pixel) ein "Alias" -> Ersatzwert gebildet werden muss. Durch Filter, entweder vor dem Sensor (AA-Filter) oder in der verwendeten Software bei der Entwicklung der RAW-Daten (bei manchen Bayer-Filter Kameras in beiden Fällen) versucht man diesen Effekt zu mildern / unterdrücken.

Moiré gibt es bei allen Sensoren, Farbmoiré nur bei Bayer-Filter Sensoren und eine Anti-Aliasing Filterung ist Hardware-seitig nur bei Bayer-Filter Sensoren erforderlich.

Inwieweit sie (auch in anderen als Bayer-Filter Systemen) dann im RAW-Konverter Anwendung findet ist von der Qualität der vom Sensor gelieferten Daten (Pixel-Pitch auf dem Sensor) und von der Qualität des RAW-Konverters (bzw. dessen Programmierer) abhängig.

Trayloaders Theorien haben damit sehr wenig zu tun, da er bereits Moiré, Aliasing und Bleeding wild durcheinander wirft.

Gruss,

Browny.
 
"Alias" -> Ersatzwert

Du solltest einmal versuchen, "Aliasing" im Zusammenhang mit dem Abtasttheorem zu verstehen. Nachzulesen z.B. hier.

Zitat:
"Wird dieses Abtasttheorem verletzt, werden Frequenzanteile, die höher sind als die Nyquist-Frequenz, als niedrigere Frequenzen interpretiert. Die höheren Frequenzen geben sich sozusagen als eine andere (niedrigere) aus (siehe Grafik), daher die Bezeichnung Alias."

Auf der genannte Seite kannst Du Dir dann auch gleich ein Beispiel für Aliasing nur mit Graustufen ansehen.

Moiré gibt es bei allen Sensoren, Farbmoiré nur bei Bayer-Filter Sensoren
Richtig.

eine Anti-Aliasing Filterung ist Hardware-seitig nur bei Bayer-Filter Sensoren erforderlich.

Falsch. Moiré ist Aliasing. Kein Moiré bzw. kein Aliasing gibt es nur mit einer "Anti-Aliasing Filterung" vor dem Sensor.

Gruß
Thomas
 
Du solltest einmal versuchen, "Aliasing" im Zusammenhang mit dem Abtasttheorem zu verstehen. Nachzulesen z.B. hier.

Zitat:
"Wird dieses Abtasttheorem verletzt, werden Frequenzanteile, die höher sind als die Nyquist-Frequenz, als niedrigere Frequenzen interpretiert. Die höheren Frequenzen geben sich sozusagen als eine andere (niedrigere) aus (siehe Grafik), daher die Bezeichnung Alias."

Auf der genannte Seite kannst Du Dir dann auch gleich ein Beispiel für Aliasing nur mit Graustufen ansehen. ...
... ist vielleicht nur die halbe Wahrheit ? Aliasing entsteht erst bei der Interpolation, nicht beim Sampling.

Nochmal - etwas ausführlicher :

Moiré ist zunächst einmal nichts weiter, als die im optischen Bereich sichtbare Schwebung bei der Überlagerung zweier Signale mit annähernd gleicher Frequenz. Im Idealfall entstehen nur zwei neue Frequenzen:

1. die Summe der beiden Frequenzen (f1 + f2, nicht sichtbar, da die Frequenz für eine Verarbeitung zu hoch wird) und

2. die Differenz (f1 - f2, störend, da von relativ niedriger Frequenz und damit sichtbar). Diese sichtbare Differenzfrequenz (Schwebung) bezeichnet man als Moiré (im akkustischen Bereich als Schwebung, z.B. zur Stimmung von Saiten-Instrumenten angewandt).

Zu sichtbarem Moiré wird das Ganze erst, wenn diese Schwebung diskretisiert und durch Sampling aus den vorhandenen Signalen ein Wert zur Wiedergabe / Darstellung der Signale gebildet wird.

Farbartefakte (und das ist der Nachteil der Bayer-Filter Methode) treten auf, wenn man durch Interpolation nun versucht den so entstandenen Bildinformationen einen Farbwert zuzuweisen. Für die durch die Schwebung entstandene Bildinformation (das Moiré) gibt es keine Farbinformation.

Da das Bildgewinnungsverfahren per Bayer-Filter aber jedem Bildpunkt eine Farbinformation zuweisen will / muss, wird vom Bildprozessor ein Ersatzwert ("Alias"-Wert) für die dort "vermutlich richtige" Farbe errechnet. Dies führt zu Farbartefakten (z.B. farbigem Moiré, "aliasing").

Um das Auftreten dieser Erscheinung (von Moiré) in erträglichen Grenzen zu halten wird dem Sensor ein Anti-Aliasing-Filter (Weichzeichner) vorgeschaltet, bzw. im Bildverarbeitungsprozess werden nach der Aufnahme die Bildstellen, an denen Moiré auftritt "weichgezeichnet".

So entstehen dann, bei Bildern die nach dem Bayer-Filter Verfahren erzeugt werden, in Bildteilen, wo beispielsweise ein Gitter im Motiv an die Auflösungsgrenzen des Gesamtsystems stößt, die Regenbogenfarben, in denen je nach Stärke des AA-Filters, noch mehr oder weniger Details des Gitters dargestellt werden.

Andere Verfahren stellen zwar das unvermeidbare Moiré dar, weisen ihm aber keine Farbwerte zu. Es bleibt halt bei dem, durch die beiden Raster (von Sensor und Motiv) bedingten, Moiré - farbneutralen Helligkeitsunterschieden.

Gruss,

Browny.
 
Aliasing entsteht erst bei der Interpolation, nicht beim Sampling.

Falsch. Aliasing entsteht beim Sampling, wenn die Signalfrequenz größer als oder gleich der halben Abtastfrequenz ist. Daran gibt es auch gar nix zu diskutieren, weil es einfach ca. 60 Jahre altes Grundlagenwissen ist, das Du Dir aneignen solltest, wenn Du darüber diskutieren willst.

Sorry für die klaren Worte.

Ich bin dann wieder weg hier, weil ich ahne, wie das weitergehen wird.

Thomas
 
Falsch. Aliasing entsteht beim Sampling, wenn die Signalfrequenz größer als oder gleich der halben Abtastfrequenz ist. Daran gibt es auch gar nix zu diskutieren, weil es einfach ca. 60 Jahre altes Grundlagenwissen ist, das Du Dir aneignen solltest, wenn Du darüber diskutieren willst.

Sorry für die klaren Worte.

Ich bin dann wieder weg hier, weil ich ahne, wie das weitergehen wird. ...

...ja wenn das mal so einfach wäre. Bevor es zu einem Aliasing-Effekt kommt passiert erst mal eine ganze Menge anderer komplexer physikalischer Ereignisse, wobei "aliasing" im Deutschen ziemlich pauschal und teilweise irreführend verwendet wird.

Hier (nicht unbedingt) der Reihe nach soweit auf Wikipedia nachschlagbar :
http://de.wikipedia.org/wiki/Elektromagnetische_Wellen
http://de.wikipedia.org/wiki/Schwebungsfrequenz
http://de.wikipedia.org/wiki/Interferenz_(Physik)
http://de.wikipedia.org/wiki/Differenztonfaktor
http://de.wikipedia.org/wiki/Nyquist-Frequenz
http://de.wikipedia.org/wiki/Bandpassunterabtastung
http://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem
http://de.wikipedia.org/wiki/Sampling-Theorem
http://de.wikipedia.org/wiki/Antialiasing_(Signalverarbeitung)
http://de.wikipedia.org/wiki/Rekonstruktionsfilter
http://de.wikipedia.org/wiki/Analog-Digital-Umsetzer
http://de.wikipedia.org/wiki/Unterabtastung
http://de.wikipedia.org/wiki/Digitaler_Signalprozessor
http://de.wikipedia.org/wiki/Quantisierungsrauschen

Und für Alle, die jetzt wieder an den Links was auszusetzen haben: "... ich weigere mich hier eine Doktorarbeit zu dem Thema abzuliefern."

Gruss,

Browny.
 
Interessantes Thema! In meiner Vorlesung zu digitalen Bildsensoren wurde zwar damals nur mit Shannon (und somit aliasing) argumentiert, aber nach Browny Ausführungen kommt es mir auch so vor, als wäre das Thema damit noch nicht ganz abgeschlossen. Die Pixel haben ja eine recht weite Ausdehnung mit der das Abtastsignal erstmal gefaltet werden muss, bevor abgetastet wird. Letztendlich fliessen die beiden Theorien wohl ineinander über, wie auch Wikipedia schreibt

Wiki schrieb:
Moiré-Muster treten auf, wenn periodische Strukturen mit Frequenzen abgetastet werden, die niedriger sind als die doppelte Frequenz der Strukturen (siehe Nyquist-Shannon-Abtasttheorem, Alias-Effekt).

Trotzdem eine Sache würde ich so pauschal nicht stehen lassen:
Moiré gibt es bei allen Sensoren, Farbmoiré nur bei Bayer-Filter Sensoren
Moire beinhaltet ja auch Farbmoiré, ein Beispiel mit einem "Vollfarbensensor":

1. Reihe: Eingangssignal
2. Reihe: Pixel (100% fill factor)
3. Reihe: Ausgangssignal

BGBGBGBGB
111222333
Bg-Gb-Bg

Wird das Farbsignal unter abgetastet, so ergeben sich auch Farbsignale niedrigerer Frequenz, die Artefakte sind.
 
Die Pixel haben ja eine recht weite Ausdehnung mit der das Abtastsignal erstmal gefaltet werden muss, bevor abgetastet wird. Letztendlich fliessen die beiden Theorien wohl ineinander über, wie auch Wikipedia schreibt
Wiki schrieb:
Moiré-Muster treten auf, wenn periodische Strukturen mit Frequenzen abgetastet werden, die niedriger sind als die doppelte Frequenz der Strukturen (siehe Nyquist-Shannon-Abtasttheorem, Alias-Effekt).

Abtasten mit "Frequenzen [...], die niedriger sind als die doppelte Frequenz der Strukturen" ist nichts anderes als eine Verletzung des Abtasttheorems (f<fs/2 => 2f<fs). Also auch Moiré = Aliasing.

Dass die Faltung mit der Sensorbreite rund um fs/2 eine Tiefpassfunktion hat, ist klar. Zu höheren Frequenzen nimmt die Dämpfung aber wieder ab (mein Gedächtnis hat eine sinx/x-Funktion gespeichert ...)

Wer Aliasing eines Foveon-Sensors ohne Farbinformation sehen will, schaue hier. Im Bild von der DP2 ist unterhalb von "24" lupenreines Aliasing zu sehen - ein periodisches Hellgrau/Dunkelgrau-Muster mit einer Frequenz, die ungefähr "10" entspricht.

Gruß
Thomas
 
... Wer Aliasing eines Foveon-Sensors ohne Farbinformation sehen will, schaue hier. Im Bild von der DP2 ist unterhalb von "24" lupenreines Aliasing zu sehen - ein periodisches Hellgrau/Dunkelgrau-Muster mit einer Frequenz, die ungefähr "10" entspricht. ...
... diese Bildfehler resultieren aus dem Moiré, der Schwebung zwischen Sensorraster und Vorlagenraster. In der HF-Technik spricht man im Deutschen von Siegelfrequenzen, im Englischen (missverständlich) von "Aliases", die in diesem Fall an den Photodioden des Sensors auftreten. Das Frequenzband des sichtbaren Lichtes beinhaltet aufgrund der hohen Bandbreite des optisch erfassbaren Bereiches ein ganzes Spektrum von Spiegelfrequenzen, die sich je nach Frequenz- und Phasenlage entweder addieren oder subtrahieren. So entsteht Moiré.

Anhang anzeigen 1095345

Der Sensor selbst liefert die Bildinhalte, also auch das Moiré, als analoge Signale die durch einen A/D-Konverter in digitale Informationen gewandelt werden. Die Abtastfrequenz heutiger A/D-Konverter ist ausreichend hoch um beim Abtasten der relativ niederfrequenten analogen Bildinformationen "Aliasing" nach dem Nyquist-Shannon-Abtasttheorem weitestgehend zu unterdrücken. Dieses kommt erst bei der Interpolation der Bayer Farb-Pattern wieder zum Tragen (Gr Gb Br Rb Gb Gr).

Siehe hier :

Anhang anzeigen 1095346

Die kleinen dunklen Klötzchen ebenso wie die Einfärbung der S/W-Vorlage sind "Aliasing" Artefakte, die aus der Bayer-Filter Interpolation entstehen. Diese wirst Du in dem von Dir verlinkten Bild der DP2 so nicht finden.

Nochmals zur Klarstellung Moiré tritt bei allen gerasterten Sensoren auf, das was man als "Aliasing" bezeichnet nur bei Bayer-Filter Sensoren, auch wenn der Begriff "aliasing" im Englischen mehrere Bedeutungen haben kann.

Gruss,

Browny.

P.S. noch 3 Charts zu dem Thema (auch wenn sie im Kontext der DPReview-Seite etwas Anderes zeigen sollen):

Sigma DP1 : http://a.img-dpreview.com/reviews/sigmadp1/samples/compared/colorres/sigmadp1_colres.JPG
Nikon D60 : http://a.img-dpreview.com/reviews/sigmadp1/samples/compared/colorres/nikond60_colres.jpg
Leica M8 : http://a.img-dpreview.com/reviews/sigmadp1/samples/compared/colorres/leicam8_colres.JPG
 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten