• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Pixelwahn - ein Argument dafür.

DonRobodroid

Themenersteller
Hmmmm. Wir diskutierten neulich im EOS50D-Thread über den physikalischen AA-Filter und das mögliche Weglassen desselbigen. Dabei kam auf, dass man undersampelte (ahhhhh, neudeutsch roxxx :D) Artefakte, also Moirées und sowas nicht softwaremäßig mit guter Qualität rausrechnen kann.

Dann ist doch eigentlich die logische Schlussfolgerung, dass die Kamerahersteller NOCH vielvielviel mehr Pixels auf den Sensor packen, den ollen Allesmatscher™ (AA-Filter) weglassen, aber nur die Hälfte (oder mutig! noch weniger) der Pixel abspeichern sollte. Denn mit mehr Pixeln für die interne Verarbeitung hätten wir ja ein OVERSampling und könnten somit wunderbare adaptive Antialiasing-Algorithmen auf das Bild loslassen.

Sogar das Bayer-Pattern würde man bei ausreichend großer Pixelzahl mit anschließender Reduktion wegbekommen. Auch das Rauschen könnte prima weggemittelt werden. HACH! Wäre das nicht toll?

Ich bin also dafür, dass die Sensormacher ordentlich mehr Pixel züchten, selbst wenn die Objektive das gar nicht mehr 1:1 auflösen können - aber dann sind die Objektive ja schon der AA-Filter und ein zusätzliches Trumm ist nicht mehr nötig.

Gleich mal Patent einreichen... ;) :D :angel:

Viele Grüße,
- Don [:-], der gerne auch wieder 8MP-Bilder in Kauf nähme, wenn sie denn aus 32MP runtergerechnet worden sind. :top:

PS: Oder mache ich da einen Denkfehler? :o
 
Das Problem dürfte sein, dass Rauschen und Dynamikbreite durch die kleineren Pixel schneller schlechter wird als man durch das Runterrechnen wieder gewinnen kann.

Fuji hat 2002 mit dem SR-Sensor mit 12 Millionen Photodioden (der Rest hatte meist 5-8) sowas ähnliches im Angebot gehabt, durch die unterschiedlichen Photodioden sogar mit Vorteilen bei der Dynamik. Allerdings erst 2004 mit sinnvollen Positionen der verdoppelten Dioden.
 
Zuletzt bearbeitet:
Damit sich das Raster im Offsetdruck nicht mit dem Raster einer Bilddatei beißt, sollte die Bilddatei 1,5 bis 2 mal so fein auflösen wie das Raster im Druck. Bei einem 60er Raster also idealerweise 300 dpi.
Wenn man ein gedrucktes Bild einscannt macht es ebenfalls Sinn die Auflösung des Scanners deutlich höher zu wählen das das Raster des Bildes.

Je ähnlicher sich zwei Raster sind, umso her stören sie sich.

Da bei Motiven mit Linien auf dem Sensor quasi ebenfalls zwei Raster aufeinander kommen macht es ebenfalls Sinn die Auflösung der Sensoren um den Faktor 1,5 bis 2 höher anzusetzen als die besten Linien-Auflösung der Objektive.

Das wäre also noch kein Pixelwahn. Der setzt erst wenn die Auflösung höher wird, als die zweifache Linien-Auflösung der Objektive.

Dem entgegen sprechen u.U. andere Qualitätsmerkmale und technische Grenzen diese unterschiedlichen Anforderungen unter einen Sensorhut zu bekommen.
 
Vergiss es:D Genau das hat Nikon damals bei der D1 schon gemacht;)

Gleich mal Patent einreichen... ;) :D :angel:
 
@TO: Mir scheint du willst wohl gleich X3 haben... AA-Filter und Farbpatternsensoren gehen Hand in Hand. Die Unterdrückung von Moiré ím Helligkeitskanal kann bei allen Sensoren auftreten, Farbfehler durch Moiré entstehen dabei nur durch Bayerpattern.

Ich persönlich bin gegen Farbfilterpattern, die einzige Lösung ist die Verwendung von 3 CCDs und Interferenzfiltern. Damit hätte man auf einen Schlag 30MP anstelle 10, nur mit dem Auflagemaß wirds dann nicht mehr klappen ;)
 
Hmmmm. Wir diskutierten neulich im EOS50D-Thread über den physikalischen AA-Filter und das mögliche Weglassen desselbigen. Dabei kam auf, dass man undersampelte (ahhhhh, neudeutsch roxxx :D) Artefakte, also Moirées und sowas nicht softwaremäßig mit guter Qualität rausrechnen kann.

Dann ist doch eigentlich die logische Schlussfolgerung, dass die Kamerahersteller NOCH vielvielviel mehr Pixels auf den Sensor packen, den ollen Allesmatscher™ (AA-Filter) weglassen, aber nur die Hälfte (oder mutig! noch weniger) der Pixel abspeichern sollte. Denn mit mehr Pixeln für die interne Verarbeitung hätten wir ja ein OVERSampling und könnten somit wunderbare adaptive Antialiasing-Algorithmen auf das Bild loslassen.

Das Stichwort hier ist Nyquist. rbtt hat das schon in anderen Worten gesagt.

Wenn du mehr Pixel hast, steigt natürlich die Nyquist Frequenz, du kannst höhere Frequenzen auflösen und erhältst Moirees erst für höhere Frequenzen. Irgendwo ist aber immer Schluss (von theoretisch unendlich vielen Pixeln mal abgesehen) und es gibt immer eine Frequenz die du nicht mehr sauber einfangen kannst. Dann brauchst du wieder einen AA-Filter, so wie das Objektiv das du schon erwähnt hast.

Bei oversampling brauchst du keine AA-Algorithmen.
Und wenn du runterrechnest, dann musst du einfach die hohen Frequenzen rausrechen, da gibt es nicht so viel adaptives. Und das ist im Endeffekt wieder das gleiche wie der Hardwareseitige AA-Filter, nämlich ein Tiefpass.
Gut schätzen ("wunderbare adaptive Antialiasing-Algorithmen") macht nur Sinn, wenn man schon korrupte Daten hat und versucht etwas zu retten.

Und mal ehrlich, wenn du 50MP RAW hast und dir ein Kamerahersteller sagt, du bekommst aber nur 15MP weil das 15MP Bild eine bessere Qualität hat, was würdest du dazu sagen? Was würde ein Pixelpeeper dazu sagen? Richtig, das 50MP Bild enthält mehr Information und ist deswegen tendenziell besser.

Die eigentlich Frage ist: Wie hoch ist die höchste Frequenz (auf dem Sensor) dir wir beim Photographieren noch sauber aufnehmen wollen. Und daraus lässt sich dann die nötige Anzahl Megapixel ableiten.

Ich glaube nicht, dass man durch runterrechnen viel verbessern kann. Speicher sparen natürlich schon.
 
Ich begrüße Morepixel ebenfalls. Allein das jetzt optimale Freistellen und das Retuschieren in PS CS3 ist unglaublich. Die Ergebnisse überzeugen jeden, und zwar dramatisch.
Gut. der Nachteil gibs z.Zt. beim HDR (DRI), PTGui und beim autom. Freistellen z.B. mit FluidMask 3. Das bis zu 28 MB RAW oder die 60-90 MB Tiff sind in PS als Panorama nicht mehr zu bearbeiten. FluidMask 3 weigert sich bei diesen Bildgrößen immer aber kehrt wenigstens unverrichteter Dinge zu PS CS3 zurück.
Aber man hat ja nach unten alles offen. :-((
Mal sehen wann ich auf PS mit MAC umsteige?
Rechnerwunsch; vernünftiges OS, 4x Quad (16), mind. 10GB Memory, 5- 10 Terra HD, 4 Monitore 30 Zoll etc. Aber was solls. Ich träume erstmal weiter.
Und wenn Ihr nicht hierauf antwortet weiß ich, das auch ich nur ein armes Würstchen bin das hier seinen Senf dazugibt.
mfG
 
Halloerstmal
ich spinn jetzt mal bzgl. Sensorarchitektur:
statt Permanent-Bayer-Pattern
eine LCD o.ä. Maske vor dem sensor, die durch Anlegen einer richtungsabhängigen Spannung blitzschnell wechselweise als Farbfilter für RGB fungiert.
Das setzt eine millionenmal schnellere Auslesung des Sensorinhalts vorraus - die Bildtrippel werden direkt zu einer RAW Datei verarbeitet.
Dynamikbereich der lichtempfindlichen Sensorpartikel ist - natürlich - extrem gesteigert, sodass echte 16bit Dateien mit Eingangsdynamik von 12-15 Blendenstufen erfasst werden können. HDRI wird erst anschließend daraus entwickelt, falls gewünscht.
Gruss Ralf
 
mit LCDs in Kombination mit Polfiltern kann man bestenfalls eine Farbverschiebung (blau / gelb) erreichen und das kostet ziemlich viel Licht. Es gibt aber Ansätze, unter das Sensor-Array eine Speicherarchitektur zu setzen, so könnte man 16 subframes erzeugen und diese dann zu unterschiedlichen Belichtungsstufen mergen
 
...sodass echte 16bit Dateien mit Eingangsdynamik von 12-15 Blendenstufen erfasst werden können.

Sorry, komm grad von Dynamikumfang-Thread zwei drunter und kanns nicht lassen.

Was sind denn bitte echte 16 Bit Dateien? Gibt es auch unechte 16 Bit? Und was haben die 16 Bit mit der Dynamik zu tun?

Nicht zu ernst nehmen. Duck und wech...
 
Halloerstmal
"echte" 16bit
Die Eingangsdynamik hatte ich ja schon unabhängig von der Ausgangsdynamik bzw. der Farbtiefe der Files beschrieben.
Kenne halt echte 16bit Daten von MF-backs.
Viel Spielraum für Verschlimmbesserungen in Photoshop usw.

Dachte mir eher, dass ein spannungsabhängiger Farbfilter vor den Sensorenliegt, der die Farbfilterung macht. Reine Spinnerei, zur Zeit ist da wohl noch keine Lösung in Sicht. Die schnellere Auslesung und Verarbeitung werden die Herstellr wohl in den Griff bekommen.

Gruss Ralf
 
Dachte mir eher, dass ein spannungsabhängiger Farbfilter vor den Sensorenliegt, der die Farbfilterung macht. Reine Spinnerei, zur Zeit ist da wohl noch keine Lösung in Sicht. Die schnellere Auslesung und Verarbeitung werden die Herstellr wohl in den Griff bekommen.

FOVEON ist ja auch eine Möglichkeit... Oder ein 3-Sensor-System ähnlich wie bei Videokameras. Egal wie: Irgendwann werden wir uns hoffentlich vom Bayer-Pattern verabschieden können.

Ciao, Udo
 
Dachte mir eher, dass ein spannungsabhängiger Farbfilter vor den Sensorenliegt, der die Farbfilterung macht. Reine Spinnerei, zur Zeit ist da wohl noch keine Lösung in Sicht.

LC-Filter gibt's schon seit längerem, z.B. hier. Ein kritischer Punkt ist die Transmission - wobei das beim Bayer mehr oder weniger auf das gleiche rauskommt.
 
Damit sich das Raster im Offsetdruck nicht mit dem Raster einer Bilddatei beißt, sollte die Bilddatei 1,5 bis 2 mal so fein auflösen wie das Raster im Druck. Bei einem 60er Raster also idealerweise 300 dpi.
.

Hö?

Ich dachte immer das macht man über die Rasterwinkelung.

Der QF den du ansprichst ist ursprünglich 1,4 das ergibt sich aus Wurzel aus 2.

Farbauszüge, die im 45 Grad Winkel liegen brauchen 1,4x mehr Rasterpunkte als welche im 90 oder 0 Grad Winkel. (Diagonale eines Quadrates)

Heutzutage wird bereits oft im FM Raster gedruckt, so dass eine Moire-Bildung nicht mehr möglich ist.
 
1,4 ist als unterer Grenzwert sicher ausreichend. Die Druckereien wünschen aber einen Sicherheitsabstand. Und so hat sich eben etwa die 2-Fache Auflösung des Rasters, also 300 dpi eingebürgert. Da die Rasterwinkel für jede Farbe anders eingestellt sind, macht es sicher Sinn, Reserven einzubauen um Überlagerungseffekte auszuschließen.

Bei FM Raster genügt sicher wesentlich weniger um gute Ergebnisse zu erzielen. Bei Wiedergabe durch Tintenstrahldrucker reichen ja auch 150 dpi aus.
 
WERBUNG
Zurück
Oben Unten