• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Wie viel Megapixel braucht man wirklich?

Dein Auge "verliert" auch Licht, weil es ein ausgeprägtes Empfindlichkeitsspektrum hat.



Erst lesen und verstehen, dann lachen.



An der Lichtmenge ändert sich überhaupt nichts, ob man nun einen großen oder auf der gleichen Fläche viele kleine Pixel belichtet. Es ändert sich allenfalls, aber auch das nicht zwangsläufig (deshalb schrieb ich "ggfs.") das über die gleiche Fläche kumulierte Ausleserauschen.

Es ging mir darum das der bayer sensor licht verliert im vergleich zu einem SW sensor. Er ist nicht nur im nachteil bei der aufloesung, er hat mehrere nachteile, wenn es um SW bilder geht.

w
 
Es ging mir darum, dass der Bayer-Sensor Licht verliert im Vergleich zu einem S/W-Sensor. Er ist nicht nur im Nachteil bei der Auflösung, er hat mehrere Nachteile, wenn es um S/W-Bilder geht.

Wieviel Licht verliert er denn, so in "Blenden" ausgedrückt, und welchen Effekt hat das dann?

Übrigens wäre die spektrale Empfindlichkeit eines S/W-Sensors auf allen Pixeln mehr oder weniger "grün", und man verliert damit dann jede Möglichkeit, bei der Entwicklung den Effekt eines Farbfilters nachzubilden. Man müsste einen echten Farbfilter benutzen, und das hat nun eindeutig nach viel mehr Nachteile.

Ich mag mich jetzt aber auch nicht mehr durch absichtlich falsch geschriebene Texte quälen. Lass gut sein.
 
Wieviel Licht verliert er denn, so in "Blenden" ausgedrückt, und welchen Effekt hat das dann?
Die Leica Monochrom ist ca 1 Blendenstufe empfindlicher als ihre Schwester mit Bayersensor.
 
Wenn Du einen reinen S/W-Sensor ohne die Kosten für eine Leica M monochrom willst, dann brauchst Du Dir doch nur eine Sony A7 auf monochrom umbauen (lassen).

Oder du nimmst gleich eine A7R und lässt sie wie sie ist. Wenn Du die 36 (oder 42) MP per "bikubisch schärfer" auf die 18 MP einer Leica M monochrom bringst und dann S/W-wandelst, kriegen selbst Leica-Afficionados Kulleraugen... :D

Was auch daran liegt, dass die Sony-Sensoren einen größeren Tonwertumfang wiedergeben können.
 
[...]
Oder du nimmst gleich eine A7R und lässt sie wie sie ist. Wenn Du die 36 (oder 42) MP per "bikubisch schärfer" auf die 18 MP einer Leica M monochrom bringst und dann S/W-wandelst, kriegen selbst Leica-Afficionados Kulleraugen... :D
[...]

Da ist was drann...
Ich hatte in einem anderen thread schon geschrieben, wenn sony einen SW sensor fuer meine kamera bauen wuerde dann kaeme ich in echte schwierigkeiten.
Ich stehe zwar zu dem was ich oben schrieb und meine die haben bei SW fotos nennenswerte vorteile. Aber so ganz und gar nurnoch SW ist mir auch doof. Also braucht man 2 kameras und das ist dann wieder teuer. Ich wuesste garnicht was ich tun soll.
Dann muss man auch sagen, aus einem bayer sensor bekomme ich bessere SW bilder raus als aus einem SW sensor farbbilder. :)

w

Ps.: Das mit dem umbauen, hast du da einen link? Und braeuchte man nicht auch spezielle RAW konverter?
 
Dann muss man auch sagen, aus einem bayer sensor bekomme ich bessere SW bilder raus als aus einem SW sensor farbbilder. :)

Jein. Man könnte statische Motive wie zu Uropas Zeiten mit einem RGB-Wechselfilter mit 3 Bildern aufnehmen und die danach überlagern.

Ps.: Das mit dem umbauen, hast du da einen link? Und braeuchte man nicht auch spezielle RAW konverter?

Es gibt viele Firmen, die unter dem Stichwort IR-Umbau oder IR-Conversion auch eine Entfernung des Bayer-Filters anbieten.

Mal als Beispiel, weil deren Seite recht informativ ist, "normale" (Nicht-IR) Beispielbilder enthält und auch die Methoden und die Leica monochrom gegenüberstellt:

https://www.monochromeimaging.com/

Spezielle Raw-Konverter (z.B. FastRawViewer, RPP Raw Photo Processor) kann man verwenden, muss man aber mE nicht.

Die Bilder sehen z.B. in LR nur erst mal komisch magentafarben aus, weil die Kamera das Fehlen der Information der 2 G-Pixel komplementär kompensiert. Zur Monochrom-Wandlung ziehst Du einfach nur die Farbsättigung auf Null.
 
. . . wenn sony einen SW sensor fuer meine kamera bauen wuerde dann . . .

Ps.: . . . Und braeuchte man nicht auch spezielle RAW konverter?
Die Sensoren sind alle SW-Sensoren, sie können nur Helligkeitswerte erkennen. Die Farbsichtigkeit wird erst durch den vorgeschalteten Bayer-Filter erreicht. Die Leica Monochrom hat denselben Sensor wie die Farbvariante, lediglich das Deckglas ist "anders".

Und nein, technisch benötigt man nicht das Demosaiking des Raw-Konverter für SW, weil man den Dateneingang 1:1 (die Helligkeitswerte) übernehmen kann.
 
@Floyd Pepper, danke das schaue ich mir an.

Die Sensoren sind alle SW-Sensoren, sie können nur Helligkeitswerte erkennen. Die Farbsichtigkeit wird erst durch den vorgeschalteten Bayer-Filter erreicht. Die Leica Monochrom hat denselben Sensor wie die Farbvariante, lediglich das Deckglas ist "anders".
das ist mir klar, aber draus ergibt sich fuer mich nicht:

Und nein, technisch benötigt man nicht das Demosaiking des Raw-Konverter für SW, weil man den Dateneingang 1:1 (die Helligkeitswerte) übernehmen kann.

Edit:
Ja, und weil man es nicht braucht, braucht man einen anderen RAW converter? Weil mein jetziger geht ja von RGGB aus, oder?

w
 
Zuletzt bearbeitet:
Edit:
Ja, und weil man es nicht braucht, braucht man einen anderen RAW converter? Weil mein jetziger geht ja von RGGB aus, oder?
. . . oder er erkennt durch das Kamera-Modell, dass er diesen Programmteil nicht benötigt und deswegen die Methode nicht aufruft. Ob dieser Fall vorgesehen war - kein Bayer-Filter - weiß nur der Programmierer.
 
. . . oder er erkennt durch das Kamera-Modell, dass er diesen Programmteil nicht benötigt und deswegen die Methode nicht aufruft. Ob dieser Fall vorgesehen war - kein Bayer-Filter - weiß nur der Programmierer.

Guter punkt, jedoch ganz bestimmt nicht wenn ich die bayer brillen von einer werkstatt abkratzen lasse. Darum ging es mir, also wenn ich die kamera bearbeiten lasse, dann muss ich auf die RAWs achten, bzw auf den konverter.

w
 
Also ich bin weiter der Meinung, dass die Farbinterpolation auf die Auflösung der Luminanzwerte keine Auswirkung hat. Die Interpolation der Chrominanzwerte durch Zuschreibung auf die Werte der Nachbarpixel mindert aber evtl. die Mikrokontraste und damit den Schärfeeindruck.

Die Entfernung des CFA hat in erster Linie Auswirkungen auf die Belichtung (ca. +1 EV), die spektrale Wahrnehmung des Sensors und die Dynamik.

Für die Auflösung maßgeblicher halte ich nach wie vor das Vorhandensein (bzw. Abwesenheit) eines Tiefpassfilters.
 
Die Entfernung des CFA ....

...würde jedenfalls nicht zu einem brauchbaren S/W-Sensor führen, weil der nackte Sensor eine spektrale Empfindlichkeit hätte, die nicht dem Helligkeitsempfinden des menschlichen Auges entspricht. Um das zu korrigieren, müsste jeder Pixel (bzw. der ganze Sensor) einen Filter bekommen, der etwa dem "G" des heutigen RGB-Bayer-Filter entspricht.
 
...würde jedenfalls nicht zu einem brauchbaren S/W-Sensor führen, weil der nackte Sensor eine spektrale Empfindlichkeit hätte, die nicht dem Helligkeitsempfinden des menschlichen Auges entspricht.

Naja, das ist ja der Witz beim IR-Umbau. Nur weil wir spektral fast blind sind, heißt das ja nicht, dass die Kamera untauglich ist... ;)

Klar müßte man für "klassisch" abbildende Fotografie der Kamera dann ggf. einen erweiterten IR/UV-Cut verpassen bzw. für einen menschlich angenäherten Seheindruck einen Filter für eine globale panchromatische Korrektur anwenden.
 
Naja, das ist ja der Witz beim IR-Umbau. Nur weil wir spektral fast blind sind, heißt das ja nicht, dass die Kamera untauglich ist... ;)

Von "untauglich" habe ich ja auch nichts gesagt. Ich würde allerdings einen halbwegs normalen Helligkeitseindruck auf meinen S/W-Fotos erwarten, und den liefert ein nackter Sensor nicht, auch nicht wenn man UV und IR rausfiltert. Dann schon eher so:

Klar müßte man für "klassisch" abbildende Fotografie der Kamera dann ggf. einen erweiterten IR/UV-Cut verpassen bzw. für einen menschlich angenäherten Seheindruck einen Filter für eine globale panchromatische Korrektur anwenden.
 
Kurz und knapp.
Kleine Hochzeitsgesellschaft 16 Personen mit Nikon D40 6MP auf 75x50cm gedruckt.
Kein Pixel zu sehen.
 
Also ich bin weiter der Meinung, dass die Farbinterpolation auf die Auflösung der Luminanzwerte keine Auswirkung hat.

Was passiert, wenn Du bei Tageslicht eine Einheit aus je einem R-, G- und B-Sensel auf eine Fläche bestimmter Farbe richtest - wie willst Du die drei sich ergebenden Werte interpretieren?

Wenn Du sie mittelst, verlierst Du 2/3 an Auflösung. Einfach Filterfaktor rausrechnen bringt nichts, denn der ist bei jedem Filter gleich, kürzt sich also raus.

Du musst daher wissen, welche Farbe die abgetastete Fläche hat, um den Filterfaktor jeweils korrekt zu berücksichtigen. Also brauchst Du eine Interpolation. Und damit ist die Genauigkeit (='Auflösung') jedes einzelnen Sensels von einer Farbinterpolation abhängig...

Darauf haben ja Waartfarken (Lichtspektrum) und e89 (Sensel sind 'unterschiedlich blind') oben schon hingewiesen.

Cuautehmoc
 
Kurz und knapp.
Kleine Hochzeitsgesellschaft 16 Personen mit Nikon D40 6MP auf 75x50cm gedruckt.
Kein Pixel zu sehen.
Mit entsprechender Nachbearbeitung, also sauberer Hochskalierung, sind nie Pixel zu sehen ... ich kann hier am meinem Rechner einfach ein 4x4 Bild bauen mit 4 verschiedenen Farben und dann in der Bildansicht einfach weiche Übergänge anstellen ... dann sieht man auf dem Bild auf maximale Bildschirmgröße vergrößert immer noch keine Pixel.

Dasselbe gilt für Schärfen. Mit entsprechendem Nachschärfen kriegt man noch die weicheste Optik scharf. Es sieht dann evtl eben nicht wirklich gut aus, aber scharf ist das Foto dann auf jeden Fall.
 
Kurz und knapp.
Kleine Hochzeitsgesellschaft 16 Personen mit Nikon D40 6MP auf 75x50cm gedruckt.
Kein Pixel zu sehen.

Wird auch relativ schwierig, wenn Du oder der Druckanbieter nicht gerade ohne Interpolation hochskalieren... :ugly: Du musst das schon einstellen oder denen mitteilen, das Du gerne Pixel sehen würdest... ;-)

1. Quelldatei 36 Mpixel (gecroppt auf knapp 29 Mpixel und auf Forumsauflösung skaliert)
2. 100 % Crop aus dem 36 Mpixel Bild
3. Runterskaliert auf 6 Mpixel (25x17cm bei 300 PPI), daraus der Crop 100 %
4. Mit Interpolation hochskaliert auf 75x50cm (52 Mpixel), Crop 100 %
5. Ohne Interpolation hochskaliert auf 75x50cm (52 Mpixel), Crop 100 %

Also ich sehe bei 5. definitiv Pixel... Und wie Du siehst, wird 2. immer mehr Informationen besitzen als 4. ;-)
 

Anhänge

Zuletzt bearbeitet:
Also wenn ich auf meinen Monitor schaue, dann sehe ich immer einen ganzen Haufen von Pixeln. Was ich nicht schaffe: Die einzelnen Pixel voneinander zu unterscheiden. Es ist mir also nicht möglich, ein falsch gesetztes Pixel als solches zu erkennen. Jedenfalls nicht, wenn ich eine 'übliche' Distanz zum Monitor einhalte.
 
WERBUNG
Zurück
Oben Unten