• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Objektiv-Auflösung

kaha300d

Themenersteller
Wenn man sich hier

http://www.wlcastleman.com/equip/reviews/index.htm

die Testberichte ansieht, kommen die Spitzenobjektive (z.B. EF 200mm f/1.8 L) auf 80 Linien pro Millimeter auf einem KB-Film. Das wären dann auf dem Chip der 300D (22,7x15,1 mm) 1816x1208 Pixel.
Sogar an der Vollformat EOS 1Ds MkII (36x24 mm) wären das nur 2880x1920, also 5,5 MPixel.

Wo liegt denn mein Denkfehler - denn ein solcher muss es wohl sein!
 
Sogar bei der doppelten Auflösung wäre mit einem APS-C-Chip mit 3632x2416 = ca. 9 MPixel, das Ende der Fahnenstange erreicht.
 
Hallo,

die Rechnung ist glaube ich nicht ganz so einfach, da man für die Darstellung einer Linien mindestens zwei Pixel benötigt.

Gruss Robi
 
Das Objektiv einer Kompaktkamera mit 6mm-Chip und 8 MPixel müsste dann ja so um die 500 Linien pro mm auflösen.

Irgendetwas stimmt da nicht.
 
Interessante Diskussion. Ich würde etwas früher anfangen: wie kommt es, dass ein Sensor, der 8,2 MP Helligkeits-Sensoren hat, 8.0 MP Farb Pixel liefern kann? Die Antwort ist einfach: Interpolation. Insofern ist diese 1:1 Umrechnung der Auflösung eines Objektivs auf einen Sensor mit Vorsicht zu geniesssen.

Grüße
 
Palmer schrieb:
...wie kommt es, dass ein Sensor, der 8,2 MP Helligkeits-Sensoren hat, 8.0 MP Farb Pixel liefern kann? Die Antwort ist einfach: Interpolation....

Und da bist du dir sicher? Ich war bisher der Meinung das ein Farbpixel im Bild aus 3 Einzelsensoren besteht, d.h. 3 x 8M einzelne lichtempfindliche Sensoren.
 
Ich möchte vorweg nehmen, dass ich mich in der Theorie nur leidlich auskenne. Dennoch erscheint mir in Deiner Aussage kein Denkfehler zu sein. Wenn ein Objektiv auf 80 Linienpaare/mm kommt, so erreicht es auf KB eine "Auflösung" von ca. 4,5 MP. Für mich bedeutet das lediglich, das eine digitale Kamera mit mehr als 6MP bei den herkömmlichen Optiken noch nicht mal wirklich Sinn macht, da das Objektiv mit der Auflösung nicht mehr nachkommt. Vielleicht auch mit ein Grund, warum die 1D mit einer 6MP-Auflösung angeboten wird.
Dabei muss man noch bedenken, dass durch die kleinere Fläche des APS-C-Sensors eigentlich noch nicht mal der gesamte Bereich des Objektives abgebildet wird.
Die Unlogik steckt vielleicht in der gedanklichen Voraussetzung, die Du nimmst: ein Objektiv muss nicht die volle Auflösung der Kamera erreichen, um etwas abbilden zu können. Schön wäre es und ich würde daraus auch mal den Schluss ziehen, dass in Zukunft digital optimierte Objektive höher auflösen können. Vielleicht müssen wir da aber noch auf die ersten EF-S-L-Optiken warten, die dann auch wieder die volle Kapazität einer 20D oder 1DMII ausnutzen können.
Für mich persönlich wirkt es derzeit, als könnte das Objektiv nicht mit dem Fortschritt mithalten. Andere Ansichten sind herzlichst willkommen :-))
 
Hi,
schau mal in den Thread "Auflösung der Objektive", dort wurde dieses Thema bereits ausgiebig besprochen.
mfG Gucky
 
c-bc-o schrieb:
Und da bist du dir sicher? Ich war bisher der Meinung das ein Farbpixel im Bild aus 3 Einzelsensoren besteht, d.h. 3 x 8M einzelne lichtempfindliche Sensoren.

Das ein Farbpixel aus 3 Helligkeitswerten besteht (RGB) stimmt. Der Rest stimmt nicht. Schau dir mal an, wofür das sog. Bayer-Filter gut ist...

Grüße
 
c-bc-o schrieb:
Und da bist du dir sicher? Ich war bisher der Meinung das ein Farbpixel im Bild aus 3 Einzelsensoren besteht, d.h. 3 x 8M einzelne lichtempfindliche Sensoren.
Schön wärs, ist aber bei den Bayersensoren nicht so, die 8 Mio Pixel verteilen sich auf die 3 Grundfarben (Imho 2:1:1). Bei den Sigma Foveons dagegen entsprechen die 3MPixel 3 Pixelebenen mit jeweils 3 MPixeln jeder (!) Grundfarbe.
 
Foveon (3 übereinander liegende Chip(Filterschichten))
Bestandteile(Verhältniss 2:1:1):
2x CMOS-Filterschicht-grün (eine Filterschicht zur Kontraststeuerung)
1x CMOS-Filterschicht-blau
1x CMOS-Filterschicht-rot
Die Lichtstrahlen dringen je nach Wellenlänge unterschiedlich tief in die Filterschichten(Chips)ein.
Kürzere Wellenlängen werden früher absorbiert als Längere.

8MP Bild = 3 x 8MP je Grundfarbe
Beim 8MP 3 CMOS übereinander sind echte 8MP vorhanden.

3 CCD (3 nebeneinaderliegende CCD)(analog, per CMOS digital)
Bestandteile(Verhältniss 1:1:1):
1x CCD für grün
1x CCD für blau
1x CCD für rot
Durch Prismen werden die Grundfarben jeweils auf einen CCD gelenkt.
Und hinterher wieder vom Bildprozessor zusammengesetzt bzw übereinander gelegt.

8MP Bild = 3 x 8MP je Grundfarbe
Beim 8MP 3CCD sind echte 8MP vorhanden.


1 CCD (1 Ebene)(analog, per CMOS digital)

Bestandteile(Verhältniss 2:1:1):
50% grüne Filter/CCD
25% rote Filter/CCD
25% blaue Filter/CCD
per Farbfiltermosaik (nebeneinander liegende Filter) und Interpolation(ähnlich einem TV)
jeder Lichtstrahl trift max. einen Filter(eine Grundfarbe)
Der Bildprozessor errechnet daraus das Bild(Farbinterpolation per Interpolationsalgorithmen)

Edit: mal geändert ;)
 
Zuletzt bearbeitet:
kaha300d schrieb:
Wo liegt denn mein Denkfehler - denn ein solcher muss es wohl sein!
Richtig erkannt :)

Wenn du dir die Seite genauer anschaust, wirst du "Linienpaar" lesen. Ein Paar besteht gemeinhin aus 2 Teilen. Ergo kannst du deine errechneten Pixel pro Seite verdoppeln, die Gesamtanzahl also vervierfachen. Und schon werden an einem APS-C Sensor respektable 9MPix aufgelöst.

Weiterhin werden beim Bayer-Pattern 4 Helligkeitswerte zu 4 echten RGB-Pixeln interpoliert. Die tatsächliche optische Auflösung der Sensoren (Foveon mal außen vor gelassen) ist also weit geringer. Insofern stört auch die geringere Auflösung eines Mittelklasse-Objektivs nicht wirklich und fällt höchstwhrscheinlich nichteinmal auf.
 
dan schrieb:
ich habs damals mal so verstanden:

3 CCD (3 Ebenen) (zB Foveon x3)
Bestandteile(Verhältniss 2:1:1):
2x grüne Filterschichten (wovon eine der Kontraststeuerung dient)
1x rote Filterschicht
1x blaue Filterschicht
Jeder Lichtstrahl trift/durchdringt jede Fitlerschicht.

8MP Bild = 3 x 8MP je Grundfarbe + 8MP Kontraststeuerung
Beim 8MP 3CCD sind echte 8MP vorhanden.

1 CCD (1 Ebene)

Bestandteile(Verhältniss 2:1:1):
50% grüne Filter/Sensoren
25% rote Filter/Sensoren
25% blaue Filter/Sensoren
per Farbfiltermosaik (nebeneinander liegende Filter) und Interpolation(ähnlich einem TV)
jeder Lichtstrahl trift max. einen Filter(eine Grundfarbe)
Der Bildprozessor errechnet daraus das Bild(Farbinterpolation per Interpolationsalgorithmen)

Beim 8MP 1CCD entsprichts je nach Herrsteller und Interpolationsalgorithmen zwischen 2 bis 6 MP eines 3CCD.

Du verwechselst da etwas: Die 3 CCDs (in Videokamera) sind geometrisch anders angeordnet und das Licht wird da durch Prismen gebrochen und jede Grundfarbe auf ein CCD abgelenkt. Die Erkärung von Odin stimmt!
 
Tuxino schrieb:
Du verwechselst da etwas: Die 3 CCDs (in Videokamera) sind geometrisch anders angeordnet und das Licht wird da durch Prismen gebrochen und jede Grundfarbe auf ein CCD abgelenkt. Die Erkärung von Odin stimmt!

Videokamera? Das einzige, was bei dans Beitrag nicht stimmt, sind die 8mp (es sind 3.X mp). Bei Foveons gibts kein Prisma (zumindest nicht vor dem Sensor).

Grüße
 
Tuxino schrieb:
Du verwechselst da etwas: Die 3 CCDs (in Videokamera) sind geometrisch anders angeordnet und das Licht wird da durch Prismen gebrochen und jede Grundfarbe auf ein CCD abgelenkt. Die Erkärung von Odin stimmt!

Ich habe auch gar nicht behauptet das die Antwort von Odin falsch sein soll. :confused:
Hab den Fehler selbst schon gefunden.
Das Prinzip des Foveon ist also nichts weiter als CMOS-Technik mit CCD-Prinzip.
Nur das dort die Lichtstrahlen durch 3(4) übereinander liegende CMOS geleitet wird
und beim 3CCD durch Prismen auf nebeneinanderliegende CCD verteilt wird.
Das Prinzip bleibt das Gleiche. ;)

ps. es gab/gibt auch Digifotocams mit 3CCD.
 
dan schrieb:
ich habs damals mal so verstanden:

8MP Bild = 3 x 8MP je Grundfarbe + 8MP Kontraststeuerung
Beim 8MP 1CCD entsprichts je nach Herrsteller und Interpolationsalgorithmen zwischen 2 bis 6 MP eines 3CCD.

Nein, das hast du leider falsch verstanden. Odin_der_weise hat es schon erklärt. Funktioniert bei Foveon anders. Und übrigens: Es gibt keinen 8MP Foveon Chip. Schön wärs. Die Kamera wäre sofort meine... (Halbwegs bezahlbaren Preis vorausgesetzt)

Näheres unter : http://www.foveon.com/article.php?a=67

Grüße
 
Palmer schrieb:
Videokamera? Das einzige, was bei dans Beitrag nicht stimmt, sind die 8mp (es sind 3.X mp). Bei Foveons gibts kein Prisma (zumindest nicht vor dem Sensor).

Grüße

eben, die Prismen gibt es nämlich bei Videokameras....
 
Trendliner schrieb:
Richtig erkannt :)

Wenn du dir die Seite genauer anschaust, wirst du "Linienpaar" lesen. Ein Paar besteht gemeinhin aus 2 Teilen. Ergo kannst du deine errechneten Pixel pro Seite verdoppeln, die Gesamtanzahl also vervierfachen. Und schon werden an einem APS-C Sensor respektable 9MPix aufgelöst.

Weiterhin werden beim Bayer-Pattern 4 Helligkeitswerte zu 4 echten RGB-Pixeln interpoliert. Die tatsächliche optische Auflösung der Sensoren (Foveon mal außen vor gelassen) ist also weit geringer. Insofern stört auch die geringere Auflösung eines Mittelklasse-Objektivs nicht wirklich und fällt höchstwhrscheinlich nichteinmal auf.

Die Nikon D2x macht mit APSC Format 12,4 MPixel. Wo nimmt sie die dann her? Da langt es ja bei weitem nicht!
 
kaha300d schrieb:
Die Nikon D2x macht mit APSC Format 12,4 MPixel. Wo nimmt sie die dann her? Da langt es ja bei weitem nicht!

Ich würde mich nicht so an irgendwelchen Zahlen aufhängen. Bei solchen Werten kommt es auch immer auf die Rahmenbedingungen an, also die Art wie gemessen wurde (z.B Kontrast).
Auch die Nikon D2X hat einen Bayer-Sensor. Also 6 Millionen grüne, 3 Millionen rote und 3 Millionen blaue Sensorzellen. Die Informationen daraus werden dann auf echte 12MP hochinterpoliert, wie bei jeder anderen Digitalkamera auch (Foveon ausgenommen). Dadurch wird die reale Auflösung wieder vermindert.
 
WERBUNG
Zurück
Oben Unten