• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Hier ist die Alpha 900

Ich warte eigentlich schon lange auf Bilder von der D3 mit dem 20mm f/2.8mm oder dem 24mm Nikkor wie dort die Problemzonen aussehen. Vor allem auch im Vergleich zum neuen Nikkor 14-24mm Zoom. Eigentlich müsste diese neue Rechnung schärfer sein an den Ränder als die Festbrennweiten.
Ich hatte auf der Nikon Solutions Expo mein AF24/2,8 dabei und hatte dort mit der D3 ein paar Bilder gemacht. Es schlägt sich insgesamt nicht schlecht, IMO besser als am Crop, allerdings sind die äußersten Ecken deutlich unscharf und leiden offen unter erheblichem Koma (bei F/3,5 schon fast kein Koma mehr). Das 14-24 ist nach den Bildern die man sieht, erheblich besser.

VG Eberhard
 
Ich verstehe nicht was daran so kompliziert ist. Wenn ein Sensor mehr Pixel hat kommt darauf mindestens so viel Information an, eher mehr. Das kann nur ein Vorteil sein. Die Ausnutzung des Sensors ist vielleicht nicht optimal.
Aber scheinbar ist der richtige Digitalfotograf nur dann glücklich wenn er super 100%-Ansichten hat und opfert dafür lieber "echte" Auflösung.
Wenn ich die Sensorauflösung so festlege, dass der Bildrand in 100% super aussieht, orientiere ich mich am schwächsten Punkt des Systems und ziehe dafür den ganzen Rest runter. Wenn ich die Auflösung erhöhe gewinne ich am Rand vielleicht nichts, aber in der Bildmitte vermutlich. Warum sollte ich das herschenken?
 
Zuletzt bearbeitet:
AW: Geschichte der Optiken

Das Canon 24/70 kam 2003 als Ablösung des 28/70 auf den Markt, zusammen mit dem 16/35 als Ablösung des 20/35. 2003 kam die 1Ds mit 11MP auf den Markt. Die beiden neuen Optiken 24/70 und 16/35 waren für die 1Ds gerechnet. Ein Film bringt es nicht auf den Informationsgehalt der 1Ds. Die Kamera hat geschätzt zwischen 20 und 30MP Informationen, ein KB-Filmchen vielleicht amximal 10MP wenns hoch kommt. Ein KB-Negativ im Scanner bringt nicht viel an Auflösung.

Der Bau von Optiken wird von der Auflösung her nur noch durch die Beugung begrenzt, der Rest ist die Kunst der Linsenschleifer, der Vergütung und der Zentrierung. Es ist auf jeden Fall so das die Qualität der Optiken den Chips ständig folgt, siehe die neuen Würfe 2003 nach der 1Ds 2002. Lt. Canon-Ingenieueren haben KB-Optiken noch große Reserven und sind mit den aktuellen Chips noch bei weitem nicht am Ende.

Allerdings hat Zeiss gezeigt (mit dem 21mm) das Optiken auch zeitlos gbaut werden können. Das zeiss 21mm wartet noch immer auf eine Ablösung der Weltspitze. Wenn Sony meint mit den teuren Optiken und dem Zeiss-Label Qualität herzustellen, dann wird der Markt es zu honrieren wissen. Auch das 16/80 Zeiss für die A-Serie ist keine sonderlich hochwertige Optik, sie sollte den Label Zeiss eigentlich abwerfen. Sie ist nicht viel besser wie das Sigma 17/70. Und das heißt schon etwas.
 
AW: Geschichte der Optiken

..... Ein Film bringt es nicht auf den Informationsgehalt der 1Ds. Die Kamera hat geschätzt zwischen 20 und 30MP Informationen, ein KB-Filmchen vielleicht amximal 10MP wenns hoch kommt. Ein KB-Negativ im Scanner bringt nicht viel an Auflösung.

Da muss ich doch ein wenig widersprechen: ein wie Du so spöttisch meinst "Filmchen" bringt es - je nach Typ und Empfindlichkeit auf bis zu 150 MP umgerechnet. Steht in diversen Fachbüchern. Kannst nachlesen.

Ich selbst habe das mal zufällig probiert - und war fasziniert, wie gut ein alter SW Film (Agfa APX 100) auflöst. Meine Alpha ist da trotz Vario Sonnar meilenweit entfernt. Sicher ist die 100 bei weitem keine Profimaschine, aber Sensor bleibt Sensor. Und 10MP sind kein Tinev. Wie gut muss dann erst die Auflösung im modernsten SW Film Fuji Neopan Acros sein? Der schafft mal locker 400 Linien; zugegeben, ich hatte Zeiss im Mittelformat :)

LG
Wolfgang
 
Es war abzusehen wohin die Diskussion führen wird. Reizwort "Film" und Chip. Ich orientiere mich jedoch ausschließlich an der normalen Verarbeitungskette für Negativfilme oder Diapositivfilme, deren ich welche in großen Mengen im Archiv habe, KB und Mittelformat. Normal bedeutet Großlabor. Wir wissen alle das diese Verarbeitungskette entweder nicht mehr existent ist, oder dermaßen verkommen ist, das man Filme eigentlich gleich in den Reißwolf senden könnte. Meine Filme mit den Perforierungen mitten in den Schichten kenne ich zur Genüge. Für Fachlabors in einem Jahr gibts ne A700 oder demnächst ne A900.

Und dann, um in die Tiefe zu gehen, glänzen Optiken, hier Zooms, wie folgt oder glänzen nicht. Offenblendwerte oder abgeblendet zwischen 8 und 11, den max. Leistungsbereich des Zooms mit den besten Werten. Abgeblendet erreichen gute Zooms ebenfalls Werte von Festbrennweiten oder übertreffen diese - weil die Festbrennweiten noch für Filme gerechnet sind. Und alles hier bezog sich auf KB-Format im Sinne des Threads auf die A900.

Wenn die A900 24MB hat und die Optiken von Zeiss halten was Sony großmundig drauf labelt, dann haben die Fotos 50MB Informationen. Eine 5Dhat bereits um die 25-30MB. Mit den 24MB könnten Häuserwände tapeziert werden.

Und welches Schindluder wurde in der Vergangenheit mit den digitalen Fotos der Fachfotografen getrieben? Es war zum lachen, hier erklärt sich auch der Frust der Fotografen die noch mit Filmen arbeiteten und noch arbeiten. man nahm sich 2-4MP-Digitalkameras und schärfte die Ergebnisse zum Erbrechen, dann stellte man sich 10m davor und sagte dreist und unverfroren sie hätten die Schärfe eines Asahi67-Negativs. Es ist gut, das diese Zeit der neuen Schärfeprogramme auf 2-4MP-Kameras durch die Pixelzähler gnadenlos abgelöst wurde. Es war schlimm gewesen.

Die jetzigen Qualitätsoffensive mit 24MP-Kameras gleicht da eher einer neuen Richtung des Understatements, die mir persönlich besser gefällt.
 
Es war abzusehen wohin die Diskussion führen wird. Reizwort "Film" und Chip. Ich orientiere mich jedoch ausschließlich an der normalen Verarbeitungskette für Negativfilme oder Diapositivfilme, deren ich welche in großen Mengen im Archiv habe, KB und Mittelformat. Normal bedeutet Großlabor. Wir wissen alle das diese Verarbeitungskette entweder nicht mehr existent ist, oder dermaßen verkommen ist, das man Filme eigentlich gleich in den Reißwolf senden könnte. Meine Filme mit den Perforierungen mitten in den Schichten kenne ich zur Genüge. .


Bitte versuche nicht das Thema auf Analog/digital zu verfrachten - dies war nicht gemeint. Ich habe Fakten angesprochen. Hast Du schon mal ein hochgerechnetes Digitalfoto mit einer Nikon D2 gesehen und daneben ein ordentlich ausgearbeitetes Anlogbild? Kein Vergleich. Da hat eben analog noch immer die Nase ganz weit vorne.

Du hast völlig Recht, was die normale Kette der Ausarbeitung anlangt. Echt schlimm was da so einem zugemutet wird. Darum habe ich meine Duka auch auf Farbe ausgebaut :) Vielleicht hat auch die "Geiz ist ..." Mentalität dazu geführt. Man will irsinnig viele Bilder zum Nulltarif machen. Mir ist Qualität lieber. Darum analog, darum Mittelformat.

Für Familienfeste, Firmenfeiern etc., ist meine Digi die erste Wahl. So hat jede fotografische Welt seine Vorteile.

LG
Wolfgang
 
Bezüglich Auflösungsvermögen beim Kleinbildfilm, möchte ich auf einen Grundlagenartikel zur digitalen Fotografie in einer der ersten ct Spezial Digitale Fotografie hinweisen.
Schritt für Schritt wird dort methodisch hergeleitet welche Auflösung in Pixel gemessen ein (guter) KB-Film hat. Ergebnis: Ca. 11 MP.
Ich war erst auf einer Naturfotoausstellung, bei der sich die analogen und digitalen Bilder ungefähr die Wage hielten. Ich konnte für die analogen keinen technischen Vorteil sehen, im Gegenteil.

Betrachtet man mal die Auflösungen von Objektiven aus Kompaktkameras, dann kann man ungefähr erahnen, was im KB-Format noch an Luft nach oben drinnsteckt. Bisherige Objektive wurden einfach aus Kostengründen nicht für solch hohe Auflösungen ausgelegt (Glassorten).

Armin
 
Betrachtet man mal die Auflösungen von Objektiven aus Kompaktkameras, dann kann man ungefähr erahnen, was im KB-Format noch an Luft nach oben drinnsteckt. Bisherige Objektive wurden einfach aus Kostengründen nicht für solch hohe Auflösungen ausgelegt (Glassorten).

Ich habe hier Scans eines technischen Filmes der mindestens die Auflösung meines Scanner sprengt (und das sind immerhin knapp über 20mpix). Ein Beispiel habe ich hier hochgeladen. Gute Kleinbildlinsen packen das durchaus, wobei gut in diesem Fall zugegebenermassen ein Zeiss 28mm Biogon ist.
 
Was mich an der ganzen Diskussion verwundert:
(...)
Tyndal
Was gibt es da zu wundern? Ist selbst nachdenken nicht mehr in Mode?
Wenn man Optik und sensoren mal vergleicht und nachrechnet und nachmißt kommt man sehr schnell darauf, daß fast alle Optiken heutzutage den Sensoren bis KB-Format nicht mehr gerecht werden. Das ist eine Folge des Marketings, wie Vorschreiber schon schrieben. MP verkauft sich besser und jeder Depp versteht es (oder glaubt es zu verstehen). Die Optik wurde vernachlässigt. Es gibt nur wenige Festbrennweiten, die einen 10 MP-Sensor wirklich ausreizen. Es erkläre mir mal jemand, was ich davon habe, wenn ich die Pixel zählen kann, aber der Unschärfekreis eine Fläche von mindesten 20 Pixel überdeckt? Von CA und Verzeichnung wollen wir mal gar nicht erst nicht reden. Das ist heute die Realität!
 
Ich hatte auf der Nikon Solutions Expo mein AF24/2,8 dabei und hatte dort mit der D3 ein paar Bilder gemacht. Es schlägt sich insgesamt nicht schlecht, IMO besser als am Crop, allerdings sind die äußersten Ecken deutlich unscharf und leiden offen unter erheblichem Koma (bei F/3,5 schon fast kein Koma mehr). Das 14-24 ist nach den Bildern die man sieht, erheblich besser.

VG Eberhard

Danke für deine Kommentare, ich denke das wird das gleiche Bild dann sein an der Alpha 900 mit den Minolta Fixbrennweiten (20mm 24mm). Wäre interessant mal Bilder zu sehen von einer D3 mit einem 20mm Nikkor und das gleiche Bild mit dem 14-24mm auf 20mm eingestellt. Beide mit offener Blende.

gruss herrer
 
Wenn man Optik und sensoren mal vergleicht und nachrechnet und nachmißt kommt man sehr schnell darauf, daß fast alle Optiken heutzutage den Sensoren bis KB-Format nicht mehr gerecht werden.

Dass war schon immer so, kein Grund sich auftzuregen.
Mit analogem Filmmaterial hat man in Kontaktkopie (ohne Optik) früher oft schon Auflösungswerte erzielt, die doppelt so hoch waren wie mit einer Optik gemessen. Hat damals auch die wenigsten gestört.
 
Es erkläre mir mal jemand, was ich davon habe, wenn ich die Pixel zählen kann, aber der Unschärfekreis eine Fläche von mindesten 20 Pixel überdeckt?

Na, so verkehrt ist dass doch nicht? Zur Erfüllung des Abtastheorems (Nyquist-Frequenz und so) bräuchtest du so ungefähr 5 Pixel (2 in jede Richtung) oder? Und dann hättest du gute Werte für einen monochromen Sensor, aber noch nicht berücksichtigt, dass du ja eigentlich einen Bayer-Sensor hast!
 
@raps:
Verstehe ich nicht ganz. Für Punktschärfe in Pixelgröße dürfte der Zerstreuungskreis doch nicht größer sein als unten gezeigt. Anderenfalls belichtet er schon Nachbarpixel.
 
Zuletzt bearbeitet:
Hier mal ein Bild dazu: Wenn du zwei Unschärfekreise hast, brauchst du mindestens noch einen Pixel dazwischen, sonst weisst du später nicht ob es nicht ein und derselbe (größere) Unschärfekreis war.

Meine Rechnung mit den 20 pixeln ist wahrscheinlich nicht korrekt, es müssen wohl so 8-10 sein. Es sind aber auf wohl mindestens doppelt so viele nötig wie die Auflösung
 
Irgendwie kann ich das nicht so ganz verstehen, das also über die hohen Pixelzahlen gemeckert wird und das da die Linsen nicht mehr hinterherkommen.

Bei mehr Pixeln wird das Bild einfach feiner gezeichnet, egal wie die Linse nun Auflöst. Bei weniger Pixeln kommt einem ein Bild manchmal halt schärfer vor, da die Kanten ausgeprägter sind, dafür ist das BIld aber auch ab einer gewissen größe Pixelig.
Das ist wie mit den Normalen TFTs und den ClearType TFTs. Bei den ClearTypes und zum Teil auch bei den Normalen TFTs werden benachbarte Subpixel mit benutzt um eine Schrift oder eine Diagonale feiner darstellen zu können.
Auf manche Menschen wirkt das Bild dann allerdings unscharft und sie können bei längeren arbeiten am Computer Kopfschmerzen bekommen, andere wiederum finden es besser und angenehmer.
http://de.wikipedia.org/wiki/ClearType

Und wenn man ein 25Megapixel Bild welches dann sehr wahrscheinlich weicher wirkt entsprechend Nachschärft bekommt man ganz sicher den gleichen Schärfe eindruck, jedoch mit viel mehr Details als bei einem 12 Megapixel Bild.

Und das mit den Auflösungen der Objektive finde ich ziemlich Subjektiv.
Objektive sind eine Analoge angelegenheit und lassen sich nicht mit irgendwelchen Auflösungswerten in Form von X Pixeln bezeichnen.
Klar! es gibt Optiken die Schärfer sind als andere. Man sagt halt auch die Optik ist hochauflösender als die Andere. Aber so richtig vergleichen kann man das nicht wirklich, dass ist wie die Sache, wieviel Megapixel ein Analoger Film hat.

Analog ist halt nich Digital. Und Licht ist halt mal Analog.

Und je mehr Pixel desto mehr nähert man sich einem Analogen Verlauf. Ob das nun in der Messtechnik so ist (mehr messpunkte) oder igend einer anderen Umwandlung einer analogen Sache in ein Digitales Format, je mehr Digitale Punkte, desto näher kommt man dem Analogensignal.
Ein HD Bild (Fernseher) sieht doch auch viel realer aus als ein normales.

Wenn man ein Scharfes Bild haben will braucht man einfach ein scharfes Objektiv, und je mehr Pixel manhat desto näher befinden wir uns and er ANalogen Fotografie. Warum soll den z.B ein altes 80-200/2.8 Apo plötzlich an einer A900 mit 25Megapixeln nicht mehr funktionieren und die Bilder plötzlich unscharf werden.

Wenn das Objektiv scharf ist werden auch die Bilder scharf.

Gruss Daniel
 
Ja, kann ich nachvollziehen. Das heißt im Umkehrschluß aber auch, daß ab einer gewissen Grenze jedes Pixel mehr überflüssig ist und dann besser mit größeren Pixeln für weniger Rauschen gesorgt werden sollte.
 
Ich verstehe nicht was daran so kompliziert ist. Wenn ein Sensor mehr Pixel hat kommt darauf mindestens so viel Information an, eher mehr. Das kann nur ein Vorteil sein. Die Ausnutzung des Sensors ist vielleicht nicht optimal.

Das ist eben eigentlich nur teilweise richtig.

Denn wenn der einzelne Pixel größer ist (das kann er nur bei vergleichsweise kleinerer Zahl der Gesamt-MP sein), und ansonsten alles auf dem selben technischen Standard, dann hat man im Durchschnitt auch mehr Photonen pro einzelnem Pixel. Das ergibt ein feiner abgestuftes Helligkeitssignal. Daraus resultierend bessere Tonwertabstufung / Eingangsdynamik.

Mache ich jetzt viele kleinere Pixel, verzichte ich auf diesen Vorteil wieder und bekomme zwar eine bessere Ortsauflösung (mehr "Details"), dafür aber keine bessere Tonwertabstufung.

Ich empfinde die Eingangsdynamik bei DSLR-Sensoren generell nicht als so prickelnd (auch gerade im Vergleich zu modernem analogem Film) und ein Sensorhersteller könnte eben auch versuchen, dies zu optimieren und NICHT nur die Megapixel, von denen es eh schon wirklich verdammt viele gibt, noch weiter zu steigern.

Auf den oben angebrachten, leicht polemisch angehauchten :) Einwand, warum sich in den Foren alle als Experten fühlen und die Hersteller angeblich alle als "Nichtsahnende" abgestempelt werden:

Warum hat denn wohl die Nikon D3 trotz Vollformat "nur" 12 MP ? Wenn es nur "eine" richtige Lösung geben würde, dann müßten ja nun zwangsläufig die Leute bei Sony oder die Leute bei Nikon keine Ahnung haben. Nun, ich finde, die Leute bei Nikon haben diesbezüglich sehr viel Ahnung. ;)

In Wahrheit gibt es wohl kaum eine Kamera, die in der letzten Zeit so wie eine Bombe eingeschlagen hat wie die D3. Weil deren Sensor offenbar ganz reelle, im praktischen Fotografenleben auch bei Profis (und Amateuren, die sich s leisten können...) auftretende Bedürfnisse optimal befriedigt. Und nicht nur auf eine Zahl fürs Guinness Buch der Rekorde hin optimiert wurde.

Thomas
 
Hier mal ein Bild dazu: Wenn du zwei Unschärfekreise hast, brauchst du mindestens noch einen Pixel dazwischen, sonst weisst du später nicht ob es nicht ein und derselbe (größere) Unschärfekreis war.

Meine Rechnung mit den 20 pixeln ist wahrscheinlich nicht korrekt, es müssen wohl so 8-10 sein. Es sind aber auf wohl mindestens doppelt so viele nötig wie die Auflösung

Einverstanden. Doppelt so viele in einer Dimension. D. h. viermal so viele auf die Fläche bezogen. Bedeutet aber immer noch, daß der Unschärfekreis nicht größer sein darf wie oben abgegeben.
 
Ja Daniel, da stimme ich dir zu, wie man an meiner angehängten Zeichnung sieht, wird dort nur das absolute Minimum an die geforderte Auflösung dargestellt. Von einer realsitischen Darstellung des Kurvenverlaufes/Signalverlaufes ist man damit noch seehr weit entfernt!

Sehr viele Leute werfen heutzutage mit dem Begriff "Megapixelwahn" um sich, ohne dabei auch wirklich besser Bescheid zu wissen als die Leute, die mehr Megapixel fordern. Sie plappern halt auch nur nach, was sie so gehört haben, und kümmern sich auch nicht darum, ob sich die Aussage auf Vollformat-CCDs bezieht oder auf Miniknipsen.

Deswegen ist "Megapixelwahn" genauso ein Unwort geworden!

Der eine ist halt stolz darauf, dass seine Kamera immer noch nur 6 Megapixel hat.
Physikalisch begründen kann er dass aber oft nicht. Er macht es halt so, wie es ihm vorgeplappert wurde.
Aber warum, wenn technisch noch viel mehr möglich wäre? (und dass ist es sicherlich). Für eine Ingenieur ist vieles, was man in Bildern an Fehlern so sieht (Aliasing/Moirée) einfach ein klarer Fall von "Unterabtastung"
 
WERBUNG
Zurück
Oben Unten