• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs Juli 2025.
    Thema: "Unscharf"

    Nur noch bis zum 31.07.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

SD10 vs. 20D

  • Themenersteller Themenersteller Gast_10873
  • Erstellt am Erstellt am
DominicGroß schrieb:
Also ich finde die 20D Linien sind auch zusammengelaufen undzwar überall

Solange ich in dem Bild noch eine regelmäßige Struktur von hellen Feldern erkennen kann, die von dunkleren Linien (wenn man sie denn noch so nennen möchte) eingeschlossen sind, dann ist noch nichts völlig zusammengelaufen.

Erinnere Dich: Eine ähnliche Argumentation haben wir beide benutzt, als wir die Bilder aus KEs 1Ds mit dem Trommelscan von sbuerger verglichen haben.
 
mythos schrieb:
Du hast doch mit solchen Gockeleien angefangen...

Nö, ich habe nur nach einer vernünftigen Erklärung für Eure Verständnisprobleme gesucht. Wenn ich nicht einstecken könnte, hätte ich mich schon lange aus diesem Thread verabschiedet, also behaupte keinen Unsinn.

Der Junge mit der Nikon schrieb:
Was ist denn eine Abbrobation? Ist es für Dich standesgemäß, falsch geschriebene Fremdwörter zu verwenden?

Ach, der Roland hat immer einen ganz besonderen 'Humor'...
 
hmuenx schrieb:
Bei Deiner Anordnung ("modified (diagonal) Bayer pattern") werden zumindest lt.
...

Schritt n+2

G --- R --- G --- R --- ...
B --- G --- B --- G --- ...
G --- R --- G --- R --- ...
...
...

Hallo, da bin ich wieder. ;)

Da ist in der Zwischenzeit hier ja ganz schön die Post abgegangen.
Eigendlich haben jetzt wohl die wenigsten wirklich noch Lust den Thread
weiter
fortzusetzen, aber bitte trotzdem nicht stöhnen... :cool:

Für mich war das bis hier nämlich wirklich recht informativ.
Allerdings komme ich kaum mit dem Lesen neuer Beiträge nach,
daher klinke ich mich halt einfach mal on topic wieder ein.

Unabhängig von den real existierenden Sensoren geht es mir jetzt
aber nur um die Einordnung der Sensor-Prinzipien.

Holgers Algorythmus zur Auswertung des Bayer-Pattern ist sowohl einfacher,
als auch eleganter, als der von mir vorher skizzierte.

Aber alleine die Tatsache, das es anscheinend unzählige Varianten solcher
Deskreening-Algos gibt, sagt was zu ihrem Wert.

Holgers Algo erzeugt jedenfalls für jeden physikalischen Sensor auch einen gleichmäßig
interpolierten Farbpixel. Dabei wird durch die Überlappung von jeweils 50% mit den
Nachbar-Matrize auf etwas elegantere Art interpoliert, als wenn man nur jeweils nur
nebeneinanderliegende Werte verrechnen würde.

Erhöht sich dadurch aber die Auflösung? Naja:, ich finde eher Nein! :p

Auch wenn ich den trolligen Diskussionsstil von Onlineredakteur her nicht sonderlich schätze,
in diesem einen Punkt hat er, wie ich finde, recht.

Wenn man behauptet "der Sensor hat die und die Auflösung", dann erwartet man doch eigendlich,
dass der kleinste erfaßbare Pixel eben genau so groß ist.

Gerade das aber kann auch der beste Interpolationsalgorythmus
nicht leisten.

Um also wirklich sicher zu sein, dass eine bestimmter Pixel farblich erfaßt wird,
muß dieser Pixel eben doch die Größe von 4 Bayerpixeln haben.

Allerdings, und ab da liegt Onlineredakteur meiner neuen Einschätzung nach falsch,
nicht alle kleineren Pixel gehen deshalb gleich verloren.

Es sinkt nur nur einfach die Wahrscheinlichkeit, das sie tatsächlich noch erfaßt werden.

Die Schancenverteilung, dass ein sensorpixelgroßer Pixel trotzdem noch erfaßt wird ist:

Rot-Pixel ==> 1/3
Blau-Pixel ==> 1/3
Grün-Pixel ==> 1/1

Die Wahrscheinlichkeit das ein Pixel komplett zu 100% übersehen wird ist allerdings nur
unter den folgenden Bedingungen vorhanden:

1)
der Pixel muß tatsächlich gleich oder kleiner sein als der Einzelsensorpixel.

2)
Der Pixel muß einem reinen RGB-Farbton entsprechen, ohne Anteile die auch
von anderen Filtern durchgelassen werden.

3)
Der Pixel muß auf einen falschen Sensor fallen. (s.o.)

Nur wenn alle drei Bedingungen erfüllt sind, wird der Pixel komplett ignoriert.

Aber, und da hakt die Behauptung alle Bayer-MPs müßten als Auflösung gesehen werden,
dass Verfahren stellt solche kleinen Details trotzdem nicht mehr dar.

Es wird nur der Farbwert der berechneten Pixels ein bischen korrigiert.
Da ist ein blauer Einzel-Pixel? Klar das Gelb ist jetzt ein bischen grün!

Wie Dominik schon erwähnt hat ist das bestenfalls etwas Aliasing.

Um die "Qualität" der so erzeugten Farbwerte einzurschätzen muß man schon die Wahrscheinlichkeitsrechnung bemühen.

Ich bin aber kein Mathematiker, und ich habe mich auch noch nie wirklich
damit Wahrscheinlichkeit beschäftigt.
Aber da mich die Sache jetzt interessiert, wage ich mich mal an so eine Formel:

1/3=Rot ------------------------------------------- 1/3=Grün

----------------> 4x1 Pixelinfo/3/4=1/5,33
---------------------> Interpolierte Pixel

1/3=Grün ------------------------------------------ 1/3=Blau

Ich habe also 4 Werte, die jeweils aber nur 1/3.tel einer vorhandenen Info erfassen (RGB).
Die addiere ich und teile sie durch 4 um den Durchschnittswert zu erhalten.
Das Ergebnis besagt, wenn es denn stimmt, dass der Infogehalt des Ergebnisses ca 20% der Realinformation enthält.

Ist das so richtig?

Ist vielleicht alles Blödsinn, aber ich würde das wirklich gerne mal wissen.
Vielleicht meldet sich ja hier jemand mit mehr Ahnung als ich und korrigiert mich.

Schönen Gruß
Pitt
 
Zuletzt bearbeitet:
Skater schrieb:
Erhöht sich dadurch aber die Auflösung? Naja:, ich finde eher Nein!

Welche Auflösung betrachtest Du dabei als Basis für die "Erhöhung"? Die realen farblich unvollkommenen Pixel oder den fiktiven zusammengelegten Pixel?

In ersterem Fall ist der Anspruch falsch, da das Interpolieren nur dazu dient, die fehlenden Informationen für die vorhandenen Pixel zu ergänzen. In letzterem Fall wäre Deine Antwort falsch.

Skater schrieb:
Die Wahrscheinlichkeit das ein Pixel komplett zu 100% übersehen wird ist allerdings nur
unter den folgenden Bedingungen vorhanden:

1)
der Pixel muß tatsächlich gleich oder kleiner sein als der Einzelsensorpixel.

2)
Der Pixel muß dem reinen Farbton entsprechen, ohne Anteile die auch
von anderen Filtern durchgelassen werden.

3)
Der Pixel muß auf einen falschen Sensor fallen. (s.o.)

Nur wenn alle drei Bedingungen erfüllt sind, wird der Pixel komplett ignoriert.

Sehe ich auch so. Das hat dann auch nix mit dem Interpolationsverfahren zu tun, das liegt schon am Sensor. Nicht vergessen sollte man im Vergleich zum von Haus aus gröberen Foveon-Sensor, dass der diesen Bildpunkt auch nicht als solchen erkennen würde, da er aufgrund der größeren Pixel nur einen schwachen Helligkeitsunterschied hervorrufen würde.


Skater schrieb:
Um die "Qualität" der so erzeugten Farbwerte einzurschätzen muß man schon die Wahrscheinlichkeitsrechnung bemühen.

Ich bin aber kein Mathematiker, und ich habe mich auch noch nie wirklich
damit Wahrscheinlichkeit beschäftigt.
Aber da mich die Sache jetzt interessiert, wage ich mich mal an so eine Formel:

1/3=Rot ------------------------------------------- 1/3=Grün

4x1 Pixelinfo/3/4=1/5,33
Interpolierte Pixel

1/3=Grün ------------------------------------------ 1/3=Blau

Ich habe 4 Werte, die jeweils aber nur 1/3.tel der vorhandenen Info erfassen (RGB).
Die addiere ich und teile sie durch 4 um den Durchschnittswert zu erhalten.
Das Ergebnis besagt demnach, dass der Infogehalt des Ergebnisses ca 20% der Realinformation enthält.

Das kann ich so nicht nachvollziehen, ist vielleicht etwas zu verkürzt ausgedrückt.
 
hmuenx schrieb:
Solange ich in dem Bild noch eine regelmäßige Struktur von hellen Feldern erkennen kann, die von dunkleren Linien (wenn man sie denn noch so nennen möchte) eingeschlossen sind, dann ist noch nichts völlig zusammengelaufen.

Erinnere Dich: Eine ähnliche Argumentation haben wir beide benutzt, als wir die Bilder aus KEs 1Ds mit dem Trommelscan von sbuerger verglichen haben.

Da war der Kontrast imho deutlich höher, aber ich muss dazu sagen, meinem "Haupt"rechner hat es die HDD weggehauen und sitze nun übermüdet an nem recht suboptimalen Display was Kontrast/Helligkeit angeht... Plotten geht gerade auch schlecht, Software fehlt hier noch. Hätte auch gerne die Sache bezgl. der Demosaicing Algos gerne etwas illustriert.
 
Skater schrieb:
Hallo, da bin ich wieder. ;)

Eine der wenigen guten Nachrichten in diesem Thread. :)

Skater schrieb:
Erhöht sich dadurch aber die Auflösung? Naja:, ich finde eher Nein! :p

Durch den AA-Filter und die jeweils um einen Pixel verschobene Betrachtung der Matrizen enthält jeder Bildpunkt in der resultierenden Aufnahme so etwas wie den Durchschnitt der in diesen Bildpunkt eingehenden (winzigen!) Teile des Motivs. Deshalb zeigt ja eine Aufnahme aus einem Bayer-Sensor eine eigentlich scharfe Kante immer mit einer leichten Unschärfe, selbst wenn diese Kante genau entlang einer Reihe von Pixeln verläuft.

Deshalb ist die Frage müßig, wie hoch die Wahrscheinlichkeit ist, daß ein bestimmter Punkt im Motiv übersehen wird, denn mit einer bestimmten Gewichtung geht jeder Punkt in die resultierende Aufnahme ein - dafür sorgt der AA-Filter.

Bleiben wir bei der 20D: Da die (einfarbigen) Pixel der 20D deutlich kleiner sind als die der SD10 und da die Betrachtung der Pixelgruppen überlappend erfolgt, ist die resultierende Informationsmenge in der Aufnahme (und ich sage bewußt nicht mehr Auflösung) in der Größenordnung der 20D, auch wenn der Prozess völlig unterschiedlich ist.

Dabei sind die Ergebnisse äußerst schwer zu vergleichen, wie die Schlammschlacht in diesem Thread belegt, denn die Effekte an der Grenze, ab der die Details nicht mehr klar abgebildet werden, sind sehr unterschiedlich: Während man bei der 20D in einem allgemein sehr schwammigen Bild des Testgitters noch Struktur erkennen vermag oder auch nicht, zeigt die SD10 alternierend sauber aufgelöste Details und zusammengelaufenen Brei.

Skater schrieb:
Aber, und da hakt die Behauptung alle Bayer-MPs müßten als Auflösung gesehen werden,
dass Verfahren stellt solche kleinen Details trotzdem nicht mehr dar.

Das war zumindest nicht meine Behauptung. Meine Behauptung ist, daß der Informationsgehalt von Aufnahmen der SD10 zwischen Aufnahmen von 6 und 8 mp Kameras mit Bayer-Pattern liegt, wobei - wie mehrfach erwähnt - es wichtig ist, daß man definiert, was Informationsgehalt überhaupt ist. Nach meiner hier schwammig dargestellten Definition, und die unterscheidet sich offenbar grundlegend von der anderer Teilnehmer, ist genau dann noch Information vorhanden, wenn man bestimmte Details von anderen Details unterscheiden kann (für eine formalisierte Definition bin ich jetzt wirklich zu müde :), aber vielleicht verstehst Du trotzdem, was ich meine). Deshalb betrachte ich zum Beispiel die gerade noch erkennbare Gitterstruktur im Bild der 20D (und mehr als gerade erkennbar ist sie ja wirklich nicht) als Information, während andere Teilnehmer dies nicht so sehen.

Dieses unterschiedliche Verständnis von Informationsgehalt (und den haben wir gemeint, als wir ursprünglich von Auflösung gesprochen haben) íst m. E. übrigens die erste von zwei Hauptursachen für die Auseinandersetzungen in diesem Forum (mangelnde Distanz zum eigenen Equipment ist ist zweite).

Skater schrieb:
Vielleicht meldet sich ja hier jemand mit mehr Ahnung als ich und korrigiert mich.

*unterschreib* :)
 
Der Junge mit der Nikon schrieb:
Welche Auflösung betrachtest Du dabei als Basis für die "Erhöhung"? Die realen farblich unvollkommenen Pixel oder den fiktiven zusammengelegten Pixel?

In ersterem Fall ist der Anspruch falsch, da das Interpolieren nur dazu dient, die fehlenden Informationen für die vorhandenen Pixel zu ergänzen.
Naja, ich würde mal so ansetzen, dass der 4-Pixel=1 Farbpixel = 100% ist.
Mit dem Deskreenibg-Algo will man jetzt zusätzliche Information rausquetschen.

Um einzuschätzen wie viel das sein könnten muß halt so eine
Wahrscheinlichkeitsrechnung her, wie ich sie ja versucht hatte.

Wenn Du das
Der Junge mit der Nikon schrieb:
In letzterem Fall wäre Deine Antwort falsch.
Warum?
Der Junge mit der Nikon schrieb:
Sehe ich auch so. Das hat dann auch nix mit dem Interpolationsverfahren zu tun, das liegt schon am Sensor. Nicht vergessen sollte man im Vergleich zum von Haus aus gröberen Foveon-Sensor, dass der diesen Bildpunkt auch nicht als solchen erkennen würde, da er aufgrund der größeren Pixel nur einen schwachen Helligkeitsunterschied hervorrufen würde.
Es geht mir nur um den Prinzipienvergleich.
Meinetwegen kannst Du auch einen 8-MP Foveon mit einer 8-MP Bayer vergleichen. Wie sähe da die Wertung aus?
Der Junge mit der Nikon schrieb:
Das kann ich so nicht nachvollziehen, ist vielleicht etwas zu verkürzt ausgedrückt.

Schnen Gruß
Pitt
 
DominicGroß schrieb:
Ich hoffe ihr glaubt nicht wirklich das da so simple dahinterstecken wie Fillfactory es da behauptet...

Ich habe in meinem Beitrag #35 nicht ohne Grund die Wortwahl 'einfach skizzierte Algorithmus' benutzt... :)
 
An so subtil plazierten Wörter wird mancher wie ich vorbeilesen... übrigens:

Auch kann die erzielte Auflösung nicht einfach an den grünen Pixel festgemacht werden, wie Du es vorschlägst.

Es gibt um einiges komplexere Algos die genau von dieser Annahme ausgehen, also das die Grenzen dessen was sie an Auflösung herausholen können sich aus dem Grünen Kanal ergeben. Das ganze ist übrigens auch sehr konsistent in Vergleichen von div. CFA Dslrs gewesen die ich vor längerer Zeit diesbezgl. auf dpreview geposted hatte.
 
DominicGroß schrieb:
An so subtil plazierten Wörter wird mancher wie ich vorbeilesen... übrigens:



Es gibt um einiges komplexere Algos die genau von dieser Annahme ausgehen, also das die Grenzen dessen was sie an Auflösung herausholen können sich aus dem Grünen Kanal ergeben. Das ganze ist übrigens auch sehr konsistent in Vergleichen von div. CFA Dslrs gewesen die ich vor längerer Zeit diesbezgl. auf dpreview geposted hatte.

Ganz naiv nachgerechnet, wären aber doch dann bei der 20D ziemlich genau 4 Mio. grüne Pixel drin. Und der Foveon hat 3,3 oder 3,4 Mio. grüne Pixel.

Dann kommt unter m Strich eben eine vergleichbare Auflösung raus? Je nach Motiv, Farbverteilung etc. mit leichten Vorteilen für den einen oder den anderen Sensor...

Ich glaube so weit waren wir auch schon ganz am Anfang der Diskussion :)

viele Grüße
Thomas
 
DominicGroß schrieb:
An so subtil plazierten Wörter wird mancher wie ich vorbeilesen... übrigens:

Es ist immer gut, sich einen unauffällig plazierten Notausgang offen zu halten. :)

DominicGroß schrieb:
Es gibt um einiges komplexere Algos die genau von dieser Annahme ausgehen, also das die Grenzen dessen was sie an Auflösung herausholen können sich aus dem Grünen Kanal ergeben. Das ganze ist übrigens auch sehr konsistent in Vergleichen von div. CFA Dslrs gewesen die ich vor längerer Zeit diesbezgl. auf dpreview geposted hatte.

Sag' mir mal bitte die URL...

Es mag ja sein, daß man es an dem Grünkanal festmachen kann, allerdings würde mich dann auch die Herleitung/Begründung interessieren. Eine Annahme trifft man ja nicht einfach so.
 
Das Problem ist die Diskussion hat sich extrem verstreut, den Versuch einer Zusammenfassung findest du hier.

http://forums.dpreview.com/forums/read.asp?forum=1027&message=6620814

Im selben Thread ist glaube ich auch ein link zu einem PDF das einen recht interessanten Algorithmus beschreibt der auch diese Annahme trifft (es gibt noch mehr, PDFs von denen müsste ich auch haben).

Es handelt sich im übrigens nicht um ein simples limit durch die Anzahl der Grünen Pixel, wie ich es hier vorher erwähnte, sondern es steckt ein bischen mehr dahinter (45° gedrehtes grid als nyquist region).

Am besten einfach allen Referenzen da folgen, sorry das die Bilder da weg sind, die fliegen auch noch in meiner Sammlung rum... ich sollte das glaub ich alles mal auf ner website zusammenfassen :o

In dem Thread müsste auch eine sehr interessante Diskussion über Aliasing sein (der "sinc or swim" Teil).
 
Die "Stiftung Warentest" hat in 07/2005 erstmals in einem speziellen DSLR-Test den Begriff "Auflösung" im Sinne von "Farbauflösung" verwendet, und diese als Test- bzw. Bewertungskriterium angeführt.
Lt. Angabe ("test") wurden mit einem Weißlichtinterferometer farbige Streifenmuster mit div. Auflösung direkt auf den Bildwandler projiziert.
Beurteilt wurde dann das Bildergebnis, d.h. die Anzahl (und Kontrast) der Farbinformationen.

In punkto "Auflösung" erreichte die SD10 dann als einziger Kandidat ein "++". (Die 20D schaffte nur ein "O"). Die bekannten Mängel der SD10 (z.B. Überstrahlungen, Farbstiche) wurden auch genannt, sodaß es im "Sehtest" nur ein "O" gab.

Dieser Test insgesamt wurde in den Foren (auch hier) kontrovers diskutiert, vor allem von den Leuten, welche "Ihre" Kamera zu schlecht beurteilt sahen.
Im Endeffekt ist es aber offenbar so, daß die SD10, abhängig von den konkreten Farbinformationen Vorteile haben KANN gegenüber dem Wettbewerb.
Ich würde aber auch davor warnen, das allgemeine Auflösungsvermögen höher anzusiedeln als das z.B. bei einer 8MP-Kamera der Fall ist.

Gruß
Wolfgang
 
Onlineredakteur schrieb:
hmuenx schrieb:
Würdest Du mir nun bitte erläutern, wie ein Algorithmus funktionieren soll, der die zusammengelaufenen horizontalen Linien der SD10 zu klar getrennten Linien wie in dem Bild aus der 1Ds Mk II hochrechnen soll
Kontrast verbessern und interpolieren. Wo ist das Problem?

Wenn die Linien nicht mehr zu unterscheiden sind wie etwa rechts unten im ständig zitierten Testgitter in der Aufnahme der SD10, dann kannst Du sie nicht mehr per Kontrasterhöhung und Interpolation trennen. Die 1Ds Mk II zeigt an dieser Stelle aber noch klar zu unterscheidende Linien. Dies widerlegt auch für Dich nachvollziehbar Deine Aussage, daß Aufnahmen aus der SD10 interpoliert mit Aufnahmen aus 12-14 mp Bayer-Kameras mithalten können - die 2 mp Unterschied zwischen der 1Ds Mk II und den von Dir genannten 14 mp vernachlässige ich jetzt einfach mal, weil sie nicht relevant sind.
 
Zuletzt bearbeitet:
hmuenx schrieb:
Eine der wenigen guten Nachrichten in diesem Thread. :)
Oh danke, gebauchpinselt fühl. ;)

hmuenx schrieb:
Durch den AA-Filter und die jeweils um einen Pixel verschobene Betrachtung der Matrizen enthält jeder Bildpunkt in der resultierenden Aufnahme so etwas wie den Durchschnitt der in diesen Bildpunkt eingehenden (winzigen!) Teile des Motivs. Deshalb zeigt ja eine Aufnahme aus einem Bayer-Sensor eine eigentlich scharfe Kante immer mit einer leichten Unschärfe, selbst wenn diese Kante genau entlang einer Reihe von Pixeln verläuft.

Ein Deskreening-Algorythmus ist ja eh nicht in der Lage einen blauen,
grünen oder roten Einzel-Pixel, pixelgenau wiederzugeben,
es sei denn es kommt nicht darauf an. (große Flächen oder so.)

Genau das aber ist bei einem Foveon ja zumindest theoretisch möglich.
(Wenn die Optik und das Drumherum mitspielen würden.) :)

hmuenx schrieb:
...
Das war zumindest nicht meine Behauptung. Meine Behauptung ist, daß der Informationsgehalt von Aufnahmen der SD10 zwischen Aufnahmen von 6 und 8 mp Kameras mit Bayer-Pattern liegt, wobei - wie mehrfach erwähnt - es wichtig ist, daß man definiert, was Informationsgehalt überhaupt ist.
Ja, da kann ich zustimmen.

Da ich das von der Größenordnung her auch so sehe, war mein ursprünglicher
Deskreening-Ansatz mit den Grünpixeln ja auch kein Zufall.
Ich leite das zwar vermutlich vollkommen falsch her, aber indem man immer 2 benachbarte
Grünpixel kombiniert, erhält man halt nur einfach redundante Werte.
Dadurch würde der Grünkanal dann halt die Auflösung limitieren.

Aber welchen Deskreening-Ansatz man auch immer bevorzugt, es wird
wohl etwa bei der halben Nominal-Auflösung landen, wenn man das am
Ende vom optischen Eindruck her beurteilt.

Meine Frage weiter oben (mit der Wahrscheinlichkeitsrechnung) war der
(sicher naive) Versuch, einen möglicherweise nachvollziehbareren
rechnerischen Ansatz zu finden.

Aber ich entnehme Deiner Diskussion mit Dominik Groß, daß sich da wohl
schon ganz andere Leute die Zähne dran ausbeißen.

hmuenx schrieb:
Dieses unterschiedliche Verständnis von Informationsgehalt (und den haben wir gemeint, als wir ursprünglich von Auflösung gesprochen haben) íst m. E. übrigens die erste von zwei Hauptursachen für die Auseinandersetzungen in diesem Forum (mangelnde Distanz zum eigenen Equipment ist ist zweite).

Nun, erst wenn ich die Schwächen meiner SD10 realistisch einschätze, kann ich was dagegen tun.
(mangelnde Distanz zum eigenen Equipment ist trotzdem sicher vorhanden!) ;)

Schönen Gruß
Pitt
 
Hallo,
interessant und deshalb lesenswert ist eure Unterhaltung schon. :)
Mitreden kann ich bei diesen fachlichen Spezialitäten leider nicht :o
Da ich mir Bilder meisst am Monitor anschaue und nicht in 400% Ansicht ist mir das letzte Quentchen Auflösung ziemlich egal. Überzeugenden Fotos (am Bildschirm), was die technische Qualität betrifft, gibt es von beiden Systemen nicht viele. Von beiden gibt es aber auch Aufnahmen, die mich überzeugen. Liegt wohl mehr an den verwendeten Objektiven dem Können des Fotografen. Ob der jetzt Interesse daran hat, wie die Algorithmen zu besseren Ergebnissen führen, glaube ich nicht ;)
Fest steht, von der SDx habe ich Aufnahmen gesehen, die ich in der Qualität von keiner Anderen gesehen habe. Ob das jetzt daran liegt, dass ich speziell nach guten SDx Fotos gesucht habe und Beyerfotos ausser Acht gelassen habe? Kann ja sein. Ein bischen ist ja jeder von seiner Kamera überzeugt. ;)

Grüsse, Heinz
 
WERBUNG
Zurück
Oben Unten