das trifft aufs Rauschen, aber nicht auf die Dynamik zu.
Wirklich? Das war mir nicht bewusst. Kannst du das ein wenig ausführen, bitte?

Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
In eigener Sache!
Liebe Mitglieder, liebe Besucher und Gäste
ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
Bitte hier weiterlesen ...
das trifft aufs Rauschen, aber nicht auf die Dynamik zu.
Natürlich. Aber die Fertigungspreise sind nicht so relevant wie hier immer wieder dargestellt. Ohne das genauer zu recherchieren würde ich nicht davon ausgehen, dass eine D3 mehr als ein paar hundert Dollar in der Produktion kostet und eine D3x nur unwesentlich mehr, mit der einzigen Unbekannten, was so ein Sensor kostet. Aber auch der wird nicht in den tausenden von Dollar liegen, sonst würde einerseits Canon kaum eine 5D2 verkaufen und Sony auch nicht ihre 24MP-Monster zu den Preisen.
Die Entwicklungskosten verteilen sich auf die gesamte Palette an Kameras mit jeweils einem kleinen spezifischen Anteil Pro Kameratyp. Viel relevanter sind bspw. auch Marketing und Werbung, welche kräftig Geld verschlingen.
Sowohl die Sony Chips der A900/850 als auch der Canon Chip z. B. aus der 5D II, haben bei weitem nicht diese Detailschärfe. Gerade der Canon Chip verschmiert und verschluckt förmlich kleine Details.
@oaktree
Hier der Link:
http://www.imaging-resource.com/IMCOMP/COMPS01.HTM
Wähle die Kameramodelle und vergleiche mal die Testbilder der Reihe "Still-life" (ISO 100). Achte mal auf die verschiedenen Stoffe und deren Strukturen links oben oder z. B. den Staub auf der schwarzen Tasse rechts unten.
das trifft aufs Rauschen, aber nicht auf die Dynamik zu.
Da sehe ich vor allem, dass unterschiedlich fokussiert wurde. Beim ersten Testbild sind die Augen der 5D deutlich unschärfer, dafür das Blättchen mit den Testgrafiken und das Amulett schärfer. Bei der Mint-farbigen Schaufensterpuppe ist bei der 5D auf die Schulter scharfgestellt, bei der D3x auf das Gesicht.
Und direkt hinter der von dir erwähnten Tasse ist eine "Proportion Scale", die beispielsweise bei der 5D schärfer ist.
So, und gerade jetzt, wo ich lesen wollte, wie die Bilder enstanden sind, geht die Site bei mir nicht mehr. (Wäre interessant zu wissen, ob jpg ooc, Rauschunterdrückung, Optik usw).
Hast du etwas Solideres?
Im Ernst: Ich glaube nicht, dass die Preise durch unterschiedliche Kosten in der Chip-Herstellung determiniert sind. Alle Hersteller nehmen bei den Verkaufserlösen, was der Markt hergibt. Und eine hypotehtische Sony mit angenommen demselben Chip wie eine Nikon erzielt m.E. deswegen eineren geringeren Verkaufspreis als ein (angenommen identisches) Nikon-Pendant, weil das Nikon-Paket rundherum einfach der Kamera einen Mehrwert gibt.
Auch wenn der Sensor baugleich mit dem der A900 und A850 ist, hat Nikon scheinbar dennoch etwas komplett geändert und verbessert.
Soweit ich mal an anderer Stelle in einem englischsprachigen Test gelesen habe, wurde vom Autor dort gemutmaßt, dass es sich bei dem Nikon Chip, um eine selektierte Version handeln könnte.
Und was die Schärfe, Details und auch Texturverluste angeht, hat dieser Chip in der D3x weit und breit keine Konkurrenz im KB-Sektor. Sowohl die Sony Chips der A900/850 als auch der Canon Chip z. B. aus der 5D II, haben bei weitem nicht diese Detailschärfe. Gerade der Canon Chip verschmiert und verschluckt förmlich kleine Details.
@oaktree
Hier der Link:
http://www.imaging-resource.com/IMCOMP/COMPS01.HTM
Wähle die Kameramodelle und vergleiche mal die Testbilder der Reihe "Still-life" (ISO 100). Achte mal auf die verschiedenen Stoffe und deren Strukturen links oben oder z. B. den Staub auf der schwarzen Tasse rechts unten.
Wirklich? Das war mir nicht bewusst. Kannst du das ein wenig ausführen, bitte?![]()
Wie soll das gehen? Wo ist der fundamentale Unterschied zwischen Pixel-Binning und nachherigem Zusammenrechnen?
Dazu hätte ich gerne eine Quelle. Hast du da etwas? und was davon ist durch den Sensor und was durch die anschlißende Signalverarbeitung bedingt?
Im übrigen bin ich eher der Meinung, dass der Preis nicht durch die Produktionskosten determiniert wird, sondern durch den Markt, sprich fast ausschließlich dadurch, was die KäuferInnen bereit sind zu zahlen.
ein schlechtes Eingangs-Signal bleibt ein schlechtes Eingangs-Signal. Das wird mit verkleinern nicht besser. Es kann höchstens "verschwinden" (weg gerechnet werden).
... und beim Pixel-Binning wird das Eingangssignal auf magische Weise besser?
Das Zusammenrechnen passiert beim Pixel-Binning einfach an anderer Stelle.
Du wiederholst ja nur was oaktree sagt: Der Preis wird dahin gesetzt, wo Nikon der Meinung ist, dass ausreichend Kunden bereit sind diesen Preis zu zahlen. Dass der noch abhängig von der Konkurrenzsituation und vielen anderen Faktoren ist klar. Und wenn man das richtig gemacht hat, dann hat man das Maximum rausgeholt.Der Preis definiert, wenn sie Angebot und Nachfrage "treffen".
Weder Nikon noch der Markt kann im Alleingang einen Preis für ein Produkt definieren.
Wenn es um die reinen Produktionskosten ginge, würde das sicherlich problemlos gehen.Beispiel... der Markt würde wohl eine D3x im Preis von 2000Euro mit Handkuss nehmen. Dass dies aber wohl nicht "möglich" ist liegt auf der Hand.
die "FLäche" eines resultierenden "Pixel" ist beim Pixel-binning "4x" höher.
somit muss auch die entsprechende Signalverstärkung nicht so hoch sein.
Sagen wir... umgerechnet vielleicht 4x kleiner.
Heisst... anstatt einen Störsignalanteil von 30% hast du so noch einen von 10%.
Und so automatisch auch ein deutlich besseres Eingangs-Signal.
Das herunter rechnen ist lediglich eine statistische Glättung. Und kann nicht auf einmal aus einem 30%-Störsignalanteil einen 10% machen.
Während das andere die Physikalische Grundlage verbessert und so auch die Dynamik.
die "FLäche" eines resultierenden "Pixel" ist beim Pixel-binning "4x" höher.
somit muss auch die entsprechende Signalverstärkung nicht so hoch sein.
Sagen wir... umgerechnet vielleicht 4x kleiner.
Heisst... anstatt einen Störsignalanteil von 30% hast du so noch einen von 10%.
Und so automatisch auch ein deutlich besseres Eingangs-Signal.
Das herunter rechnen ist lediglich eine statistische Glättung. Und kann nicht auf einmal aus einem 30%-Störsignalanteil einen 10% machen.
Während das andere die Physikalische Grundlage verbessert und so auch die Dynamik.
Irgendwie waere es voll toll, wenn jemand, der Ahnung davon hat (das schliesst offensichtlich weder Dich noch mich ein), das mal sinnvoll erklaeren koennte. So ist das allenfalls etwas bessere Spekulation.
sollte es hier nicht mal um eine mögliche D700x geben? Bin gerade irritiert.
...
Ob sich dadurch die Dynamik erhöht, wage ich einfach zu bezweifeln. Dynamik ist der Bereich, in dem der Sensor nicht schwarz oder weiß sieht, sondern etwas dazwischen. Das wird durch Zusammenfassen der Pixel nicht besser, sondern nur durch eine Sensorfläche, die eben eine höhere Dynamik erfassen kann, je konstruiertem Sensorpunkt.
Und man weiss, je grösser die Fläche eines Pixel, desto weniger muss sein Signal verstärkt werden, um die gleiche Lichtmenge aufzunehmen wie ein äquivalentes kleineres.