• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Ich freue mich bekannt geben zu können, dass das DSLR-Forum einen neuen Aktionspartner gewinnen konnte.

    Saal Digital bietet Fotoprodukte in HighEnd-Qualität.
    Für die Mitglieder des DSLR-Forums locken Rabatte und Sonderaktionen!
    Alle Informationen dazu sowie ein tolles Einstiegsangebot unseres neuen Kooperationspartners gibt es hier.
  • Mitmachen beim DSLR-Forum Fotowettbewerb Oktober 2025.
    Thema: "Abendstimmung"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum Oktober-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Ein wirklicher Nutzen von mehr MPs.

Ja, und wenn man wirklich die 100%-Ansicht braucht, dann ist der höher aufgelöste Sensor ohnehin besser. Er ist eigentlich immer im Vorteil - von der Auslesegeschwindigkeit und dem Speicherplatzverbrauch mal abgesehen.


Bei meinen Untersuchungen war ich meist bei 400%.


abacus
 
ersteinmal stimmt es, dass bei größerer auflösung die rauschigen pixel kleiner werden - im bezug auf das bild natürlich. allerdings sorgen größere pixel für weniger rauschen, da sie mit mehr licht arbeiten
Schön, dass Du mit dem ersten Satz den Grundgedanken verstehst. Schade, dass mit dem zweiten Satz schon wieder das Vergessen bzgl. der unterschiedlichen Detailauflösung zuschlägt.
Meine Bilder aus dem letzten Post zeigen ja nun eindeutig, dass das "weniger Rauschen" der größeren Pixel nicht hilft.

Es gibt also durchaus Anwendungen, bei denen 100% gefragt ist, ja sogar darüber hinaus, wenn es den Verlauf von Flächen/Kanten zu untersuchen gilt.
Das habe ich - nochmal - nie bestritten. Wie - ebenfalls - bereits geschrieben, arbeite ich selbst häufig genug mit Zoom > 100%. Ich hatte in meinem Satz aber auch geschrieben:
Deswegen sage ich jetzt mal ganz provokativ: Wer sich seine Bilder in 100%-Auflösung anguckt und sich nicht darüber bewusst ist, welch geringen Anteil des Gesamtbildes er gerade betrachtet, weiß nicht, was er tut.
Und ich gehe mal davon aus, dass Du Dir darüber schon im Klaren warst, oder? ;)
 
...

Und ich gehe mal davon aus, dass Du Dir darüber schon im Klaren warst, oder? ;)


Klar, wollte auch nur untermauern, dass es durchaus Bedarf für solche Be-
trachtungsweisen gibt, auch wenn das die überwiegende Mehrheit derer,
die "gewöhnlich" fotografieren nicht so sieht oder auch schlicht keine Kennt-
nis hat, was man mit Fotos sonst noch so alles anfangen kann.

Es ist schlicht faszinierend, welche Möglichkeiten die digitale Fotografie so
erschließt bzw. eröffnet.


abacus
 
Das mit den begrenzenden Objektiven stimmt auch nicht: Die gesamte System-MTF (mal vereinfachend "Auflösung" genannt) ist das Produkt der MTFs der einzelnen Komponenten. Da reicht es schon, wenn eine einzelne Komponente besser wird.......

Eine Frage bleibt aber offen: Wieso rauscht nun eine D3s weniger als eine D3x oder gar Sony900? Sollte das wirklich nur an einer auf andere Ziele optimierten Software liegen?

Gruß messi
 
Das mit den begrenzenden Objektiven stimmt auch nicht: Die gesamte System-MTF (mal vereinfachend "Auflösung" genannt) ist das Produkt der MTFs der einzelnen Komponenten. Da reicht es schon, wenn eine einzelne Komponente besser wird.......

Eine Frage bleibt aber offen: Wieso rauscht nun eine D3s weniger als eine D3x oder gar Sony900? Sollte das wirklich nur an einer auf andere Ziele optimierten Software liegen?

Gruß messi

-----------------
ein wesentlicher anteil des rauschens ist das ausleserauschen (read noise) (verstärker- und quantisierungsrauschen) ... ich würde daher die ursache in der besseren performance einem wesentlich verbesserten adc zuschreiben - siehe d7000.
(und bei der d7000: je kleiner die pixel, umso kleiner die gate-kapazität am phototransistor und umso stärker der spannungsanstieg pro photoelektron --> der adc kann die photonenzahl genauer bestimmen und der adc erzeugt weniger quantisierungsrauschen)

hat die d3s auch bereits direkt in jedem pixel den adc?

lg gusti
 
Zuletzt bearbeitet:
dass es durchaus Bedarf für solche Betrachtungsweisen gibt
Da stimme ich Dir zu und ich würde niemanden pauschal für die 100%-Ansicht kritisieren (würde ich mir ja selbst ans Bein pieseln ;)). Das Problem ist, dass es neben den Leuten, welche die 100%-Ansicht bewusst einsetzen (wie z.B. Du) eben auch solche gibt, die sich dabei nicht über den Anteil am Gesamtbild im Klaren sind und dann die vielleicht 10% des Gesamtbildes entsprechenden "100%" einer 18-MP-Kamera mit den 30% des Gesamtbildes entsprechenden "100%" einer 6-MP-Kamera gleichsetzen. :(

Eine Frage bleibt aber offen: Wieso rauscht nun eine D3s weniger als eine D3x
Pro Pixel, weil weniger Pixel auf der gleichen Sensorfläche den einzelnen Pixel größer machen. Im Gesamtbild kommt dann nur zum tragen, dass die D3s natürlich ein Jahr jünger ist als die D3x.

hat die d3s auch bereits direkt in jedem pixel den adc?
Wer soll denn das bezahlen - 12 Mio ADCs? Vom schaltungstechnischen Aufwand mal ganz zu schweigen?
 
Einen Wunderschönen guten Morgen :) leider ist die Sonne mal wieder hinter Wolken verschwunden :(

Theoretisch könnten wir selbst darüber noch diskutieren, weil auch bei einem Nutzelektron vs. 1 Müllelektron (schöne Begriffe ;)) ersteres noch deterministisch und zweiteres stochastisch ist. Aber praktisch hatten wir den Fall der Einfachheit halber ja bereits ausgeschlossen. Bei aktuellen DSLRs wäre es bis dahin auch noch ganz schön weit.
Nojo, kannst du mir erklären wie du ein Elektron vom anderen unterscheiden willst :) Würde mich sehr interessieren, dass würde bei der Arbeit doch helfen.

Nein; was Du beschreibst, ist Mittelwertbildung. Bei Rauschreduktion mittels Tiefpass kann man das so pauschal nicht sagen. Aus dem Grund werden da Kanten auch nicht generell so schnell weggebügelt wie bei Mittelwertbildung durch z.B. niedrigere Auflösung.
Ja, aber dabei werden ja trotzdem "nur" benachbarte Pixel genommen. Kannst ja nicht auf der eine Seite vom Bild das Pixel von der anderen Seite heranziehen :D

Das Problem ist nicht das ISO-Level, sondern die Vernachlässigung, auf welcher Größenskala wir von "Matsch" reden. Immer noch.
Da gebe ich dir schon recht, dass es irgendwann darauf ankommt, in welcher Größe ich es betrachte. Wenn ich ein 20 MP Bild auf 100x100 Pixel verkleiner, kann ich keinen unterschied mehr sehen :)

Wenn ich aber nun diese beiden Bilder vergleiche
S95 G10 sieht man schon einen Unterschied zwischen 10 MP und 14 MP, wobei das 14 MP Bild schlechter ist. Gut scheinbar hat da auch einer die Martiniflasche angebrochen, vielleicht liegts daran :D:D.

Natürlich, deswegen ja o.g. Einschränkung: "solange die feinere Abtastung den Messfehler nicht überproportional erhöht".
Jo, genau das meine ich ja mit Grenze. Die Messfehler werden ja irgendwann überproportional. Ich wollte doch nie sagen, dass wir da schon sind, ich hatte nur von einer Grenze gesprochen, die ja bisher immer ausgeschlossen wurde.

Aber Du setzt Dich nicht direkt davor.
Nöö, das nicht. Aber das Bild ist ja trotzdem größer :)

Interessant bei deinem Bildbeispiel finde ich, dass das Ergebnis eigentlich mit dem einfachen Blur sogar noch am besten entrauscht wurde. :)
 
Eieiei.. ;)

Nojo, kannst du mir erklären wie du ein Elektron vom anderen unterscheiden willst :) Würde mich sehr interessieren, dass würde bei der Arbeit doch helfen.
Nochmal meine Bitte: mach Dich mit Rauschunterdrückungsverfahren vertraut. Es wird nicht "ein Elektron von einem anderen unterschieden" (was für eine absurde Idee), sondern die Umgebung des aktuellen Signals untersucht. Und das geht tatsächlich auch mit einem Signal, welches nur 1 Bit an Dynamikumfang hat.

Ja, aber dabei werden ja trotzdem "nur" benachbarte Pixel genommen. Kannst ja nicht auf der eine Seite vom Bild das Pixel von der anderen Seite heranziehen :D
Das hat auch niemand geschrieben? :confused:
Diese benachbarten Pixel werden aber eben nicht wie von Dir dargestellt einfach interpoliert, sondern per Kosinustransformation und Tiefpassfilter ganz anders ausgewertet. Vielleicht hilft es, wenn Du Dir auch diese beiden Begriffe einmal anschaust.

Da gebe ich dir schon recht, dass es irgendwann darauf ankommt, in welcher Größe ich es betrachte. Wenn ich ein 20 MP Bild auf 100x100 Pixel verkleiner, kann ich keinen unterschied mehr sehen :)
Ich habe nicht von einer Verkleinerung des Bildes geschrieben, sondern von einer Vergrößerung. Das war doch eigentlich recht eindeutig; was soll das jetzt? :confused:

Wenn ich aber nun diese beiden Bilder vergleiche
1. Bei Ansicht in gleicher Ausgabegröße ist der Unterschied zwar immer noch erkennbar, aber nicht mehr so eklatant wie auf Pixelebene. Nach dem, was hier bisher im Thread von dmk³ und mir geschrieben wurde, auch logisch.
2. Die S95 ist 2 Jahre neuer als die G10. Das ist in der Entwicklung von Kamerasensoren eine ganze Menge. So sind Mikrolinsen und Quanteneffizienz verbessert, der Flächenanteil der Signalisierungspfade und das Ausleserauschen reduziert worden.
3. Die G10 ist bei F/4,0 mit 1/1000s belichtet, die S95 bei F/4,5 mit 1/640s. Das sind 1/3 Unterschied in der Blende, aber 1/2 in der Belichtungszeit: D.h. die S95 hat knapp 25% mehr Licht bekommen.
Wenn man vergleicht, sollte man das vielleicht
- mit dem Gesamtbild
- bei Sensoren der gleichen Generation und
- mit gleich viel Licht
tun.

Jo, genau das meine ich ja mit Grenze. Die Messfehler werden ja irgendwann überproportional.
Da muss man noch sehen, wie weit die technische Entwicklung geht bzg. Reduzierung von Auslese- und Quantisierungsrauschen. Die haben dmk³ und ich aber von vornherein ausgeschlossen. Entsprechend stellen sich mir nun folgende Fragen:
- Wenn Du mit der Grenze die Bedingungen meinst, die dmk³ und ich ausgeschlossen haben, warum widersprichst Du uns dann? Wenn man eine Theorie genau an den Punkten angreift, die diese ausgeschlossen hat, ist das je nach Sichtweise eine Strohmanntaktik bis bestenfalls wirkungslos?
- Wieso bringst Du dann Beispiele, die von der von dmk³ und mir genannten Grenze noch weit entfernt sind?

Ich wollte doch nie sagen, dass wir da schon sind, ich hatte nur von einer Grenze gesprochen, die ja bisher immer ausgeschlossen wurde.
?? Wir haben nicht eine Grenze ausgeschlossen, sondern einen Bereich hinter der Grenze der sinnvollen Messwerte - soll heißen wir haben doch selbst eine Grenze festgelegt.

Aber das Bild ist ja trotzdem größer :)
Und das hilft uns in dem Thema jetzt wie?

Interessant bei deinem Bildbeispiel finde ich, dass das Ergebnis eigentlich mit dem einfachen Blur sogar noch am besten entrauscht wurde. :)
Das dürfte an der zu geringen Datenbasis gelegen haben. So konnten die Programme nicht ordentlich profilieren. Und das greift eben, wie an den Beispielen deutlich zu sehen, insbesondere bei geringerer Auflösung. (Dass es mit 1 und 2 Bit nicht ordentlich klappte, liegt wie gesagt an der Ausrichtung der Programme).

Im Zusammenhang mit meinen Beispielbildern dürfte auf jeden Fall aber auffallen, dass wohl das mit Gauss-Blur Radius 1,00 behandelte 1-Bit-Bild zwar körnig, aber irgendwie noch am besten aussieht. Eben weil das Gehirn auch mit Rauschunterdrückungsalgorithmen arbeitet, die im Fall des reinen (ohne Blur behandelten) 1-Bit-Bildes natürlich an der ebenfalls physiologischen Mustererkennung scheitert. Und in die gleiche Kerbe haue ich noch damit, dass es mal zu DOS-Zeiten ein PC-Programm gab, welches über den Speaker relativ gut Wavesounds ausgeben konnte. Den Speaker konnte man aber nicht mit einer bestimmten Amplitude regeln, sondern nur mit einem Frequenzgenerator ein- und ausschalten: also quasi 1 Bit Dynamikauflösung (es war ja immer nur eine Frequenz einstellbar; eine echte Fouriersynthese also auch nicht möglich). Durch eine ausreichend schnelle Ansteuerung auf Hardwareebene (Assembler war geil ;)) konnte relativ guter Klang erzeugt werden analog dem Verfahren, wie mit Pulsweitenmodulation mittlere Spannungen geregelt werden.
 
Zuletzt bearbeitet:
Eieiei.. ;)

Nochmal meine Bitte: mach Dich mit Rauschunterdrückungsverfahren vertraut. Es wird nicht "ein Elektron von einem anderen unterschieden" (was für eine absurde Idee), sondern die Umgebung des aktuellen Signals untersucht. Und das geht tatsächlich auch mit einem Signal, welches nur 1 Bit an Dynamikumfang hat.
Ich fand die Idee auch absurd, deswegen frage ich ja :)

Ich habe nicht von einer Verkleinerung des Bildes geschrieben, sondern von einer Vergrößerung. Das war doch eigentlich recht eindeutig; was soll das jetzt? :confused:
Öhh, so eindeutig fand ich das jetzt nicht. Du hast geschrieben, es kommt darauf an bei welcher Größenskala wir uns den Matsch anschauen. Ich meinte nur, wenn ich das Bild auf 100 x 100 Pixel verkleiner, dann sehe ich natürlich keinen Matsch mehr.

1. Bei Ansicht in gleicher Ausgabegröße ist der Unterschied zwar immer noch erkennbar, aber nicht mehr so eklatant wie auf Pixelebene. Nach dem, was hier bisher im Thread von dmk³ und mir geschrieben wurde, auch logisch.
2. Die S95 ist 2 Jahre neuer als die G10. Das ist in der Entwicklung von Kamerasensoren eine ganze Menge. So sind Mikrolinsen und Quanteneffizienz verbessert, der Flächenanteil der Signalisierungspfade und das Ausleserauschen reduziert worden.
3. Die G10 ist bei F/4,0 mit 1/1000s belichtet, die S95 bei F/4,5 mit 1/640s. Das sind 1/3 Unterschied in der Blende, aber 1/2 in der Belichtungszeit: D.h. die S95 hat knapp 25% mehr Licht bekommen.
Wenn man vergleicht, sollte man das vielleicht
- mit dem Gesamtbild
- bei Sensoren der gleichen Generation und
- mit gleich viel Licht
tun.
Das du mir sagst, dass die G10 älter ist und der Sensor der S95 ja jüngerer Generation ist, war mir klar. Nur findet man zur Zeit eigentlich keine Sensoren gleicher Größe vom gleichen Hersteller, die einen so großen MP-unterschied haben. Ob die S95 nun mehr Licht bekommen hat, ist nun die Frage, kann ja auch sein, dass die Beleutung bei der G10 heller war, sodass eine kürzere Belichtung möglich war :) Wobei ja auch bei längerer Belichtung mehr Rauschen entsteht. Ich muss sagen, da glaube ich aber selbst kaum dran, dass da der Unterschied zwischen 1/640s und 1/1000 so den "Rauschunterschied" macht. :)
Meiner Meinung nach ist der Unterschied aber schon sehr stark zu sehen, zumindest auf meinem Monitor, selbst mein Kollege hier, der mit Kameras so viel zu tun hat, dass er eine im Handy hat, meinte dass das Bild viel schlechter wäre :)

Da muss man noch sehen, wie weit die technische Entwicklung geht bzg. Reduzierung von Auslese- und Quantisierungsrauschen. Die haben dmk³ und ich aber von vornherein ausgeschlossen. Entsprechend stellen sich mir nun folgende Fragen:
- Wenn Du mit der Grenze die Bedingungen meinst, die dmk³ und ich ausgeschlossen haben, warum widersprichst Du uns dann? Wenn man eine Theorie genau an den Punkten angreift, die diese ausgeschlossen hat, ist das je nach Sichtweise eine Strohmanntaktik bis bestenfalls wirkungslos?
- Wieso bringst Du dann Beispiele, die von der von dmk³ und mir genannten Grenze noch weit entfernt sind?

?? Wir haben nicht eine Grenze ausgeschlossen, sondern einen Bereich hinter der Grenze der sinnvollen Messwerte - soll heißen wir haben doch selbst eine Grenze festgelegt.
Dieser Punkt wurde von euch nicht ausgeschlossen, erst jetzt so langsam. mit meinem ersten Beitrag habe ich die Grenze erwähnt und es wurde gesagt, nein so eine Grenze gibt es nicht. Später hieß es dann, ja wenn die Fläche vom Sensor kleiner wird, dass hätte aber nix mit der MP-Zahl zu tun.
Ich habe gesagt, dass es auch an der MP-Zahl liegt, da ja beides zusammenhängt.
Wenn du jetzt auch von einer Grenze sprichst, bin ich ja zufrieden, da ich ja eigentlich gar nicht mehr wollte, als darauf hinzuweisen, dass es eine Grenze gibt, aber der man mittels höherer Auflösung keine besseren Ergebnisse mehr erzielen kann.

Und das hilft uns in dem Thema jetzt wie?
Das war nur ein Beispiel, dass der Mensch eher zu größeren Bildern neigt, als sich immer im weiten optimalen Betrachtungsabstand zu bewegen. Hat mit dem eigentlichen Diskussion der Grenze nichts zu tun :)

Jaja, der alte PC-Brülllautsprecher. Der hatte schon was :D
Wenn ich alleine daran denke, wie man bei jedem Spiel dann den IRQ Port der Soundkarte neu eingeben musste. Ohman. Ein Glück gibts jetzt Windows 7 :D
 
Vielleicht geben wir danhieux besser eine moderne 1MP-Kamera die bis ISO 409600 geht.
Na gemein müsse mir nu auch nicht werden. :)

Ich fand die Idee auch absurd, deswegen frage ich ja :)
Ok, kein Ding. :)

Öhh, so eindeutig fand ich das jetzt nicht. Du hast geschrieben, es kommt darauf an bei welcher Größenskala wir uns den Matsch anschauen. Ich meinte nur, wenn ich das Bild auf 100 x 100 Pixel verkleiner, dann sehe ich natürlich keinen Matsch mehr.
Ich hatte eigentlich auch von hineinzoomen und "xx % Anteil des Gesamtbildes" geschrieben, ist jetzt aber auch egal. Inzwischen ist das ja geklärt.

Das du mir sagst, dass die G10 älter ist und der Sensor der S95 ja jüngerer Generation ist, war mir klar.
Wenn Dir das klar war und Du es trotzdem gepostet hast: Schießt Du Dir gern Eigentore? ;)
Nur Spaß. :)

Nur findet man zur Zeit eigentlich keine Sensoren gleicher Größe vom gleichen Hersteller, die einen so großen MP-unterschied haben.
Keine Ahnung, so gut kenne ich den Markt nicht.

Ob die S95 nun mehr Licht bekommen hat, ist nun die Frage, kann ja auch sein, dass die Beleutung bei der G10 heller war, sodass eine kürzere Belichtung möglich war :)
Kann aber auch umgekehrt gewesen sein - nix genaues weiß man nicht. :)

Wobei ja auch bei längerer Belichtung mehr Rauschen entsteht.
In Gesamtheit ja, denn das absolute Photonenrauschen berechnet sich tatsächlich mit etwa Wurzel(Photonenzahl). Da das, was wir als Rauschen bezeichnen, aber eigentlich die Relation von Rausch- zu Signalpegel ist und letzterer gegenüber seiner Wurzel natürlich überproportional steigt, nimmt das von uns betrachtete "Rauschen" (als 1/SNR) mit längerer Belichtung ab.

Ich muss sagen, da glaube ich aber selbst kaum dran, dass da der Unterschied zwischen 1/640s und 1/1000 so den "Rauschunterschied" macht. :)
Ich denke den Hauptunterschied macht hier die Entwicklung der Sensorempfindlichkeit über 2 Jahre.

Dieser Punkt wurde von euch nicht ausgeschlossen, erst jetzt so langsam.
Von mir von Anfang an:

Einzige Ausnahme: bei den kleinen Dimensionen der Kompakten macht das Verhältnis aus Pixelfläche und Signalleitungen dazwischen bereits einen erheblichen Anteil aus [..]
vom Verhältnis Pixelfläche zu durch Signalleitungen belegter Fläche abgesehen

mit meinem ersten Beitrag habe ich die Grenze erwähnt
Da hast Du - direkt im Folgesatz - von Kompakten um 12-14 MP gesprochen, was den Eindruck erweckte, dass Du diese Grenze bereits gekommen siehst. Vor allem aber hattest Du bereits mit Deinem Folgeposting:

Ein VF-Sensor mit 100 MP wird aber mehr Rauschen Als ein APS-C mit 18 MP, obwohl er eine größere Fläche hat.
eindeutig klargemacht, dass Du die Ansichten von dmk³ und mir nicht nachvollziehen kannst. Aus beiden Tatsachen heraus ist zweifelhaft, dass Du wirklich die Grenze meintest, die ich meinte. Ich sehe Kompakte als in zunehmend schwierige MP-Bereiche vorstoßend, aber noch nicht an der der Grenze, dass das Ausleserauschen dominiert und Du hast immer - im Gegensatz zu mir - mit dem einzelnen Pixel argumentiert.

Das war nur ein Beispiel, dass der Mensch eher zu größeren Bildern neigt, als sich immer im weiten optimalen Betrachtungsabstand zu bewegen.
Selbst das bestreite ich, weil der Mensch nur ein begrenztes Sichtfeld und nur eine begrenzte Verarbeitungsfähigkeit seiner Sinne hat, aber wie geschrieben, das hilft unserer Diskussion in keinster Weise. :)

Wenn ich alleine daran denke, wie man bei jedem Spiel dann den IRQ Port der Soundkarte neu eingeben musste.
Tja.. ich hab mich weniger mit den Spielen als mit den Hintergründen dieser ganzen IRQ-Problemchen gewidmet.
Und ja: DOS konnte echtes preemptives Multitasking. Nein, nicht mit dem Taskmanager.. selbst programmiert mit einem ich glaube 16 us time slice.. hach ja.. alte Zeiten. :)
 
Na gemein müsse mir nu auch nicht werden. :)
Wobei so ne Kamera in der Überwachungsbranche wahrscheinlich auch Vorteile hätte :)

Keine Ahnung, so gut kenne ich den Markt nicht.
Ich kann mich hauptsächlich an die Kamera errinnern, da es für geraume Zeit die letzte Kamera war, die mit einem so kleinen Sensor so hohe MP hatte. Der G10 hatte jede Zeitschrift das schlechteste Rauschverhalten seit Jahren bescheinigt, die Kamera war wohl auch mit der Grund, warum die "6MP sind genug" Bewegung ins rollen kam.
Erst im März wird die Canon A3200 IS das noch toppen mit 16 MP auf dem Winzsensor.
Bin mal gespannt wie da dann die Bilder aussehen. :)

In Gesamtheit ja, denn das absolute Photonenrauschen berechnet sich tatsächlich mit etwa Wurzel(Photonenzahl). Da das, was wir als Rauschen bezeichnen, aber eigentlich die Relation von Rausch- zu Signalpegel ist und letzterer gegenüber seiner Wurzel natürlich überproportional steigt, nimmt das von uns betrachtete "Rauschen" (als 1/SNR) mit längerer Belichtung ab.
Stimmt, leider wird dann mit zunehmender Belichtungszeit das "Wärmerauschen" und das Rauschen durch sonstige Strahlung immer höher.

Ich denke den Hauptunterschied macht hier die Entwicklung der Sensorempfindlichkeit über 2 Jahre.

Im Endeffekt wahrscheinlich mit einer der Hauptgründe. Leider kann man das ja nicht ewig weiter verbessern.

Von mir von Anfang an:

Da hast Du - direkt im Folgesatz - von Kompakten um 12-14 MP gesprochen, was den Eindruck erweckte, dass Du diese Grenze bereits gekommen siehst. Vor allem aber hattest Du bereits mit Deinem Folgeposting:...
OK, dann haben wir recht klassisch aneinander vorbei geredet. die 12-14 MP habe ich als bereits kritisches Beispiel genannt. Wobei ich das mit schlechter Bildqualität schon so meinte.
Das man immer erst entrauschen sollte und dann verkleinern und nicht erst verkleinern und dann entrauschen sollte war mir von Anfang an logisch.
Nur bekomme ich nicht auf ewig eine bessere Bildqualität durch mehr MP.

Tja.. ich hab mich weniger mit den Spielen als mit den Hintergründen dieser ganzen IRQ-Problemchen gewidmet.
Und ja: DOS konnte echtes preemptives Multitasking. Nein, nicht mit dem Taskmanager.. selbst programmiert mit einem ich glaube 16 us time slice.. hach ja.. alte Zeiten. :)
:) Ich war froh als wir endlich Windows 3.11 hatten. Das war soo viel einfacher für mich. Da war ich 7-8 Jahre oder so. Zusammen damit hatten wir dann auch nen Farbmonitor bekommen :eek::D
Ganz am Anfang hatten wir sogar noch einen Grün-schwarz Monitor. Ohman. Das war ein Ding. Wenn man sich überlegt wo man Heute davor sitzt. Das hätte einem nie einer gesagt.
 
Ohh, du hast recht. War ja erst 1993. Da war ich ja auch schon 12 Jahre alt und das www. kam erst raus. Für ISDN hat man damals noch eine Prämie von der Telekom bekommen, wenn man umgestiegen ist, ungeahnte Geschwindigkeiten damals :D
 
WERBUNG
Zurück
Oben Unten